Search (1878 results, page 1 of 94)

  • × year_i:[2010 TO 2020}
  1. Parzinger, H.; Schleh, B.: »Der große Traum von der Demokratisierung des Wissens« : Professor Hermann Parzinger drückt beim Aufbau der Deutschen Digitalen Bibliothek aufs Tempo: Freischaltung im Sommer / Bibliotheken bei Digitalisierung weit vorne / Holprige Finanzierung (2012) 0.22
    0.22362489 = product of:
      0.44724977 = sum of:
        0.04166165 = weight(_text_:und in 1206) [ClassicSimilarity], result of:
          0.04166165 = score(doc=1206,freq=6.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.29710194 = fieldWeight in 1206, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1206)
        0.40558812 = weight(_text_:hermann in 1206) [ClassicSimilarity], result of:
          0.40558812 = score(doc=1206,freq=4.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.8376393 = fieldWeight in 1206, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1206)
      0.5 = coord(2/4)
    
    Abstract
    Die Deutsche Digitale Bibliothek (DDB) will das gesamte kulturelle Erbe Deutschlands - Bücher, Bilder, Noten, Filme, Museumsobjekte - für alle Bürger digital zugänglich machen. Dazu sollen nicht weniger als 30000 Kultur- und Wissenschaftseinrichtungen im Land miteinander vernetzt werden. Ein gewaltiges Ziel - mit enormen Kosten und zahlreichen technischen Hürden. BuB-Redakteur Bernd Schleh hat mit dem Vorstandssprecher des Kompetenznetzwerks der DDB, Professor Hermann Parzinger, über Verheißungen und Probleme des Mega-Projekts gesprochen, dessen erste Inhalte schon in diesem Jahr frei zugänglich sein sollen.
  2. Neubauer, K.W.: Cloud oder Nebel? : Was macht die Vision für eine neue it-Struktur der Bibliotheken? (2014) 0.17
    0.16745041 = product of:
      0.33490083 = sum of:
        0.048106723 = weight(_text_:und in 2617) [ClassicSimilarity], result of:
          0.048106723 = score(doc=2617,freq=8.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.34306374 = fieldWeight in 2617, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2617)
        0.2867941 = weight(_text_:hermann in 2617) [ClassicSimilarity], result of:
          0.2867941 = score(doc=2617,freq=2.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.5923004 = fieldWeight in 2617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2617)
      0.5 = coord(2/4)
    
    Abstract
    Was macht die neue IT-Infrastruktur für deutsche Bibliotheken? Wird das CIB-Projekt sie bringen? Was machen die Verbünde? Die Autoren (damals mit Hermann Kronenberg) haben 2012 aus Anlass der DFG-Ausschreibung eine Neustrukturierung nach dem Stand der Technik vorgeschlagen. Das von der DFG 2013 genehmigte CIB-Projekt geht in die gleiche Richtung. Inzwischen versuchen sich die Verbünde einzeln neu zu positionieren - und einige sehr geschickt. Wie wird so eine gemeinsame neue Infrastruktur entstehen? Die Grundfrage "regional-national-international" hat sich nicht geändert, aber wo werden die Lösungen erarbeitet? Jedenfalls sind die Verbünde und Bibliotheken immer noch zu sehr mit der Verbesserung der alten Arbeitsabläufe und Dienstleistungen beschäftigt und kümmern sich noch zu wenig um die neuen Lösungen, z.B. die optimierte Informationsversorgung der Wissenschaftler.
  3. Hermann, M.: Bibliotheksdarstellungen im Film : ein Analysemodell und vier Fallbeispiele (2012) 0.15
    0.1501857 = product of:
      0.3003714 = sum of:
        0.0545479 = weight(_text_:und in 3448) [ClassicSimilarity], result of:
          0.0545479 = score(doc=3448,freq=14.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.38899773 = fieldWeight in 3448, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3448)
        0.24582352 = weight(_text_:hermann in 3448) [ClassicSimilarity], result of:
          0.24582352 = score(doc=3448,freq=2.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.5076861 = fieldWeight in 3448, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.046875 = fieldNorm(doc=3448)
      0.5 = coord(2/4)
    
    Abstract
    Die Darstellung von Bibliotheken und Bibliothekaren ist von den Anfängen des Kinos bis zur Gegenwart ein fester Bestandteil der Filmgeschichte. Dennoch ist der Darstellung der Institution Bibliothek in der akademischen Diskussion bisher wenig Beachtung geschenkt worden. Die wenigen Beiträge sind sich in ihrer Betrachtung von Bibliotheken im Film erstaunlicherweise darin einig, dass Bibliotheken vorrangig die Funktion einer atmosphärischen Kulisse einnehmen und darüber hinaus nur selten eine weitergehende, für die Handlung erhebliche Bedeutung erfahren. Diese undifferenzierte Sicht auf Bibliotheken im Film wird der Fülle und Vielfalt der Darstellungen jedoch nicht gerecht. Um die Vielschichtigkeit der Thematik besser zu erfassen, wird in diesem Artikel ein Analysemodell vorgeschlagen, das eine strukturierte Einordnung von Bibliotheksdarstellungen im Film erlaubt. Anhand vier filmischer Beispiele - Indiana Jones and the Last Crusade (1989), Misery (1990), City of Angels (1998) und The Shawshank Redemption (1994) - werden unterschiedliche Ausprägungsformen von Bibliothekdarstellungen im Film aufgezeigt. Diese Fallbeispiele verdeutlichen, dass die Funktionen und Bedeutungen von Bibliotheken im Film wesentlich vielfältiger sind als bisher allgemein angenommen. Es lässt sich in zudem in Ansätzen herausarbeiten, mit welchen Attributen und Werten Bibliotheken konventionell in Verbindung gebracht werden.
  4. ¬Der "Giftschrank" heute : Vom Umgang mit "problematischen" Inhalten und der Verantwortung der Bibliotheken (2017) 0.14
    0.14352892 = product of:
      0.28705785 = sum of:
        0.041234333 = weight(_text_:und in 976) [ClassicSimilarity], result of:
          0.041234333 = score(doc=976,freq=8.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.29405463 = fieldWeight in 976, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=976)
        0.24582352 = weight(_text_:hermann in 976) [ClassicSimilarity], result of:
          0.24582352 = score(doc=976,freq=2.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.5076861 = fieldWeight in 976, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.046875 = fieldNorm(doc=976)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: JOHANNES FÜLBERTH: Indizierung in Bibliotheken heute GABRIELE BEGER: Das Recht auf Vergessen MONIKA MORAVETZ-KUHLMANN: Porn, Bombs and Revisionism. Zum Umgang mit 'problematischer Literatur' in einer großen Forschungsbibliothek SIEGFRIED LOKATIS: Giftschränke im Leseland. Die Sperrmagazine der DDR unter besonderer Berücksichtigung der Deutschen Bücherei THOMAS BÜRGER: Heilsames Gift? Politische Aufklärung durch digitale Bereitstellung von NS-Zeitungen STEPHAN KELLNER: Nationalsozialistisches Schrifttum in der Bayerischen Staatsbibliothek nach 1945 und heute. Das Pflichtexemplar als Politikum ARNE ACKERMANN, ASTRID MECKL: Freiheit versus Restriktionen. Von der Verantwortung Öffentlicher Bibliotheken bei medialen Gefährdungen HERMANN RÖSCH: Filtersoftware in Bibliotheken. Unzulässige Zensur oder notwendiges Instrument des Jugendschutzes und der Qualitätskontrolle? KLAUS CEYNOWA: Content ohne Context? Grenzen der "Offenheit" digitaler Sammlungen
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 64(2017) H.3/4, S.xxx-xxx
  5. Semenova, E.: Ontologie als Begriffssystem : Theoretische Überlegungen und ihre praktische Umsetzung bei der Entwicklung einer Ontologie der Wissenschaftsdisziplinen (2010) 0.14
    0.14076675 = product of:
      0.2815335 = sum of:
        0.035709985 = weight(_text_:und in 5095) [ClassicSimilarity], result of:
          0.035709985 = score(doc=5095,freq=6.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.25465882 = fieldWeight in 5095, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5095)
        0.24582352 = weight(_text_:hermann in 5095) [ClassicSimilarity], result of:
          0.24582352 = score(doc=5095,freq=2.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.5076861 = fieldWeight in 5095, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.046875 = fieldNorm(doc=5095)
      0.5 = coord(2/4)
    
    Abstract
    Das Konzept des Semantic Web befindet sich gegenwärtig auf dem Weg von der Vision zur Realisierung und ist "noch gestaltbar", ebenso wie eine seiner Grundkonzeptionen, die Ontologie. Trotz der stetig wachsenden Anzahl der Forschungsarbeiten werden Ontologien primär aus der Sicht semantischer Technologien untersucht, Probleme der Ontologie als Begriffssystem werden in der Ontologieforschung nur partiell angetastet - für die praktische Arbeit erweist sich dieses als bedeutender Mangel. In diesem Bericht wird die Notwendigkeit, eine Ontologie aus der Sicht der Dokumentationssprache zu erforschen, als Fragestellung formuliert, außerdem werden einige schon erarbeitete theoretische Ansätze skizzenhaft dargestellt. Als Beispiel aus der Praxis wird das Material des von der DFG geförderten und am Hermann von Helmholtz-Zentrum für Kulturtechnik der Humboldt Universität zu Berlin durchgeführten Projektes "Entwicklung einer Ontologie der Wissenschaftsdisziplinen" einbezogen.
  6. Rösch, H.: RAK als Romanmotiv (2010) 0.14
    0.13532037 = product of:
      0.27064073 = sum of:
        0.038876105 = weight(_text_:und in 90) [ClassicSimilarity], result of:
          0.038876105 = score(doc=90,freq=16.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.2772374 = fieldWeight in 90, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=90)
        0.23176463 = weight(_text_:hermann in 90) [ClassicSimilarity], result of:
          0.23176463 = score(doc=90,freq=4.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.47865102 = fieldWeight in 90, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.03125 = fieldNorm(doc=90)
      0.5 = coord(2/4)
    
    Abstract
    Juli Zehs »Corpus Delicti« verheißt ersehnten Paradigmenwechsel in der öffentlichen Wahrnehmung von Bibliotheken Das Angebot an Belletristik-Büchern auf der Frankfurter Buchmesse ist unüberschaubar. Trends und Moden wechseln in immer rascherer Abfolge. Wer hier den Überblick behalten möchte, hat es schwer. Umso erfreulicher ist eine Konstante im Bereich der gehobenen Roman-Literatur: Es werden immer mehr Titel angeboten, die Bibliothekare und ihr Tun als zentrales Motiv verarbeiten. Hermann Rösch stellt in diesem Zusammenhang - und in der folgenden Glosse - den Roman »Corpus Delicti. Ein Prozess« von Juli Zeh aus dem vergangenen Jahr vor, der bisher in der bibliothekarischen Fachliteratur kaum Beachtung fand, obwohl hier Sinn und Unsinn des RAK-Regelwerks in einer Intensität diskutiert werden, die man in einem Roman nicht unbedingt vermuten würde.
    Footnote
    Vgl. auch den Leserbrief: Dahlen, P.: Kopfschütteln über diese Profession. In: BuB. 62(2010) H.11/12, S.749: "Zur Glosse »RAK als Romanmotiv / Juli Zehs >Corpus Delicti< verheißt ersehnten Paradigmenwechsel in der öffentlichen Wahrnehmung von Bibliotheken« von Hermann Rösch in der BuB-Septemberausgabe (Seite 626 ff.) hat uns folgende Zuschrift erreicht: »Es ist schon erstaunlich. Da verwendet eine deutsche Bestseller-Autorin in ihrem Roman das Kürzel R. A. K. Dieses steht im Roman für >Recht auf Krankheit>. Thema des Romans ist ein Gesundheitsstaat, der seine Bürger kontrolliert und bespitzelt. Bibliotheken, Bibliothekare/innen und bibliothekarische Themen spielen in dem Roman keine Rolle. Und was darf man in BuB lesen? Eine dreiseitige Glosse zum Thema RAK als Romanmotiv mit zahlreichen aus dem Zusammenhang gerissenen Zitaten. Das Regelwerk RAK tatsächlich als ein Roman-Motiv in >Corpus Delicti< darzustellen, ist irreführend oder schlicht falsch. Dann ist eine Schießerei in einem Actionfilm, die zufällig in einer Bibliothek stattfindet, aktive Leseförderung. Hat man >Corpus Delicti< gelesen, ärgert man sich über den Artikel, hat man den Roman nicht gelesen, denkt man am Ende noch allen Ernstes, der Roman beschäftige sich mit Motiven unserer Profession. Bleibt zu hoffen, dass kein >Nicht-Bibliothekar> diese Glosse liest. Dann hat man eine Wirkung in der Öffentlichkeit: Ein Kopfschütteln über diese Profession und ihr Selbstbild."
  7. Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010) 0.13
    0.13345873 = product of:
      0.26691747 = sum of:
        0.2428641 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
          0.2428641 = score(doc=1604,freq=2.0), product of:
            0.44557902 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06322505 = queryNorm
            0.5450528 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1604)
        0.024053361 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
          0.024053361 = score(doc=1604,freq=2.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.17153187 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1604)
      0.5 = coord(2/4)
    
    Abstract
    iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  8. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.121939614 = product of:
      0.24387923 = sum of:
        0.20816924 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20816924 = score(doc=1181,freq=2.0), product of:
            0.44557902 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06322505 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.035709985 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.035709985 = score(doc=1181,freq=6.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  9. Hermann, S.; Hahn, U.; Gärtner, M.; Fritze, F.: Nachträglich ist nicht gleich nachnutzbar : Ansätze für integrierte Prozessdokumentation im Forschungsalltag (2018) 0.12
    0.11960743 = product of:
      0.23921487 = sum of:
        0.034361947 = weight(_text_:und in 484) [ClassicSimilarity], result of:
          0.034361947 = score(doc=484,freq=8.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.24504554 = fieldWeight in 484, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=484)
        0.20485292 = weight(_text_:hermann in 484) [ClassicSimilarity], result of:
          0.20485292 = score(doc=484,freq=2.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.4230717 = fieldWeight in 484, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.0390625 = fieldNorm(doc=484)
      0.5 = coord(2/4)
    
    Abstract
    Um Forschungsdaten auffindbar zu machen, müssen diese mit ausreichend Metadaten beschrieben werden. Damit die durch die Metadaten beschriebenen Forschungsdaten für andere Wissenschaftlerinnen und Wissenschaftler reproduzierbar sind, ist es notwendig, den Kontext ihrer Entstehung mit abzubilden. Gerade die Dokumentation dieses Entstehungsprozesses wird aber oft durch mangelnde Zeit im Forschungsalltag vernachlässigt. Auch fehlt es hier noch an niederschwelliger Unterstützung im Arbeitsprozess. Einige Methoden sind gerade dabei sich zu etablieren oder befinden sich in der Entwicklung. Im Folgenden werden Softwareanwendungen, die die Dokumentation erleichtern sollen, vorgestellt und mit der aktuell im Projekt RePlay-DH entwickelten Lösung verglichen. Der Ansatz der Virtuellen Forschungsumgebung setzt auf die Zusammenarbeit über eine gemeinsame Plattform. Das Elektronische Laborbuch unterstützt die Dokumentation im Labor. Das Workflow-Management definiert, im Gegensatz zum Workflow-Tracking, einen Workflow vor der Ausführung der einzelnen Arbeitsschritte. Dabei steht die prozessbegleitende Dokumentation im Mittelpunkt. Der Lösungsansatz, der im Projekt RePlay-DH verfolgt wird, besteht in der unterstützenden Dokumentation des Forschungsprozesses mit Metadaten durch ein vereinfachtes Workflow-Tracking. Die Integration in bestehende Arbeitsabläufe von Wissenschaftlerinnen und Wissenschaftlern und die einfache Bedienbarkeit stehen dabei im Vordergrund.
  10. ¬Die digitale Transformation in Institutionen des kulturellen Gedächtnisses : Antworten aus der Informationswissenschaft (2019) 0.11
    0.10855782 = product of:
      0.21711564 = sum of:
        0.053233303 = weight(_text_:und in 370) [ClassicSimilarity], result of:
          0.053233303 = score(doc=370,freq=30.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.37962294 = fieldWeight in 370, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=370)
        0.16388234 = weight(_text_:hermann in 370) [ClassicSimilarity], result of:
          0.16388234 = score(doc=370,freq=2.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.33845738 = fieldWeight in 370, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.03125 = fieldNorm(doc=370)
      0.5 = coord(2/4)
    
    Abstract
    Die digitale Information - kaum ein Beitrag oder Kommentar ohne diesen Begriff - und oft ohne Sachkenntnis. Der Fachbereich Informationswissenschaften der Fachhochschule Potsdam hat sich dem Thema mit folgenden Fragen genähert: Was bedeutet die Digitale Transformation für die Informationswissenschaft? Wie sieht die Fachcommunity dies? Wie werden diese Überlegungen von der Öffentlichkeit wahrgenommen? Die Beiträge aus Deutschland, Österreich und der Schweiz vermitteln einen hervorragenden Einstieg in die Diskussion um die vorherrschenden Themen: Der elektronische Lesesaal, Soziale Netzwerke und Ethik, Digital Literacy, Agiles Lernen, Fake News bei Social Media, Digitale Transformation in der Verwaltung - Forderungen an Smart Cities, Open Innovation, Umbrüche in der Verwaltung und der Darstellung der Objekte in Museen u.a. Der Sammelband vermittelt einen Einblick in die Forderungen an die Zukunft und ihre Herausforderungen - nicht nur für Lehrende und Studierende, sondern für alle.
    Content
    Melanie Siegel: Von Informationswissenschaft zu Information Science - Mario Glauert: Quo vadis Lesesaal? Die digitale Transformation der Archivbenutzung - Stephan Holländer: Schweizer Bibliotheken und die digitale Transformation - Sara Matos, Sarah Portelinha, Charles-Antoine Chamay, Franck Topalian: Die Geisteswissenschaften und die Digitalisierung - Barbara Fischer: Die Kulturmanagerin von morgen. Gedanken zum Alltag eines Museumsmenschen im Jahr 2025 - Ursula Georgy: Möglichkeiten des Crowdsourcings in Bibliotheken durch Digitalisierung - Tobias Siebenlist, Agnes Mainka: Digitale Transformation in der Verwaltung: an Open Data geht kein Weg vorbei - Aylin Ilhan, Sarah Hartmann, Tuba Ciftci, Wolfgang G. Stock: Citizen Relationship Management in den USA und in Deutschland 311 - 115 ServiceApp -Cornelia Vonhof: Agiles Lernen - Filip Bak, Marlene Friedrich, Laura Lang, Antje Michel, Henning Prill, Romy Schreiber, Sophia Trinks, Franziska Witzig: Das Konzept der Digital Literacy und seine Relevanz für die Informationswissenschaften. Am Beispiel eines studentischen Projektkurses - Hermann Rösch: Soziale Netzwerke und Ethik: Problemdiagnose und Schlussfolgerungen - Franziska Zimmer, Katrin Scheibe, Lorenz Schmoly, Stefan Dreisiebner: Fake News im Zeitalter der Social Media
    Footnote
    Vgl. den Beitrag 'Wie sich die Informationswissenschaft in der digitalen Transformation behauptet: Zwei vielversprechende Ansätze, um sich immer wieder neu zu etablieren' von Willi Bredemeier unter: https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=748&wysijap=subscriptions&user_id=1045. Zweiter Teil als; 'Die Bibliotheken als Workspaces schlechthin' unter: https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=756&wysijap=subscriptions&user_id=1045. Dritter Teil als: 'Bürger und Kunden als Mitgestalter von Bibliotheken und Kommunalverwaltungen: "Privacy Paradox" und "Fake News" in Qualitätsmedien' unter: https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=769&wysijap=subscriptions&user_id=1045.
  11. Jörs, B.: ¬Die Informationswissenschaft ist tot, es lebe die Datenwissenschaft (2019) 0.11
    0.10574783 = product of:
      0.21149565 = sum of:
        0.04761331 = weight(_text_:und in 879) [ClassicSimilarity], result of:
          0.04761331 = score(doc=879,freq=24.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.33954507 = fieldWeight in 879, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=879)
        0.16388234 = weight(_text_:hermann in 879) [ClassicSimilarity], result of:
          0.16388234 = score(doc=879,freq=2.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.33845738 = fieldWeight in 879, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.03125 = fieldNorm(doc=879)
      0.5 = coord(2/4)
    
    Abstract
    "Haben die "Daten" bzw. die "Datenwissenschaft" (Data Science) die "Information" bzw. die Informationswissenschaft obsolet gemacht? Hat die "Data Science" mit ihren KI-gestützten Instrumenten die ökonomische und technische Herrschaft über die "Daten" und damit auch über die "Informationen" und das "Wissen" übernommen? Die meist in der Informatik/Mathematik beheimatete "Data Science" hat die wissenschaftliche Führungsrolle übernommen, "Daten" in "Informationen" und "Wissen" zu transferieren." "Der Wandel von analoger zu digitaler Informationsverarbeitung hat die Informationswissenschaft im Grunde obsolet gemacht. Heute steht die Befassung mit der Kategorie "Daten" und deren kausaler Zusammenhang mit der "Wissens"-Generierung (Erkennung von Mustern und Zusammenhängen, Prognosefähigkeit usw.) und neuronalen Verarbeitung und Speicherung im Zentrum der Forschung." "Wäre die Wissenstreppe nach North auch für die Informationswissenschaft gültig, würde sie erkennen, dass die Befassung mit "Daten" und die durch Vorwissen ermöglichte Interpretation von "Daten" erst die Voraussetzungen schaffen, "Informationen" als "kontextualisierte Daten" zu verstehen, um "Informationen" strukturieren, darstellen, erzeugen und suchen zu können."
    Content
    Fortsetzungen in: Teil 2: Open Password, Nr.542 vom 08.04.2019 u.d.T.: In(formations)kompetenz versus Datenkompetenz [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=678&wysijap=subscriptions]; Teil 3: Open Password, Nr.548 vom 17.04.2019 u.d.T.: Die Informationswissenschaft auf dem Weg zu einer Randdisziplin: Theorielosigkeit, keine Problemlösungen, Ausbildung zu Universal-Dilettanten, diszplinäre Heimatlosigkeit. Zur Kommunikations- und Angebotslücke zwischen Hochschullehrern und Studiengangsinteressierten [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=680&wysijap=subscriptions&user_id=1045]. Teil 4: Open Password, Nr.550 vom 24.04.2019 u.d.T.: Kritik der In(formations)kompetenz [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=690&wysijap=subscriptions&user_id=1045]. Teil 5: Open Password, Nr.552 vom 29.04.2019 u.d.T.: Löst die traditionelle Informations-wissenschaft weitgehend auf! Offeriert attraktive Studiengänge, schickt die Bindestrich-Infowissenschaften in ihre Ursprünge zurück! [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=690&wysijap=subscriptions&user_id=1045].
    Footnote
    Vgl. auch die Leserbriefe: Hermann Huemer in Open Password Nr.556 vom 06. Mai 2019 u.d.T.: Datenkompetenz ist auch nicht alles. Anna Knoll in Open Password Nr.557 vom 09. Mai 2019 u.d.T.: Gute Wünsche an eine Informationswissenschaft im Umbruch.
  12. Mittermaier, B.; Schmiedicke, H.: ¬Die Einführung des Bibliothekssystems Symphony in der Zentralbibliothek des Forschungszentrums Jülich : ein Erfahrungsbericht (2010) 0.10
    0.10473431 = product of:
      0.20946862 = sum of:
        0.045586277 = weight(_text_:und in 482) [ClassicSimilarity], result of:
          0.045586277 = score(doc=482,freq=22.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.32508966 = fieldWeight in 482, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=482)
        0.16388234 = weight(_text_:hermann in 482) [ClassicSimilarity], result of:
          0.16388234 = score(doc=482,freq=2.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.33845738 = fieldWeight in 482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.03125 = fieldNorm(doc=482)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungszentrum Jülich ist eine der 16 Großforschungseinrichtungen in der "Hermann von Helmholtz-Gemeinschaft Deutscher Forschungszentren e.V." (HGF). Ursprünglich als "Kernforschungsanlage Jülich" gegründet, betreibt das Forschungszentrum Jülich heute interdisziplinäre Spitzenforschung zur Lösung großer gesellschaftlicher Herausforderungen in den Bereichen Gesundheit, Energie und Umwelt sowie Information. Einmalig ist dabei die Verknüpfung mit den beiden Schlüsselkompetenzen Physik und Supercomputing. In Jülich werden sowohl langfristig angelegte, grundlagenorientierte Arbeiten als auch konkrete technologische Anwendungen erarbeitet. Mit rund 4.400 Mitarbeiterinnen und Mitarbeitern gehört Jülich zu den größten Forschungszentren Europas. Die Zentralbibliothek (im Folgenden kurz "ZB" genannt) ist verantwortlich für eine umfassende und hochwertige Literatur- und Informationsversorgung für die Mitarbeiterinnen und Mitarbeiter des Forschungszentrums. Sie leistet Dienste in den Bereichen Dokumentation, Publikation, Informationsmanagement und Informationswissenschaft. Sie ist als einschichtiges Bibliothekssystem konzipiert. Neben der Zentralbibliothek gibt es allerdings ca. 60 Institutsbibliotheken, die im Umfang vom Handapparat bis zu mehreren tausend Bänden reichen. Die Verwaltung der Institutsbibliotheken erfolgt über die ZB. Die Automatisierung der Geschäftsabläufe in der ZB begann bereits in den 1970er Jahren mit Batchprogrammen, die über Großrechner liefen, und einem Ausleihsystem von Nixdorf. Von 1987 bis 1997 wurde das Datenbanksystem DOMESTIC der Firma KTS, München, eingesetzt. Hierbei handelte es sich um eine typische Mainframe-Anwendung, die auf dem zentralen IBM-Rechner des Forschungszentrums betrieben wurde. Der Online-Zugriff auf den zeilenorientierten Bibliothekskatalog erfolgte campusweit über Terminals oder IBM-PCs mit 3270-Emulation.
    Zu Beginn der 1990er Jahre erarbeitete die ZB ein Konzept mit dem Ziel der schrittweisen Einführung eines zentralen Informationssystems, das den Benutzern über offene Netze einen Zugriff auf elektronische Dienste aller Art liefern sollte. In diesem sollte ein leistungsfähiges Bibliothekssystem eine zentrale Rolle spielen. Die Realisierung eines solchen Konzeptes war mit der existierenden Software kaum möglich, so dass eine diesbezügliche Neuorientierung notwendig wurde. Nach einer umfassenden Marktsichtung, die abschließend durch diverse Produktpräsentationen, Testinstallationen, der Auswertung von Kostenvoranschlägen sowie der Beurteilung der technischen Details und der Möglichkeiten der Einbindung in bestehende Netzwerke geprägt war, entschied sich die ZB schließlich für das integrierte Bibliothekssystem Dynix Marquis (später: Horizon). Vom Vertragsabschluss im Dezember 1994 bis zur Inbetriebnahme Mitte 1997 vergingen zweieinhalb Jahre, und auch danach waren noch einige Nachbesserungen nötigt. Die Zentralbibliothek war seinerzeit einer der ersten Anwender des Horizon-Systems in Deutschland und damit Pilot-Anwender der modernen Client-Server-Architektur, die mit einer Standard-SQL-Datenbank arbeitet. Ein damals moderner Web-OPAC sowie internationaler Z39.50 Zugriff rundeten den Technologie-Sprung ab.
  13. Grundlagen der praktischen Information und Dokumentation : Handbuch zur Einführung in die Informationswissenschaft und -praxis (2013) 0.10
    0.101157755 = product of:
      0.20231551 = sum of:
        0.058918465 = weight(_text_:und in 5382) [ClassicSimilarity], result of:
          0.058918465 = score(doc=5382,freq=48.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.42016557 = fieldWeight in 5382, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5382)
        0.14339705 = weight(_text_:hermann in 5382) [ClassicSimilarity], result of:
          0.14339705 = score(doc=5382,freq=2.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.2961502 = fieldWeight in 5382, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5382)
      0.5 = coord(2/4)
    
    Abstract
    Seit vierzig Jahren vermittelt das Standardwerk Wissenschaftlern, Praktikern und Studierenden Grundlagen der professionellen, wissenschaftlich fundierten Informationsarbeit. Mit der 6., völlig neu gefassten Auflage reagieren die Herausgeber Rainer Kuhlen, Wolfgang Semar und Dietmar Strauch auf die erheblichen technischen, methodischen und organisatorischen Veränderungen auf dem Gebiet der Information und Dokumentation und tragen damit der raschen Entwicklung des Internets und der Informationswissenschaft Rechnung. Die insgesamt über fünfzig Beiträge sind vier Teilen - Grundlegendes (A), Methodisches (B), Informationsorganisation (C) und Informationsinfrastrukturen (D) - zugeordnet.
    Content
    Enthält die Beiträge: A: Grundlegendes Rainer Kuhlen: Information - Informationswissenschaft - Ursula Georgy: Professionalisierung in der Informationsarbeit - Thomas Hoeren: Urheberrecht und Internetrecht - Stephan Holländer, Rolf A. Tobler: Schweizer Urheberrecht im digitalen Umfeld - Gerhard Reichmann: Urheberrecht und Internetrecht: Österreich - Rainer Kuhlen: Wissensökologie - Wissen und Information als Commons (Gemeingüter) - Rainer Hammwöhner: Hypertext - Christa Womser-Hacker, Thomas Mandl: Information Seeking Behaviour (ISB) - Hans-Christoph Hobohm: Informationsverhalten (Mensch und Information) - Urs Dahinden: Methoden empirischer Sozialforschung für die Informationspraxis - Michael Seadle: Ethnografische Verfahren der Datenerhebung - Hans-Christoph Hobohm: Erhebungsmethoden in der Informationsverhaltensforschung
    B: Methodisches Bernard Bekavac: Web-Technologien - Rolf Assfalg: Metadaten - Ulrich Reimer: Wissensorganisation - Thomas Mandl: Text Mining und Data Mining - Harald Reiterer, Hans-Christian Jetter: Informationsvisualisierung - Katrin Weller: Ontologien - Stefan Gradmann: Semantic Web und Linked Open Data - Isabella Peters: Benutzerzentrierte Erschließungsverfahre - Ulrich Reimer: Empfehlungssysteme - Udo Hahn: Methodische Grundlagen der Informationslinguistik - Klaus Lepsky: Automatische Indexierung - Udo Hahn: Automatisches Abstracting - Ulrich Heid: Maschinelle Übersetzung - Bernd Ludwig: Spracherkennung - Norbert Fuhr: Modelle im Information Retrieval - Christa Womser-Hacker: Kognitives Information Retrieval - Alexander Binder, Frank C. Meinecke, Felix Bießmann, Motoaki Kawanabe, Klaus-Robert Müller: Maschinelles Lernen, Mustererkennung in der Bildverarbeitung
    C: Informationsorganisation Helmut Krcmar: Informations- und Wissensmanagement - Eberhard R. Hilf, Thomas Severiens: Vom Open Access für Dokumente und Daten zu Open Content in der Wissenschaft - Christa Womser-Hacker: Evaluierung im Information Retrieval - Joachim Griesbaum: Online-Marketing - Nicola Döring: Modelle der Computervermittelten Kommunikation - Harald Reiterer, Florian Geyer: Mensch-Computer-Interaktion - Steffen Staab: Web Science - Michael Weller, Elena Di Rosa: Lizenzierungsformen - Wolfgang Semar, Sascha Beck: Sicherheit von Informationssystemen - Stefanie Haustein, Dirk Tunger: Sziento- und bibliometrische Verfahren
    D: Informationsinfrastruktur Dirk Lewandowski: Suchmaschinen - Ben Kaden: Elektronisches Publizieren - Jens Olf, Uwe Rosemann: Dokumentlieferung - Reinhard Altenhöner, Sabine Schrimpf: Langzeitarchivierung - Hermann Huemer: Normung und Standardisierung - Ulrike Spree: Wörterbücher und Enzyklopädien - Joachim Griesbaum: Social Web - Jens Klump, Roland Bertelmann: Forschungsdaten - Michael Kerres, Annabell Preussler, Mandy Schiefner-Rohs: Lernen mit Medien - Angelika Menne-Haritz: Archive - Axel Ermert, Karin Ludewig: Museen - Hans-Christoph Hobohm: Bibliothek im Wandel - Thomas Breyer-Mayländer: Medien, Medienwirtschaft - Helmut Wittenzellner: Transformation von Buchhandel, Verlag und Druck - Elke Thomä, Heike Schwanbeck: Patentinformation und Patentinformationssysteme
    RSWK
    Information und Dokumentation
    Subject
    Information und Dokumentation
  14. Schreiber, A.: Ars combinatoria (2010) 0.08
    0.07512814 = product of:
      0.15025628 = sum of:
        0.047829807 = weight(_text_:und in 963) [ClassicSimilarity], result of:
          0.047829807 = score(doc=963,freq=62.0), product of:
            0.14022678 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06322505 = queryNorm
            0.34108895 = fieldWeight in 963, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=963)
        0.10242646 = weight(_text_:hermann in 963) [ClassicSimilarity], result of:
          0.10242646 = score(doc=963,freq=2.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.21153586 = fieldWeight in 963, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.01953125 = fieldNorm(doc=963)
      0.5 = coord(2/4)
    
    Content
    "Kürzlich bat mich ein Anhänger der Numerologie, ihm mein Geburtsdatum zu nennen. Wiederholte Quersummenbildung ergab 4, meine ,Geburtszahl`. Auf dieselbe Weise addierte er auch die Alphabet-Positionen der Vokale in meinem Namen zu 8, meiner ,Herzzahl`. Das nennt sich Gematrie. Einer Tabelle waren dann Charakter und Schicksal zu entnehmen, soweit sie mir aus kosmischen Einflüssen vorbestimmt sind. Kein Zweifel, Okkultes braucht den großen Rahmen. Der Kosmos darf es da schon sein - oder die Pythagoräer, auf die man sich gerne beruft, weil sie Zahlen und Dinge geradezu identifiziert haben. Ich ließ meinen Gesprächspartner wissen, dass ich diesen Umgang mit Zahlen und Zeichen für spekulatives, ja abergläubisches Wunschdenken halte. "Aber Sie sind doch Mathematiker", gab er triumphierend zurück, "dann beweisen Sie mir erst einmal, dass die Numerologie nicht funktioniert!". Das, natürlich, konnte ich nicht. Als weitere Quelle geheimer Gewissheiten diente ihm die jüdische Kabbalah. Gematrische Verfahren hat sie durch kombinatorische Zeichenmanipulationen erweitert wie Zeruph (Permutation) oder Temurah (zyklisches Vertauschen). Die Welt wird als Buch vorgestellt, vom Schöpfer geschrieben mit den 22 Buchstaben des hebräischen Alphabets und den 10 dekadischen Ziffern (den "Sephiroth" eines urbildlichen Lebensbaums, mit denen Umberto Eco in seinem Roman Das Foucaultsche Pendel noch ein postmodernes Spiel treibt). Einer magischen Richtung zufolge wirken Um- und Zusammenstellungen von Buchstaben und Ziffern auf die Dinge selbst ein. So kann der Bestand verborgener Beziehungen ungehemmt wachsen. Doch "nur solche Beziehungen und Feststellungen haben objektive Bedeutung, die nicht durch irgend einen Wechsel in der Wahl der Etiketten ... beeinflußt werden". Dieses "Relativitätsprinzip" formulierte Hermann Weyl - ohne auf die Kabbalah anzuspielen - in dem Anhang Ars combinatoria zur 3. Auflage seiner Philosophie der Mathematik und Naturwissenschaft. Ihren Operationen verlieh die Kabbalah denn auch keine objektive, vielmehr eine mystische, in reiner Innenschau gewonnene Bedeutung.
    In Studien dieser Art hatte sich der aus Mallorca stammende Ramon Llull (lat. Raimundus Lullus, 1235-1315) vertieft. Mit seiner Ars magna et ultima wurde er Ahnherr einer nicht erst heute naiv anmutenden Begriffskombinatorik. Diese besteht vor allem darin, mit konzentrischen, frei drehbaren Kreisscheiben Wahrheiten zu entdecken. Auf die Scheibenränder schrieb Lullus die zu kombinierenden Elemente, etwa die neun göttlichen Attribute der sog. Ersten Figur, durch Großbuchstaben B, C, D, ... , K bezeichnet und um das Zentrum A (= Aleph für Gott) herum gruppiert. Zwei von ihnen werden als erstes und letztes ausgewählt (auf 9 8 Arten); zwischen beide lässt sich noch eine adverbielle Bestimmung schieben als beliebige aus den restlichen 7 Attributen gebildete Menge. Danach wäre etwa CEKD einer von insgesamt 9216 (= 9*2**7*8) möglichen Sätzen, zu lesen als: Die Größe ist auf mächtige und ruhmvolle Weise dauerhaft. - Das Verfahren war völlig nutzlos für die Hervorbringung von Gedanken. Doch Lullus, dem unermüdlichen religiösen Eiferer, half es bei der Abfassung einer schwer fasslichen Fülle von Predigten und frommen Traktaten. An seinem gefahrvollen Ziel, die Muslime mit den ,zwingenden` Argumenten aus seiner Kreismaschinerie zum christlichen Glauben zu bekehren, ist er aber gescheitert. Martin Gardner gestand einmal in einem Essay über die Ars magna, man spüre eine "unleugbare Faszination, wenn die Kreisscheiben gedreht werden und der Geist den seltsamen Kombinationen nachsinnt, die sie hervorbrin- gen. Wohl auch deswegen blieb die Lullische Tradition für lange Zeit wirksam. Noch Gottfried Wilhelm Leibniz dürfte sie inspiriert haben, der 1666 zwangzig jährig seine Dissertatio de arte combinatoria vorlegte. In ihr finden sich erste Beiträge zu einer wissenschaftlichen Kombinatorik, aber auch hochfliegende Ideen zu einer universal anwendbaren, enzyklopädischen Über-Wissenschaft und Erfindungskunst. Leibniz sah darin "- wenn es wahr ist, daß alle großen Dinge aus kleinen zusammengesetzt sind, mögen sie Atome oder Moleküle heißen - den einzigen Weg, in die Geheimnisse der Natur einzudringen." Und an anderer Stelle: "Diese Lehre allein führt die sich fügende Seele an die Grenze der Unendlichkeit, sie allein erfaßt die Harmonie der Welt, die innere Struktur der Dinge und die Reihenfolge der Formen".
    Der schwärmerische Ton dieser Eloge mag später Karl Friedrich Hindenburg (1739-1808) in der Hoch- oder besser Überschätzung seiner "Combinationslehre" bestärkt haben. Der gebürtige Dresdner war stolzer Gründer einer merkwürdig isoliert gebliebenen sog. kombinatorischen Schule und überzeugt, "der polynomische Lehrsatz" sei "das wichtigste Theorem der Analysis". Auch wenn man das für übertrieben hält, so ist doch die Kornbinatorik nach heutigem Stand eine Disziplin, die den Vergleich mit anderen Gebieten der Mathematik nicht zu scheuen braucht. - Was die universale Logik betrifft, die Leibniz sich ausgemalt hat, so kann sie nicht gelingen; doch ihre praktische Seite hat sich auf erstaunliche Weise im Computer verwirklicht: einer Maschine, die rechnen und - vor allem - Symbole verarbeiten kann. Auch außerhalb von Wissenschaft und Technik hat die bloß Idee gebliebene ars combinatoria eine anhaltende Wirkung auf die Einbildungskraft entfaltet. Sie führt die 'Kunst' (ars) in ihrem Namen und war ihr vielfach zu Diensten. Einiges spricht dafür, dass kombinatorische Verfahren im künstlerischen Feld immer dann vermehrt ins Spiel kommen, wenn die inhaltliche Seite des Schaffensprozesses an Bedeutung verliert: aufgrund mangelnder Vorgaben von außen (durch Auftraggeber, Mäzene) und brüchig gewordener Bindungen (an metaphysische Ideen, Anschauungen über Natur und Gesellschaft). Ein solches Stadium war zu Beginn des 20. Jhs. erreicht. Die damit verbundende "Entfesselung des Materials" (Adorno) verlangte vom Künstler, sich über den Rohstoff seiner Arbeit - Farben, Formen, Töne, Wörter, Buchstaben etc. - prinzipielle Gedanken zu machen. Wie ist mit den freigesetzten Elementen umzugehen und wie der Verdacht zu entkräften, es könne nun ziemlich beliebig zugehen? Zunächst behauptete man die Eigengesetzlichkeit des Materials. Adorno zufolge arbeitet der Künstler ganz "im strengen Anspruch der Richtigkeit, den sein Gebilde an ihn stellt". Der Urheber einer Komposition etwa ist darüberhinaus "einzig der, der sie zu lesen vermag und seine eigene Musik versteht"2. Ähnlich, aber nicht ganz so überraschend war das, was zuvor Wassily Kandinsky für die von gegenständlicher Darstellung sich ablösende Malerei reklamiert hatte, nämlich: einer "inneren Notwendigkeit" zu gehorchen - zweifellos eine mystische Kategorie.
    Die in den 1960er Jahren ausgerufene "permutationelle Kunst" scheint auch mit diesem letzten Rest an Semantik aufzuräumen. In Kunst & Computer (1973) propagierte Abraham Moles eine radikale Form der ars combinatoria: "Der vom Sinn tyrannisierten traditionellen Kunst setzt die Permutation als formales Spiel die gleichmäßig dichte Erforschung des Möglichkeitenfeldes entgegen." Zunehmend wurde der Computer an der Kunstproduktion beteiligt, denn die "permutationelle Kunst klammert mit Absicht die Bedeutung aus" (S. 131). Zahllos sind inzwischen die Beispiele von computergenerierten Grafikserien, algorithmischen Kompositionen und Texten aus Poesie-Automaten, die rund um den Globus her- und im Internet ausgestellt werden. Wie aber ist ein "Möglichkeitenfeld" zu rezipieren? Muss nicht jemand eine Instanz auswählen und ihren Wert beurteilen können? Auch Moles hat das Problem erkannt und beruft sich aufs "Kunstvergnügen" und auf "Faszination". Diese entstehe in der "spielerischen Verschwendung einer kostenlosen Zeit", die wir als "Menschen in der westlichen Welt" einfach nicht haben. Die Fähigkeit, sich in kombinatorischer Leere zu verlieren, ließe sich aber aus "Lehren ... vom Orient übernehmen". Also doch wieder Mystisches? Alan Turing, ein Pionier der modernen Computerwissenschaft, brachte das Vordringen der Maschine in die Domänen menschlicher Intelligenz schon früh zur Sprache. Nicht einmal das Verfertigen von Sonetten stelle für ihn eine Grenzlinie dar, bekannte er, um sogleich einzuschränken: "The comparison is perhaps a little bit unfair because a sonnet written by a machine will be better appreciated by another machine." - Darin nun scheint mir ein bisher kaum beachteter (und von Turing nicht einmal so gemeinter) Hinweis zu liegen, wie das Rezeptionsproblem zu lösen sei. Der französische Schriftsteller Raymond Queneau hat die Pointe bemerkt und den Zitat-Nebensatz als Motto seiner Hunderttausend Milliarden Gedichtei gewählt. Wundersame Ironie ... !"
  15. Croft, W.B.; Metzler, D.; Strohman, T.: Search engines : information retrieval in practice (2010) 0.05
    0.05204231 = product of:
      0.20816924 = sum of:
        0.20816924 = weight(_text_:java in 3605) [ClassicSimilarity], result of:
          0.20816924 = score(doc=3605,freq=2.0), product of:
            0.44557902 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06322505 = queryNorm
            0.46718815 = fieldWeight in 3605, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3605)
      0.25 = coord(1/4)
    
    Abstract
    For introductory information retrieval courses at the undergraduate and graduate level in computer science, information science and computer engineering departments. Written by a leader in the field of information retrieval, Search Engines: Information Retrieval in Practice, is designed to give undergraduate students the understanding and tools they need to evaluate, compare and modify search engines. Coverage of the underlying IR and mathematical models reinforce key concepts. The book's numerous programming exercises make extensive use of Galago, a Java-based open source search engine. SUPPLEMENTS / Extensive lecture slides (in PDF and PPT format) / Solutions to selected end of chapter problems (Instructors only) / Test collections for exercises / Galago search engine
  16. Tang, X.-B.; Wei Wei, G,-C.L.; Zhu, J.: ¬An inference model of medical insurance fraud detection : based on ontology and SWRL (2017) 0.05
    0.05204231 = product of:
      0.20816924 = sum of:
        0.20816924 = weight(_text_:java in 4615) [ClassicSimilarity], result of:
          0.20816924 = score(doc=4615,freq=2.0), product of:
            0.44557902 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06322505 = queryNorm
            0.46718815 = fieldWeight in 4615, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=4615)
      0.25 = coord(1/4)
    
    Abstract
    Medical insurance fraud is common in many countries' medical insurance systems and represents a serious threat to the insurance funds and the benefits of patients. In this paper, we present an inference model of medical insurance fraud detection, based on a medical detection domain ontology that incorporates the knowledge base provided by the Medical Terminology, NKIMed, and Chinese Library Classification systems. Through analyzing the behaviors of irregular and fraudulent medical services, we defined the scope of the medical domain ontology relevant to the task and built the ontology about medical sciences and medical service behaviors. The ontology then utilizes Semantic Web Rule Language (SWRL) and Java Expert System Shell (JESS) to detect medical irregularities and mine implicit knowledge. The system can be used to improve the management of medical insurance risks.
  17. Wu, D.; Shi, J.: Classical music recording ontology used in a library catalog (2016) 0.04
    0.043368593 = product of:
      0.17347437 = sum of:
        0.17347437 = weight(_text_:java in 4179) [ClassicSimilarity], result of:
          0.17347437 = score(doc=4179,freq=2.0), product of:
            0.44557902 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06322505 = queryNorm
            0.38932347 = fieldWeight in 4179, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4179)
      0.25 = coord(1/4)
    
    Abstract
    In order to improve the organization of classical music information resources, we constructed a classical music recording ontology, on top of which we then designed an online classical music catalog. Our construction of the classical music recording ontology consisted of three steps: identifying the purpose, analyzing the ontology, and encoding the ontology. We identified the main classes and properties of the domain by investigating classical music recording resources and users' information needs. We implemented the ontology in the Web Ontology Language (OWL) using five steps: transforming the properties, encoding the transformed properties, defining ranges of the properties, constructing individuals, and standardizing the ontology. In constructing the online catalog, we first designed the structure and functions of the catalog based on investigations into users' information needs and information-seeking behaviors. Then we extracted classes and properties of the ontology using the Apache Jena application programming interface (API), and constructed a catalog in the Java environment. The catalog provides a hierarchical main page (built using the Functional Requirements for Bibliographic Records (FRBR) model), a classical music information network and integrated information service; this combination of features greatly eases the task of finding classical music recordings and more information about classical music.
  18. Beyond bibliometrics : harnessing multidimensional indicators of scholarly intent (2014) 0.04
    0.040970586 = product of:
      0.16388234 = sum of:
        0.16388234 = weight(_text_:hermann in 4026) [ClassicSimilarity], result of:
          0.16388234 = score(doc=4026,freq=2.0), product of:
            0.4842038 = queryWeight, product of:
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.06322505 = queryNorm
            0.33845738 = fieldWeight in 4026, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.6584163 = idf(docFreq=56, maxDocs=44421)
              0.03125 = fieldNorm(doc=4026)
      0.25 = coord(1/4)
    
    Content
    Inhalt: Scholars and scripts, spoors and scores / Blaise CroninHistory and evolution of (biblio)metrics / Nicola De Bellis -- The citation : from culture to infrastructure / Paul Wouters -- The data it is me! / Ronald E. Day -- The ethics of evaluative bibliometrics / Jonathan Furner -- Criteria for evaluating indicators / Yves Gingras -- Obliteration by incorporation / Katherine W. McCain -- A network approach to scholarly evaluation / Jevin D. West and Daril A. Vilhena -- Science visualization and discursive knowledge / Loet Leydesdorff -- Measuring interdisciplinarity / Vincent Larivière and Yves Gingras -- Bibliometric standards for evaluating research institutes in the natural sciences / Lutz Bornmann, Benjamin E. Bowman, Jonathan Bauer, Werner Marx, Hermann Schier and Margit Palzenberger -- Identifying and quantifying research strengths using market segmentation / Kevin W. Boyack and Richard Klavans -- Finding and recommending scholarly articles / Michael J. Kurtz and Edwin A. Henneken -- Altmetrics / Jason Priem -- Web impact measures for research assessment / Kayvan Kousha and Mike Thelwall -- Bibliographic references in Web 2.0 / Judit Bar-Illan, Hadas Shema and Mike Thelwall -- Readership metrics / Stefanie Haustein -- Evaluating the work of judges / Peter Hook -- Academic genealogy / Cassidy R. Sugimoto -- A publishing perspective on bibliometrics / Judith Kamalski, Andrew Plume and Mayur Amin -- Science metrics and science policy / Julia Lane, Mark Largent and Rebecca Rosen.
  19. Vlachidis, A.; Binding, C.; Tudhope, D.; May, K.: Excavating grey literature : a case study on the rich indexing of archaeological documents via natural language-processing techniques and knowledge-based resources (2010) 0.03
    0.034694873 = product of:
      0.13877949 = sum of:
        0.13877949 = weight(_text_:java in 935) [ClassicSimilarity], result of:
          0.13877949 = score(doc=935,freq=2.0), product of:
            0.44557902 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06322505 = queryNorm
            0.31145877 = fieldWeight in 935, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=935)
      0.25 = coord(1/4)
    
    Abstract
    Purpose - This paper sets out to discuss the use of information extraction (IE), a natural language-processing (NLP) technique to assist "rich" semantic indexing of diverse archaeological text resources. The focus of the research is to direct a semantic-aware "rich" indexing of diverse natural language resources with properties capable of satisfying information retrieval from online publications and datasets associated with the Semantic Technologies for Archaeological Resources (STAR) project. Design/methodology/approach - The paper proposes use of the English Heritage extension (CRM-EH) of the standard core ontology in cultural heritage, CIDOC CRM, and exploitation of domain thesauri resources for driving and enhancing an Ontology-Oriented Information Extraction process. The process of semantic indexing is based on a rule-based Information Extraction technique, which is facilitated by the General Architecture of Text Engineering (GATE) toolkit and expressed by Java Annotation Pattern Engine (JAPE) rules. Findings - Initial results suggest that the combination of information extraction with knowledge resources and standard conceptual models is capable of supporting semantic-aware term indexing. Additional efforts are required for further exploitation of the technique and adoption of formal evaluation methods for assessing the performance of the method in measurable terms. Originality/value - The value of the paper lies in the semantic indexing of 535 unpublished online documents often referred to as "Grey Literature", from the Archaeological Data Service OASIS corpus (Online AccesS to the Index of archaeological investigationS), with respect to the CRM ontological concepts E49.Time Appellation and P19.Physical Object.
  20. Piros, A.: Automatic interpretation of complex UDC numbers : towards support for library systems (2015) 0.03
    0.034694873 = product of:
      0.13877949 = sum of:
        0.13877949 = weight(_text_:java in 3301) [ClassicSimilarity], result of:
          0.13877949 = score(doc=3301,freq=2.0), product of:
            0.44557902 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06322505 = queryNorm
            0.31145877 = fieldWeight in 3301, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=3301)
      0.25 = coord(1/4)
    
    Abstract
    Analytico-synthetic and faceted classifications, such as Universal Decimal Classification (UDC) express content of documents with complex, pre-combined classification codes. Without classification authority control that would help manage and access structured notations, the use of UDC codes in searching and browsing is limited. Existing UDC parsing solutions are usually created for a particular database system or a specific task and are not widely applicable. The approach described in this paper provides a solution by which the analysis and interpretation of UDC notations would be stored into an intermediate format (in this case, in XML) by automatic means without any data or information loss. Due to its richness, the output file can be converted into different formats, such as standard mark-up and data exchange formats or simple lists of the recommended entry points of a UDC number. The program can also be used to create authority records containing complex UDC numbers which can be comprehensively analysed in order to be retrieved effectively. The Java program, as well as the corresponding schema definition it employs, is under continuous development. The current version of the interpreter software is now available online for testing purposes at the following web site: http://interpreter-eto.rhcloud.com. The future plan is to implement conversion methods for standard formats and to create standard online interfaces in order to make it possible to use the features of software as a service. This would result in the algorithm being able to be employed both in existing and future library systems to analyse UDC numbers without any significant programming effort.

Languages

  • d 1631
  • e 218
  • a 1
  • More… Less…

Types

  • a 1378
  • el 403
  • m 281
  • x 74
  • s 61
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications