Search (188 results, page 1 of 10)

  • × theme_ss:"Automatisches Indexieren"
  1. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.10
    0.10442135 = product of:
      0.2088427 = sum of:
        0.12551893 = weight(_text_:jahren in 6671) [ClassicSimilarity], result of:
          0.12551893 = score(doc=6671,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.3646495 = fieldWeight in 6671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6671)
        0.08332377 = weight(_text_:und in 6671) [ClassicSimilarity], result of:
          0.08332377 = score(doc=6671,freq=18.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.5145956 = fieldWeight in 6671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6671)
      0.5 = coord(2/4)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  2. Weiner, U.: Vor uns die Dokumentenflut oder Automatische Indexierung als notwendige und sinnvolle Ergänzung zur intellektuellen Sacherschließung (2012) 0.10
    0.10194241 = product of:
      0.20388483 = sum of:
        0.15528941 = weight(_text_:jahren in 1598) [ClassicSimilarity], result of:
          0.15528941 = score(doc=1598,freq=6.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.4511368 = fieldWeight in 1598, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1598)
        0.04859541 = weight(_text_:und in 1598) [ClassicSimilarity], result of:
          0.04859541 = score(doc=1598,freq=12.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.30011827 = fieldWeight in 1598, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1598)
      0.5 = coord(2/4)
    
    Abstract
    Vor dem Hintergrund veränderter Ansprüche der Bibliotheksbenutzer an Recherchemöglichkeiten - weg vom klassischen Online-Katalog hin zum "One-Stop-Shop" mit Funktionalitäten wie thematisches Browsing, Relevanzranking und dergleichen mehr - einerseits und der notwendigen Bearbeitung von Massendaten (Stichwort Dokumentenflut) andererseits rücken Systeme zur automatischen Indexierung wieder verstärkt in den Mittelpunkt des Interesses. Da in Österreich die Beschäftigung mit diesem Thema im Bibliotheksbereich bislang nur sehr selektiv, bezogen auf wenige konkrete Projekte, erfolgte, wird zuerst ein allgemeiner theoretischer Überblick über die unterschiedlichen Verfahrensansätze der automatischen Indexierung geboten. Im nächsten Schritt werden mit der IDX-basierten Indexierungssoftware MILOS (mit den Teilprojekten MILOS I, MILOS II und KASCADE) und dem modularen System intelligentCAPTURE (mit der integrierten Indexierungssoftware AUTINDEX) die bis vor wenigen Jahren im deutschsprachigen Raum einzigen im Praxiseinsatz befindlichen automatischen Indexierungssysteme vorgestellt. Mit zunehmender Notwendigkeit, neue Wege der inhaltlichen Erschließung zu beschreiten, wurden in den vergangenen 5 - 6 Jahren zahlreiche Softwareentwicklungen auf ihre Einsatzmöglichkeit im Bibliotheksbereich hin getestet. Stellvertretend für diese in Entwicklung befindlichen Systeme zur automatischen inhaltlichen Erschließung wird das Projekt PETRUS, welches in den Jahren 2009 - 2011 an der DNB durchgeführt wurde und die Komponenten PICA Match&Merge sowie die Extraction Platform der Firma Averbis beinhaltet, vorgestellt.
  3. Junger, U.; Schwens, U.: ¬Die inhaltliche Erschließung des schriftlichen kulturellen Erbes auf dem Weg in die Zukunft : Automatische Vergabe von Schlagwörtern in der Deutschen Nationalbibliothek (2017) 0.10
    0.10051198 = product of:
      0.20102397 = sum of:
        0.12679327 = weight(_text_:jahren in 4780) [ClassicSimilarity], result of:
          0.12679327 = score(doc=4780,freq=4.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.36835164 = fieldWeight in 4780, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4780)
        0.07423071 = weight(_text_:und in 4780) [ClassicSimilarity], result of:
          0.07423071 = score(doc=4780,freq=28.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.45843822 = fieldWeight in 4780, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4780)
      0.5 = coord(2/4)
    
    Abstract
    Wir leben im 21. Jahrhundert, und vieles, was vor hundert und noch vor fünfzig Jahren als Science Fiction abgetan worden wäre, ist mittlerweile Realität. Raumsonden fliegen zum Mars, machen dort Experimente und liefern Daten zur Erde zurück. Roboter werden für Routineaufgaben eingesetzt, zum Beispiel in der Industrie oder in der Medizin. Digitalisierung, künstliche Intelligenz und automatisierte Verfahren sind kaum mehr aus unserem Alltag wegzudenken. Grundlage vieler Prozesse sind lernende Algorithmen. Die fortschreitende digitale Transformation ist global und umfasst alle Lebens- und Arbeitsbereiche: Wirtschaft, Gesellschaft und Politik. Sie eröffnet neue Möglichkeiten, von denen auch Bibliotheken profitieren. Der starke Anstieg digitaler Publikationen, die einen wichtigen und prozentual immer größer werdenden Teil des Kulturerbes darstellen, sollte für Bibliotheken Anlass sein, diese Möglichkeiten aktiv aufzugreifen und einzusetzen. Die Auswertbarkeit digitaler Inhalte, beispielsweise durch Text- and Data-Mining (TDM), und die Entwicklung technischer Verfahren, mittels derer Inhalte miteinander vernetzt und semantisch in Beziehung gesetzt werden können, bieten Raum, auch bibliothekarische Erschließungsverfahren neu zu denken. Daher beschäftigt sich die Deutsche Nationalbibliothek (DNB) seit einigen Jahren mit der Frage, wie sich die Prozesse bei der Erschließung von Medienwerken verbessern und maschinell unterstützen lassen. Sie steht dabei im regelmäßigen kollegialen Austausch mit anderen Bibliotheken, die sich ebenfalls aktiv mit dieser Fragestellung befassen, sowie mit europäischen Nationalbibliotheken, die ihrerseits Interesse an dem Thema und den Erfahrungen der DNB haben. Als Nationalbibliothek mit umfangreichen Beständen an digitalen Publikationen hat die DNB auch Expertise bei der digitalen Langzeitarchivierung aufgebaut und ist im Netzwerk ihrer Partner als kompetente Gesprächspartnerin geschätzt.
  4. Stock, W.G.: Textwortmethode : Norbert Henrichs zum 65. (3) (2000) 0.10
    0.099214815 = product of:
      0.19842963 = sum of:
        0.1434502 = weight(_text_:jahren in 5891) [ClassicSimilarity], result of:
          0.1434502 = score(doc=5891,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.4167423 = fieldWeight in 5891, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.0625 = fieldNorm(doc=5891)
        0.05497943 = weight(_text_:und in 5891) [ClassicSimilarity], result of:
          0.05497943 = score(doc=5891,freq=6.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.33954507 = fieldWeight in 5891, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5891)
      0.5 = coord(2/4)
    
    Abstract
    Nur wenige Dokumentationsmethoden werden mit dem Namen ihrer Entwickler assoziiert. Ausnahmen sind Melvil Dewey (DDC), S.R. Ranganathan (Colon Classification) - und Norbert Henrichs. Seine Textwortmethode ermöglicht die Indexierung und das Retrieval von Literatur aus Fachgebieten, die keine allseits akzeptierte Fachterminologie vorweisen, also viele Sozial- und Geisteswissenschaften, vorneweg die Philosophie. Für den Einsatz in der elektronischen Philosophie-Dokumentation hat Henrichs in den späten sechziger Jahren die Textwortmethode entworfen. Er ist damit nicht nur einer der Pioniere der Anwendung der elektronischen Datenverarbeitung in der Informationspraxis, sondern auch der Pionier bei der Dokumentation terminologisch nicht starrer Fachsprachen
  5. Zimmermann, H.H.: Möglichkeiten einer computergestützen Sacherschließung (2003) 0.09
    0.09417036 = product of:
      0.18834072 = sum of:
        0.1434502 = weight(_text_:jahren in 3375) [ClassicSimilarity], result of:
          0.1434502 = score(doc=3375,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.4167423 = fieldWeight in 3375, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.0625 = fieldNorm(doc=3375)
        0.044890516 = weight(_text_:und in 3375) [ClassicSimilarity], result of:
          0.044890516 = score(doc=3375,freq=4.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.2772374 = fieldWeight in 3375, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3375)
      0.5 = coord(2/4)
    
    Abstract
    Prof. Dr. Harald Zimmermann, Universität des Saarlandes, berichtete über zukunftsfähige Erschließungsverfahren, die intellektuelle Leistungen einsparen helfen und trotzdem den Weg zur gewünschten Literatur öffnen können sollen. Er erinnerte an das von Lustig und Knorz in den 80er Jahren entwickelte Verfahren Air/Phys. Dort lernt das System mit dem Anwachsen eines lexikalischen Inventars (ISBN 3-487-07825-2).
  6. Automatische Indexierung zwischen Forschung und Anwendung (1986) 0.09
    0.090534054 = product of:
      0.18106811 = sum of:
        0.12551893 = weight(_text_:jahren in 952) [ClassicSimilarity], result of:
          0.12551893 = score(doc=952,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.3646495 = fieldWeight in 952, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.0546875 = fieldNorm(doc=952)
        0.055549175 = weight(_text_:und in 952) [ClassicSimilarity], result of:
          0.055549175 = score(doc=952,freq=8.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.34306374 = fieldWeight in 952, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=952)
      0.5 = coord(2/4)
    
    Abstract
    Die automatische Indexierung von Dokumenten für das Information Retrieval, d. h. die automatische Charakterisierung von Dokumentinhalten mittels Deskriptoren (Schlagwörtern) ist bereits seit über 25 Jahren ein Gebiet theoretischer und experimenteller Forschung. Dagegen wurde erst im Oktober 1985 mit der Anwendung der automatischen Indexierung in der Inputproduktion für ein großes Retrievalsystem begonnen. Es handelt sich um die Indexierung englischer Referatetexte für die Physik-Datenbasis des Informationszentrums Energie, Physik, Mathematik GmbH in Karlsruhe. In dem vorliegenden Buch beschreiben Mitarbeiter der Technischen Hochschule Darmstadt ihre Forschungs- und Entwicklungsarbeiten, die zu dieser Pilotanwendung geführt haben.
    Footnote
    Rez. in: Zeitschrift für Bibliothekswesen und Bibliographie 35(1988) S.508-510 (W. Gödert)
  7. Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019) 0.08
    0.08450617 = product of:
      0.16901234 = sum of:
        0.089656375 = weight(_text_:jahren in 2083) [ClassicSimilarity], result of:
          0.089656375 = score(doc=2083,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.26046392 = fieldWeight in 2083, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2083)
        0.07935597 = weight(_text_:und in 2083) [ClassicSimilarity], result of:
          0.07935597 = score(doc=2083,freq=32.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.4900911 = fieldWeight in 2083, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2083)
      0.5 = coord(2/4)
    
    Abstract
    Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
    Footnote
    Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
    Imprint
    Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien
  8. Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003) 0.08
    0.07772744 = product of:
      0.15545487 = sum of:
        0.089656375 = weight(_text_:jahren in 283) [ClassicSimilarity], result of:
          0.089656375 = score(doc=283,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.26046392 = fieldWeight in 283, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.0390625 = fieldNorm(doc=283)
        0.0657985 = weight(_text_:und in 283) [ClassicSimilarity], result of:
          0.0657985 = score(doc=283,freq=22.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.4063621 = fieldWeight in 283, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=283)
      0.5 = coord(2/4)
    
    Abstract
    Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
    Imprint
    Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft
  9. Qualität in der Inhaltserschließung (2021) 0.08
    0.07709712 = product of:
      0.15419424 = sum of:
        0.0717251 = weight(_text_:jahren in 1754) [ClassicSimilarity], result of:
          0.0717251 = score(doc=1754,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.20837115 = fieldWeight in 1754, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.03125 = fieldNorm(doc=1754)
        0.08246914 = weight(_text_:und in 1754) [ClassicSimilarity], result of:
          0.08246914 = score(doc=1754,freq=54.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.5093176 = fieldWeight in 1754, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1754)
      0.5 = coord(2/4)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  10. Oberhauser, O.; Labner, J.: OPAC-Erweiterung durch automatische Indexierung : Empirische Untersuchung mit Daten aus dem Österreichischen Verbundkatalog (2002) 0.07
    0.07441111 = product of:
      0.14882222 = sum of:
        0.10758765 = weight(_text_:jahren in 1883) [ClassicSimilarity], result of:
          0.10758765 = score(doc=1883,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.3125567 = fieldWeight in 1883, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.046875 = fieldNorm(doc=1883)
        0.041234575 = weight(_text_:und in 1883) [ClassicSimilarity], result of:
          0.041234575 = score(doc=1883,freq=6.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.25465882 = fieldWeight in 1883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1883)
      0.5 = coord(2/4)
    
    Abstract
    In Anlehnung an die in den neunziger Jahren durchgeführten Erschließungsprojekte MILOS I und MILOS II, die die Eignung eines Verfahrens zur automatischen Indexierung für Bibliothekskataloge zum Thema hatten, wurde eine empirische Untersuchung anhand einer repräsentativen Stichprobe von Titelsätzen aus dem Österreichischen Verbundkatalog durchgeführt. Ziel war die Prüfung und Bewertung der Einsatzmöglichkeit dieses Verfahrens in den Online-Katalogen des Verbundes. Der Realsituation der OPAC-Benutzung gemäß wurde ausschließlich die Auswirkung auf den automatisch generierten Begriffen angereicherten Basic Index ("Alle Felder") untersucht. Dazu wurden 100 Suchanfragen zunächst im ursprünglichen Basic Index und sodann im angereicherten Basic Index in einem OPAC unter Aleph 500 durchgeführt. Die Tests erbrachten einen Zuwachs an relevanten Treffern bei nur leichten Verlusten an Precision, eine Reduktion der Nulltreffer-Ergebnisse sowie Aufschlüsse über die Auswirkung einer vorhandenen verbalen Sacherschließung.
  11. Kugler, A.: Automatisierte Volltexterschließung von Retrodigitalisaten am Beispiel historischer Zeitungen (2018) 0.07
    0.07441111 = product of:
      0.14882222 = sum of:
        0.10758765 = weight(_text_:jahren in 595) [ClassicSimilarity], result of:
          0.10758765 = score(doc=595,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.3125567 = fieldWeight in 595, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.046875 = fieldNorm(doc=595)
        0.041234575 = weight(_text_:und in 595) [ClassicSimilarity], result of:
          0.041234575 = score(doc=595,freq=6.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.25465882 = fieldWeight in 595, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=595)
      0.5 = coord(2/4)
    
    Abstract
    Seit ein paar Jahren postuliert die DFG in ihren Praxisregeln "Digitalisierung", dass eine ausschließliche Bilddigitalisierung nicht mehr den wissenschaftlichen Ansprüchen Genüge leiste, sondern der digitale Volltext notwendig sei, da dieser die Basis für eine wissenschaftliche Nachnutzung darstellt. Um ein besseres Verständnis davon zu erlangen, was sich hinter dem Begriff "Volltext" verbirgt, wird im Folgenden ein kleiner Einblick in die technischen Verfahren zur automatisierten Volltexterschließung von Retrodigitalisaten geboten. Fortschritte und auch Grenzen der aktuellen Methoden werden vorgestellt und wie Qualität in diesem Zusammenhang überhaupt bemessen werden kann. Die automatisierten Verfahren zur Volltexterschließung werden am Beispiel historischer Zeitungen erläutert, da deren Zugänglichmachung gerade in den Geisteswissenschaften ein großes Desiderat ist und diese Quellengattung zugleich aufgrund der Spaltenstruktur besondere technische Herausforderungen mit sich bringt. 2016 wurde das DFG-Projekt zur Erstellung eines "Masterplan Zeitungsdigitalisierung" fertiggestellt, dessen Ergebnisse hier einfließen.
  12. Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006) 0.07
    0.07045302 = product of:
      0.14090604 = sum of:
        0.0717251 = weight(_text_:jahren in 78) [ClassicSimilarity], result of:
          0.0717251 = score(doc=78,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.20837115 = fieldWeight in 78, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.03125 = fieldNorm(doc=78)
        0.06918093 = weight(_text_:und in 78) [ClassicSimilarity], result of:
          0.06918093 = score(doc=78,freq=38.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.4272515 = fieldWeight in 78, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=78)
      0.5 = coord(2/4)
    
    Abstract
    Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  13. Schneider, A.: Moderne Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen : Projekte und Perspektiven (2008) 0.07
    0.06858185 = product of:
      0.1371637 = sum of:
        0.0717251 = weight(_text_:jahren in 31) [ClassicSimilarity], result of:
          0.0717251 = score(doc=31,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.20837115 = fieldWeight in 31, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.03125 = fieldNorm(doc=31)
        0.065438606 = weight(_text_:und in 31) [ClassicSimilarity], result of:
          0.065438606 = score(doc=31,freq=34.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.40413946 = fieldWeight in 31, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=31)
      0.5 = coord(2/4)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit modernen Retrievalverfahren in klassischen bibliotheksbezogenen Anwendungen. Wie die Verbindung der beiden gegensätzlich scheinenden Wortgruppen im Titel zeigt, werden in der Arbeit Aspekte aus der Informatik bzw. Informationswissenschaft mit Aspekten aus der Bibliothekstradition verknüpft. Nach einer kurzen Schilderung der Ausgangslage, der so genannten Informationsflut, im ersten Kapitel stellt das zweite Kapitel eine Einführung in die Theorie des Information Retrieval dar. Im Einzelnen geht es um die Grundlagen von Information Retrieval und Information-Retrieval-Systemen sowie um die verschiedenen Möglichkeiten der Informationserschließung. Hier werden Formal- und Sacherschließung, Indexierung und automatische Indexierung behandelt. Des Weiteren werden im Rahmen der Theorie des Information Retrieval unterschiedliche Information-Retrieval-Modelle und die Evaluation durch Retrievaltests vorgestellt. Nach der Theorie folgt im dritten Kapitel die Praxis des Information Retrieval. Es werden die organisationsinterne Anwendung, die Anwendung im Informations- und Dokumentationsbereich sowie die Anwendung im Bibliotheksbereich unterschieden. Die organisationsinterne Anwendung wird durch das Beispiel der Datenbank KURS zur Aus- und Weiterbildung veranschaulicht. Die Anwendung im Bibliotheksbereich bezieht sich in erster Linie auf den OPAC als Kompromiss zwischen bibliothekarischer Indexierung und Endnutzeranforderungen und auf seine Anreicherung (sog. Catalogue Enrichment), um das Retrieval zu verbessern. Der Bibliotheksbereich wird ausführlicher behandelt, indem ein Rückblick auf abgeschlossene Projekte zu Informations- und Indexierungssystemen aus den Neunziger Jahren (OSIRIS, MILOS I und II, KASCADE) sowie ein Einblick in aktuelle Projekte gegeben werden. In den beiden folgenden Kapiteln wird je ein aktuelles Projekt zur Verbesserung des Retrievals durch Kataloganreicherung, automatische Erschließung und fortschrittliche Retrievalverfahren präsentiert: das Suchportal dandelon.com und das 180T-Projekt des Hochschulbibliothekszentrums des Landes Nordrhein-Westfalen. Hierbei werden jeweils Projektziel, Projektpartner, Projektorganisation, Projektverlauf und die verwendete Technologie vorgestellt. Die Projekte unterscheiden sich insofern, dass in dem einen Fall eine große Verbundzentrale die Projektkoordination übernimmt, im anderen Fall jede einzelne teilnehmende Bibliothek selbst für die Durchführung verantwortlich ist. Im sechsten und letzten Kapitel geht es um das Fazit und die Perspektiven. Es werden sowohl die beiden beschriebenen Projekte bewertet als auch ein Ausblick auf Entwicklungen bezüglich des Bibliothekskatalogs gegeben. Diese Veröffentlichung geht zurück auf eine Master-Arbeit im postgradualen Fernstudiengang Master of Arts (Library and Information Science) an der Humboldt-Universität zu Berlin.
    Imprint
    Berlin : Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin
  14. Mödden, E.; Dreger, A.; Hommes, K.P.; Mohammadianbisheh, N.; Mölck, L.; Pinna, L.; Sitte-Zöllner, D.: ¬Der Weg zur Gründung der AG Erschließung ÖB-DNB und die Entwicklung eines maschinellen Verfahrens zur Verschlagwortung der Kinder- und Jugendliteratur mit GND-Vokabular (2020) 0.06
    0.06468029 = product of:
      0.12936059 = sum of:
        0.06275947 = weight(_text_:jahren in 1072) [ClassicSimilarity], result of:
          0.06275947 = score(doc=1072,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.18232475 = fieldWeight in 1072, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1072)
        0.06660113 = weight(_text_:und in 1072) [ClassicSimilarity], result of:
          0.06660113 = score(doc=1072,freq=46.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.411319 = fieldWeight in 1072, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1072)
      0.5 = coord(2/4)
    
    Abstract
    Öffentliche Bibliotheken und die Deutsche Nationalbibliothek haben viele Gemeinsamkeiten. Öffentliche Bibliotheken und die Deutsche Nationalbibliothek haben aber auch viele Unterschiede. Zu den Gemeinsamkeiten zählt zweifelsohne die inhaltliche Vielfalt des Medienangebots. Anders als institutionell gebundene Bibliotheken wie Hochschulbibliotheken, seien es Universitäts- oder Fachhochschulbibliotheken, offerieren Öffentliche Bibliotheken wie auch die DNB ein über institutionelle Belange hinausreichendes universelles Angebot. Sie haben Kinderbücher und philosophische Abhandlungen, Ratgeber und Romane, Spiele und Noten im Bestand. Die Vielfalt der inhaltlichen und formalen Medien korrespondiert mit der Vielfalt der Nutzerinnen und Nutzer. Die Nutzerinnen und Nutzer der Öffentlichen Bibliotheken und der DNB müssen nicht Angehörige einer Institution sein; es reicht, dass sie ein wie auch immer geartetes je persönliches Informationsbedürfnis haben. Zu den Unterschieden zählen neben den gesetzlichen Aufgaben, für die DNB festgelegt als Bundesgesetz, für Öffentliche Bibliotheken in einigen Bundesländern durch entsprechende Landesgesetze, der ganz unterschiedliche Umgang mit Medien. Haben Öffentliche Bibliotheken den Anspruch, Gebrauchsbibliotheken zu sein, in denen Medien, intensiv genutzt, ein zeitlich begrenztes Aufenthaltsrecht haben, so fungiert die DNB als Gedächtnisinstitution, um die Medien auch für nachfolgende Generationen zu erhalten. Die DNB hat dabei die Aufgabe, die Medien "zu erschließen und bibliografisch zu verzeichnen" und hierbei "zentrale bibliothekarische und nationalbiografische Dienste zu leisten" sowie die Medien "für die Allgemeinheit nutzbar zu machen" (DNBG §2, Satz 1)1. Die Gebrauchsorientierung der Öffentlichen Bibliotheken impliziert, dass mit der hohen Kundenorientierung die gute Auffindbarkeit von Medien im Zentrum der Erschließung steht. Was liegt daher näher, als hierfür die zentralen Metadatendienste der DNB zu nutzen? Die Versorgung mit zentral erfassten Metadaten in hoher Qualität für die Erschließung lokaler Medienbestände ist wirtschaftlich und ermöglicht, die knappen personellen Ressourcen auf dringend erforderliche Vermittlungstätigkeiten zu konzentrieren. Soweit die Theorie, soweit auch die Praxis, bis vor etwa zehn Jahren Veränderungen eintraten.
    Man einigte sich auf das Vorhaben, die THEMA-angereicherten Daten des Buchhandels bibliotheksspezifisch aufzuarbeiten und maschinell in verbale Erschließungskategorien zu transferieren. Es wurde darüber informiert, dass die Marketing- und Verlagsservice für den Buchhandel GmbH - MVB sich intensiv bemüht, die Verwendung von THEMA durch die Verlage im Rahmen einer Offensive zur Verbesserung der Qualität der Daten im Verzeichnis Lieferbarer Bücher zu forcieren. Die Workshop-Teilnehmenden waren sich einig in der Auffassung, an der Normierung des Schlagwortvokabulars, wie sie über die GND stattfindet, festzuhalten. Denkbar sei, freie Schlagwörter aus den MVB-Daten mit der GND abzugleichen und/oder eine Liste von Begriffen zu erstellen, die für ein Mapping der THEMA-Notationen auf die GND geeignet wären. Als geeignetstes Segment empfahl sich die Kinderliteratur, zum einen wegen ihrer großen Menge und hohen Bedeutung in den ÖBs und der mangelnden Erschließung durch jedwede Klassifikation, zum anderen wegen der Menge und Qualität der freien Schlagwörter in den Daten des Buchhandels. Verabredet wurde, dass die DNB eine Skizze für ein Projekt zur Nutzbarmachung von THEMA und der freien MVB-Schlagwörter erarbeiten und zur Verfügung stellen sollte, während die ÖB-Vertretungen eine Liste von Schlagwörtern im Bereich der Kinderliteratur, die von besonderer Relevanz z.B. bei der Auskunftserteilung sind, an die DNB übermitteln wollten.
  15. Groß, T.; Faden, M.: Automatische Indexierung elektronischer Dokumente an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften : Bericht über die Jahrestagung der Internationalen Buchwissenschaftlichen Gesellschaft (2010) 0.06
    0.064474754 = product of:
      0.12894951 = sum of:
        0.0717251 = weight(_text_:jahren in 51) [ClassicSimilarity], result of:
          0.0717251 = score(doc=51,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.20837115 = fieldWeight in 51, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.03125 = fieldNorm(doc=51)
        0.057224404 = weight(_text_:und in 51) [ClassicSimilarity], result of:
          0.057224404 = score(doc=51,freq=26.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.3534097 = fieldWeight in 51, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=51)
      0.5 = coord(2/4)
    
    Abstract
    Die zunehmende Verfügbarmachung digitaler Informationen in den letzten Jahren sowie die Aussicht auf ein weiteres Ansteigen der sogenannten Datenflut kumulieren in einem grundlegenden, sich weiter verstärkenden Informationsstrukturierungsproblem. Die stetige Zunahme von digitalen Informationsressourcen im World Wide Web sichert zwar jederzeit und ortsungebunden den Zugriff auf verschiedene Informationen; offen bleibt der strukturierte Zugang, insbesondere zu wissenschaftlichen Ressourcen. Angesichts der steigenden Anzahl elektronischer Inhalte und vor dem Hintergrund stagnierender bzw. knapper werdender personeller Ressourcen in der Sacherschließun schafft keine Bibliothek bzw. kein Bibliotheksverbund es mehr, weder aktuell noch zukünftig, alle digitalen Daten zu erfassen, zu strukturieren und zueinander in Beziehung zu setzen. In der Informationsgesellschaft des 21. Jahrhunderts wird es aber zunehmend wichtiger, die in der Flut verschwundenen wissenschaftlichen Informationen zeitnah, angemessen und vollständig zu strukturieren und somit als Basis für eine Wissensgenerierung wieder nutzbar zu machen. Eine normierte Inhaltserschließung digitaler Informationsressourcen ist deshalb für die Deutsche Zentralbibliothek für Wirtschaftswissenschaften (ZBW) als wichtige Informationsinfrastruktureinrichtung in diesem Bereich ein entscheidender und auch erfolgskritischer Aspekt im Wettbewerb mit anderen Informationsdienstleistern. Weil die traditionelle intellektuelle Sacherschließung aber nicht beliebig skalierbar ist - mit dem Anstieg der Zahl an Online-Dokumenten steigt proportional auch der personelle Ressourcenbedarf an Fachreferenten, wenn ein gewisser Qualitätsstandard gehalten werden soll - bedarf es zukünftig anderer Sacherschließungsverfahren. Automatisierte Verschlagwortungsmethoden werden dabei als einzige Möglichkeit angesehen, die bibliothekarische Sacherschließung auch im digitalen Zeitalter zukunftsfest auszugestalten. Zudem können maschinelle Ansätze dazu beitragen, die Heterogenitäten (Indexierungsinkonsistenzen) zwischen den einzelnen Sacherschließer zu nivellieren, und somit zu einer homogeneren Erschließung des Bibliotheksbestandes beitragen.
    Mit der Anfang 2010 begonnen Implementierung und Ergebnisevaluierung des automatischen Indexierungsverfahrens "Decisiv Categorization" der Firma Recommind soll das hier skizzierte Informationsstrukturierungsproblem in zwei Schritten gelöst werden. Kurz- bis mittelfristig soll die intellektuelle Indexierung durch ein semiautomatisches Verfahren6 unterstützt werden. Mittel- bis langfristig soll das maschinelle Verfahren, aufbauend auf einem entsprechenden Training, in die Lage versetzt werden, sowohl im Hause vorliegende Dokumente vollautomatisch zu indexieren als auch ZBW-fremde digitale Informationsressourcen zu verschlagworten bzw. zu klassifizieren, um sie in einem gemeinsamen Suchraum auffindbar machen zu können. Im Anschluss an diese Einleitung werden die ersten Ansätze maschineller Sacherschließung an der ZBW (2001-2004) und deren Ergebnisse und Problemlagen aufgezeigt. Danach werden die Rahmenbedingungen (Projektauftrag und -ziel) für eine Wiederaufnahme des Vorhabens im Jahre 2009 aufgezeigt, gefolgt von einer Darstellung der Funktionsweise der Recommind-Technologie und deren Einsatz im Rahmen der Sacherschließung von Online-Dokumenten mit einem Thesaurus. Schwerpunkt dieser Abhandlung bilden im Anschluss daran die Evaluierungsmöglichkeiten automatischer Indexierungsansätze sowie die aktuellen Ergebnisse und zentralen Erkenntnisse des Einsatzes im Kontext der ZBW. Das Fazit beschreibt die entsprechenden Schlussfolgerungen aus den erzielten Ergebnissen sowie den Ausblick auf das weitere Vorgehen.
  16. Tavakolizadeh-Ravari, M.: Analysis of the long term dynamics in thesaurus developments and its consequences (2017) 0.06
    0.06307933 = product of:
      0.12615865 = sum of:
        0.050189123 = weight(_text_:und in 4081) [ClassicSimilarity], result of:
          0.050189123 = score(doc=4081,freq=20.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.3099608 = fieldWeight in 4081, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4081)
        0.07596953 = weight(_text_:headings in 4081) [ClassicSimilarity], result of:
          0.07596953 = score(doc=4081,freq=2.0), product of:
            0.35425642 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.073006414 = queryNorm
            0.21444786 = fieldWeight in 4081, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=4081)
      0.5 = coord(2/4)
    
    Abstract
    Die Arbeit analysiert die dynamische Entwicklung und den Gebrauch von Thesaurusbegriffen. Zusätzlich konzentriert sie sich auf die Faktoren, die die Zahl von Indexbegriffen pro Dokument oder Zeitschrift beeinflussen. Als Untersuchungsobjekt dienten der MeSH und die entsprechende Datenbank "MEDLINE". Die wichtigsten Konsequenzen sind: 1. Der MeSH-Thesaurus hat sich durch drei unterschiedliche Phasen jeweils logarithmisch entwickelt. Solch einen Thesaurus sollte folgenden Gleichung folgen: "T = 3.076,6 Ln (d) - 22.695 + 0,0039d" (T = Begriffe, Ln = natürlicher Logarithmus und d = Dokumente). Um solch einen Thesaurus zu konstruieren, muss man demnach etwa 1.600 Dokumente von unterschiedlichen Themen des Bereiches des Thesaurus haben. Die dynamische Entwicklung von Thesauri wie MeSH erfordert die Einführung eines neuen Begriffs pro Indexierung von 256 neuen Dokumenten. 2. Die Verteilung der Thesaurusbegriffe erbrachte drei Kategorien: starke, normale und selten verwendete Headings. Die letzte Gruppe ist in einer Testphase, während in der ersten und zweiten Kategorie die neu hinzukommenden Deskriptoren zu einem Thesauruswachstum führen. 3. Es gibt ein logarithmisches Verhältnis zwischen der Zahl von Index-Begriffen pro Aufsatz und dessen Seitenzahl für die Artikeln zwischen einer und einundzwanzig Seiten. 4. Zeitschriftenaufsätze, die in MEDLINE mit Abstracts erscheinen erhalten fast zwei Deskriptoren mehr. 5. Die Findablity der nicht-englisch sprachigen Dokumente in MEDLINE ist geringer als die englische Dokumente. 6. Aufsätze der Zeitschriften mit einem Impact Factor 0 bis fünfzehn erhalten nicht mehr Indexbegriffe als die der anderen von MEDINE erfassten Zeitschriften. 7. In einem Indexierungssystem haben unterschiedliche Zeitschriften mehr oder weniger Gewicht in ihrem Findability. Die Verteilung der Indexbegriffe pro Seite hat gezeigt, dass es bei MEDLINE drei Kategorien der Publikationen gibt. Außerdem gibt es wenige stark bevorzugten Zeitschriften."
    Footnote
    Dissertation, Humboldt-Universität zu Berlin - Institut für Bibliotheks- und Informationswissenschaft.
    Imprint
    Berlin : Humboldt-Universität zu Berlin / Institut für Bibliotheks- und Informationswissenschaft
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  17. Kasprzik, A.: Aufbau eines produktiven Dienstes für die automatisierte Inhaltserschließung an der ZBW : ein Status- und Erfahrungsbericht. (2023) 0.06
    0.06095711 = product of:
      0.12191422 = sum of:
        0.0717251 = weight(_text_:jahren in 1936) [ClassicSimilarity], result of:
          0.0717251 = score(doc=1936,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.20837115 = fieldWeight in 1936, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.03125 = fieldNorm(doc=1936)
        0.050189123 = weight(_text_:und in 1936) [ClassicSimilarity], result of:
          0.050189123 = score(doc=1936,freq=20.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.3099608 = fieldWeight in 1936, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1936)
      0.5 = coord(2/4)
    
    Abstract
    Die ZBW - Leibniz-Informationszentrum Wirtschaft betreibt seit 2016 eigene angewandte Forschung im Bereich Machine Learning mit dem Zweck, praktikable Lösungen für eine automatisierte oder maschinell unterstützte Inhaltserschließung zu entwickeln. 2020 begann ein Team an der ZBW die Konzeption und Implementierung einer Softwarearchitektur, die es ermöglichte, diese prototypischen Lösungen in einen produktiven Dienst zu überführen und mit den bestehenden Nachweis- und Informationssystemen zu verzahnen. Sowohl die angewandte Forschung als auch die für dieses Vorhaben ("AutoSE") notwendige Softwareentwicklung sind direkt im Bibliotheksbereich der ZBW angesiedelt, werden kontinuierlich anhand des State of the Art vorangetrieben und profitieren von einem engen Austausch mit den Verantwortlichen für die intellektuelle Inhaltserschließung. Dieser Beitrag zeigt die Meilensteine auf, die das AutoSE-Team in zwei Jahren in Bezug auf den Aufbau und die Integration der Software erreicht hat, und skizziert, welche bis zum Ende der Pilotphase (2024) noch ausstehen. Die Architektur basiert auf Open-Source-Software und die eingesetzten Machine-Learning-Komponenten werden im Rahmen einer internationalen Zusammenarbeit im engen Austausch mit der Finnischen Nationalbibliothek (NLF) weiterentwickelt und zur Nachnutzung in dem von der NLF entwickelten Open-Source-Werkzeugkasten Annif aufbereitet. Das Betriebsmodell des AutoSE-Dienstes sieht regelmäßige Überprüfungen sowohl einzelner Komponenten als auch des Produktionsworkflows als Ganzes vor und erlaubt eine fortlaufende Weiterentwicklung der Architektur. Eines der Ergebnisse, das bis zum Ende der Pilotphase vorliegen soll, ist die Dokumentation der Anforderungen an einen dauerhaften produktiven Betrieb des Dienstes, damit die Ressourcen dafür im Rahmen eines tragfähigen Modells langfristig gesichert werden können. Aus diesem Praxisbeispiel lässt sich ableiten, welche Bedingungen gegeben sein müssen, um Machine-Learning-Lösungen wie die in Annif enthaltenen erfolgreich an einer Institution für die Inhaltserschließung einsetzen zu können.
  18. Plaunt, C.; Norgard, B.A.: ¬An association-based method for automatic indexing with a controlled vocabulary (1998) 0.06
    0.058152057 = product of:
      0.23260823 = sum of:
        0.23260823 = weight(_text_:headings in 2794) [ClassicSimilarity], result of:
          0.23260823 = score(doc=2794,freq=12.0), product of:
            0.35425642 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.073006414 = queryNorm
            0.6566098 = fieldWeight in 2794, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2794)
      0.25 = coord(1/4)
    
    Abstract
    In this article, we describe and test a two-stage algorithm based on a lexical collocation technique which maps from the lexical clues contained in a document representation into a controlled vocabulary list of subject headings. Using a collection of 4.626 INSPEC documents, we create a 'dictionary' of associations between the lexical items contained in the titles, authors, and abstracts, and controlled vocabulary subject headings assigned to those records by human indexers using a likelihood ratio statistic as the measure of association. In the deployment stage, we use the dictiony to predict which of the controlled vocabulary subject headings best describe new documents when they are presented to the system. Our evaluation of this algorithm, in which we compare the automatically assigned subject headings to the subject headings assigned to the test documents by human catalogers, shows that we can obtain results comparable to, and consistent with, human cataloging. In effect we have cast this as a classic partial match information retrieval problem. We consider the problem to be one of 'retrieving' (or assigning) the most probably 'relevant' (or correct) controlled vocabulary subject headings to a document based on the clues contained in that document
  19. Kaiser, A.: Computer-unterstütztes Indexieren in Intelligenten Information Retrieval Systemen : Ein Relevanz-Feedback orientierter Ansatz zur Informationserschließung in unformatierten Datenbanken (1993) 0.05
    0.053513713 = product of:
      0.10702743 = sum of:
        0.053793825 = weight(_text_:jahren in 284) [ClassicSimilarity], result of:
          0.053793825 = score(doc=284,freq=2.0), product of:
            0.34421802 = queryWeight, product of:
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.073006414 = queryNorm
            0.15627836 = fieldWeight in 284, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.714901 = idf(docFreq=1081, maxDocs=44421)
              0.0234375 = fieldNorm(doc=284)
        0.053233605 = weight(_text_:und in 284) [ClassicSimilarity], result of:
          0.053233605 = score(doc=284,freq=40.0), product of:
            0.16192086 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.073006414 = queryNorm
            0.3287631 = fieldWeight in 284, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=284)
      0.5 = coord(2/4)
    
    Abstract
    Information ist in unserer Zeit zu einem sehr wichtigen Gut geworden. Sie ist Grundlage jeglicher seriösen Entscheidungsfindung. Die Informationsflut ist in den letzten Jahren stark angestiegen und auch in absehbarer Zeit wird die Menge der Informationen weiter anwachsen. Daher wird es immer wichtiger, sich ''Information über Information'' zu organisieren. Es ist nicht möglich, über alle Bereiche, mit denen man konfrontiert wird, im letzten Detail informiert zu sein. Notwendig und wichtig ist es aber zu wissen, wo man sich informieren kann. Relevante Informationen müssen möglichst rasch gefunden werden können. Im praktischen, EDV-unterstützten Einsatz findet man zu diesem Zweck Informationssysteme verschiedenster Art. Das Spektrum reicht dabei von Management-Informationssystemen, über Expertensysteme bis zu Datenbanksystemen und Information Retrieval Systemen (IR-Systemen). Obwohl die einzelnen Typen dieser informationsverarbeitenden Systeme für unterschiedliche Anwendergruppen und unterschiedliche Aufgabenarten konzipiert sind, ergeben sich beim Entwurf der Systeme doch sehr ähnlich gelagerte Problemkreise und Fragestellungen. * Die Darstellung und die Organisation von bestehendem Wissen und bekannten Fakten im Informationssystem (Informationserschließung). * Das (Wieder)finden relevanter Informationen aus dem Informationssystem und das Führen des Benutzers durch das Informationssystem. Ein Information Retrieval System beinhaltet unstrukturierte bibliographische oder textuelle Dokumente und unterscheidet sich dadurch wesentlich von Datenbanksystemen, die für gewöhnlich strukturierte Daten enthalten.
    Konventionelle, formatierte Datenbanken sind heute in der Praxis bereits weit verbreitet. Dies nicht zuletzt auch deshalb, weil unter anderem die standardisierte Abfragesprache SQL existiert und insbesondere bei relationalen Datenbanksystemen die Forschung intensiv an Verbesserungen in Aufbau und Performance der Systeme arbeitet. Die Verbreitung und Akzeptanz von unformatierten Datenbanken, Information Retrieval Systemen, ist hingegen bei weitem nicht so weit gediehen. Ein Grund dafür ist in der mangelnden Benutzerfreundlichkeit der IR-Systeme und in unzulänglichen Methoden der Informationserschließung zu suchen. Mit der vorliegenden Arbeit soll eine Methode zur Informationserschliessung in Information Retrieval Systemen entwickelt werden, die die Bedürfnisse des Benutzers in den Mittelpunkt stellt und so einen Beitrag dazu leistet, die Akzeptanz und Verbreitung von Information Retrieval Systemen, insbesondere für den Bürobereich, zu erhöhen. Die Fragestellung lautet somit: Ist es möglich, den Benutzer bereits im Stadium der Indexierung von Dokumenten in verstärktem Maße miteinzubeziehen, ohne dabei aber auf die maschinelle Unterstützung völlig zu verzichten, wie dies bei der manuellen Indexierung der Fall ist. Jedes Retrievalsystem kann als ein System beschrieben werden, das aus einer Menge von Dokumenten und einer Menge von Suchfragen besteht und das einen Mechanismus enthält, der die für eine Suchanfrage relevanten Dokumente bestimmt.
    Dazu sind folgende Teile eines IR-Systems notwendig: * Informationserschließung Eine Komponente zur Erschließung und Darstellung der gespeicherten Informationen. Dieser Teil dient dazu, den Inhalt der Dokumente zu beschreiben und so darzustellen, daß aufgrund dieser Merkmale ein Dokument gefunden werden kann. Eine Möglichkeit dazu besteht darin, den Dokumenten inhaltsbeschreibende Deskriptoren zuzuordnen. Durch den Prozeß der Indexierung werden die Dokumente in eine Indexierungssprache übersetzt. * Query-Language (Abfragesprache) Eine Komponente zur Formulierung der Suchanfragen des Benutzers. Dieser Teil dient dazu, die Suchanfrage des Benutzers so zu verarbeiten, daß mit der aus der Frage gewonnenen Information über die Bedürfnisse des Benutzers die passenden Dokumente gefunden werden können. * Informationsausgabe - Informationsaufbereitung Eine Komponente zur Ausgabe der auf Grund der Suchanfrage gefundenen Informationen. Dieser Teil stellt das Ergebnis der Suchanfrage dem Benutzer zur Verfügung.
    Es würde den Rahmen der Arbeit sprengen, alle Komponenten eines Information Retrieval Systems zu untersuchen. Daher wird ein Schwerpunkt auf die Informationserschließung gelegt. Dabei wird die (semi)automatische Indexierung von Dokumenten zum Zwecke des Information Retrievals, also der Vorgang der Übersetzung der Dokumente in eine Indexierungssprache genauer behandelt. Dieser Schwerpunkt wurde unter anderem deshalb gewählt, weil meiner Ansicht nach die festzustellende mangelnde Akzeptanz von Information Retrieval Systemen auch damit zu begründen ist, daß die in der Praxis eingesetzten Indexierungskomponenten der Systeme zur Zeit noch nicht den Leistungsumfang erbringen, den der Benutzer von einem ''Intelligenten Information Retrieval System'' erwartet. Ziel der Arbeit ist es, ein Modell zur automatischen Indexierung schrittweise zu entwickeln, das den Benutzer in stärkerem Maße in die Indexierung mit einbezieht, als dies bei den in Literatur und Praxis beschriebenen Verfahren der Fall ist.
  20. Olsgaard, J.N.; Evans, E.J.: Improving keyword indexing (1981) 0.05
    0.047480956 = product of:
      0.18992382 = sum of:
        0.18992382 = weight(_text_:headings in 5064) [ClassicSimilarity], result of:
          0.18992382 = score(doc=5064,freq=2.0), product of:
            0.35425642 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.073006414 = queryNorm
            0.53611964 = fieldWeight in 5064, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.078125 = fieldNorm(doc=5064)
      0.25 = coord(1/4)
    
    Abstract
    This communication examines some of the most frequently cited critisms of keyword indexing. These critisms include (1) absence of general subject headings, (2) limited entry points, and (3) irrelevant indexing. Some solutions are suggested to meet these critisms.

Years

Languages

  • d 161
  • e 25
  • a 1
  • m 1
  • nl 1
  • More… Less…

Types

  • a 136
  • x 31
  • el 23
  • m 11
  • s 5
  • d 1
  • h 1
  • p 1
  • r 1
  • More… Less…