Search (178 results, page 1 of 9)

  • × theme_ss:"Automatisches Indexieren"
  1. Siebenkäs, A.; Markscheffel, B.: Conception of a workflow for the semi-automatic construction of a thesaurus for the German printing industry (2015) 0.07
    0.07155326 = product of:
      0.14310652 = sum of:
        0.02602844 = weight(_text_:und in 3091) [ClassicSimilarity], result of:
          0.02602844 = score(doc=3091,freq=2.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.17153187 = fieldWeight in 3091, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3091)
        0.11707807 = weight(_text_:help in 3091) [ClassicSimilarity], result of:
          0.11707807 = score(doc=3091,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.3637965 = fieldWeight in 3091, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3091)
      0.5 = coord(2/4)
    
    Abstract
    During the BMWI granted project "Print-IT", the need of a thesaurus based uniform and consistent language for the German printing industry became evident. In this paper we introduce a semi-automatic construction approach for such a thesaurus and present a workflow which supports users to generate thesaurus typical information structures from relevant digitalized resources with the help of common IT-tools.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Mongin, L.; Fu, Y.Y.; Mostafa, J.: Open Archives data Service prototype and automated subject indexing using D-Lib archive content as a testbed (2003) 0.06
    0.056315627 = product of:
      0.22526251 = sum of:
        0.22526251 = weight(_text_:java in 2167) [ClassicSimilarity], result of:
          0.22526251 = score(doc=2167,freq=2.0), product of:
            0.48216656 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06841661 = queryNorm
            0.46718815 = fieldWeight in 2167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2167)
      0.25 = coord(1/4)
    
    Abstract
    The Indiana University School of Library and Information Science opened a new research laboratory in January 2003; The Indiana University School of Library and Information Science Information Processing Laboratory [IU IP Lab]. The purpose of the new laboratory is to facilitate collaboration between scientists in the department in the areas of information retrieval (IR) and information visualization (IV) research. The lab has several areas of focus. These include grid and cluster computing, and a standard Java-based software platform to support plug and play research datasets, a selection of standard IR modules and standard IV algorithms. Future development includes software to enable researchers to contribute datasets, IR algorithms, and visualization algorithms into the standard environment. We decided early on to use OAI-PMH as a resource discovery tool because it is consistent with our mission.
  3. Medelyan, O.; Witten, I.H.: Domain-independent automatic keyphrase indexing with small training sets (2008) 0.03
    0.025088158 = product of:
      0.10035263 = sum of:
        0.10035263 = weight(_text_:help in 2871) [ClassicSimilarity], result of:
          0.10035263 = score(doc=2871,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.31182557 = fieldWeight in 2871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.046875 = fieldNorm(doc=2871)
      0.25 = coord(1/4)
    
    Abstract
    Keyphrases are widely used in both physical and digital libraries as a brief, but precise, summary of documents. They help organize material based on content, provide thematic access, represent search results, and assist with navigation. Manual assignment is expensive because trained human indexers must reach an understanding of the document and select appropriate descriptors according to defined cataloging rules. We propose a new method that enhances automatic keyphrase extraction by using semantic information about terms and phrases gleaned from a domain-specific thesaurus. The key advantage of the new approach is that it performs well with very little training data. We evaluate it on a large set of manually indexed documents in the domain of agriculture, compare its consistency with a group of six professional indexers, and explore its performance on smaller collections of documents in other domains and of French and Spanish documents.
  4. Thönssen, B.: Automatische Indexierung und Schnittstellen zu Thesauri (1988) 0.02
    0.022770142 = product of:
      0.09108057 = sum of:
        0.09108057 = weight(_text_:und in 29) [ClassicSimilarity], result of:
          0.09108057 = score(doc=29,freq=12.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.60023654 = fieldWeight in 29, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=29)
      0.25 = coord(1/4)
    
    Abstract
    Über eine Schnittstelle zwischen Programmen zur automatischen Indexierung (PRIMUS-IDX) und zur maschinellen Thesaurusverwaltung (INDEX) sollen große Textmengen schnell, kostengünstig und konsistent erschlossen und verbesserte Recherchemöglichkeiten geschaffen werden. Zielvorstellung ist ein Verfahren, das auf PCs ablauffähig ist und speziell deutschsprachige Texte bearbeiten kann
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  5. Hauer, M.: Neue Qualitäten in Bibliotheken : Durch Content-Ergänzung, maschinelle Indexierung und modernes Information Retrieval können Recherchen in Bibliothekskatalogen deutlich verbessert werden (2004) 0.02
    0.022310091 = product of:
      0.089240365 = sum of:
        0.089240365 = weight(_text_:und in 1886) [ClassicSimilarity], result of:
          0.089240365 = score(doc=1886,freq=18.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.58810925 = fieldWeight in 1886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1886)
      0.25 = coord(1/4)
    
    Abstract
    Seit Frühjahr 2004 ist Dandelon.com als neues, offenes, internationales Wissenschaftsportal in Betrieb. Erste Retrieval-Tests bescheinigen deutlich bessere Suchergebnisse als in herkömmlichen OPACs oder Verbundsystemen. Seine Daten stammen aus intelligentCAPTURE und Bibliothekskatalogen. intelligentCAPTURE erfasst Content über Scanning oder File-Import oder Web-Spidering und indexiert nach morphosyntaktischen und semantischen Verfahren. Aufbereiteter Content und Indexate gehen an Bibliothekssysteme und an dandelon.com. Dandelon.com ist kostenlos zugänglich für Endbenutzer und ist zugleich Austauschzentrale und Katalogerweiterung für angeschlossene Bibliotheken. Neue Inhalte können so kostengünstig und performant erschlossen werden.
  6. Weidenbach, N.: Werkzeuge zur Evaluierung und Optimierung von Regeln zur Automatischen Indexierung : Anwendungssystementwicklung (1994) 0.02
    0.021034157 = product of:
      0.08413663 = sum of:
        0.08413663 = weight(_text_:und in 2836) [ClassicSimilarity], result of:
          0.08413663 = score(doc=2836,freq=4.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.5544748 = fieldWeight in 2836, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=2836)
      0.25 = coord(1/4)
    
    Imprint
    Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
  7. Golub, K.; Lykke, M.; Tudhope, D.: Enhancing social tagging with automated keywords from the Dewey Decimal Classification (2014) 0.02
    0.020906799 = product of:
      0.083627194 = sum of:
        0.083627194 = weight(_text_:help in 3918) [ClassicSimilarity], result of:
          0.083627194 = score(doc=3918,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.25985464 = fieldWeight in 3918, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3918)
      0.25 = coord(1/4)
    
    Abstract
    Purpose - The purpose of this paper is to explore the potential of applying the Dewey Decimal Classification (DDC) as an established knowledge organization system (KOS) for enhancing social tagging, with the ultimate purpose of improving subject indexing and information retrieval. Design/methodology/approach - Over 11.000 Intute metadata records in politics were used. Totally, 28 politics students were each given four tasks, in which a total of 60 resources were tagged in two different configurations, one with uncontrolled social tags only and another with uncontrolled social tags as well as suggestions from a controlled vocabulary. The controlled vocabulary was DDC comprising also mappings from the Library of Congress Subject Headings. Findings - The results demonstrate the importance of controlled vocabulary suggestions for indexing and retrieval: to help produce ideas of which tags to use, to make it easier to find focus for the tagging, to ensure consistency and to increase the number of access points in retrieval. The value and usefulness of the suggestions proved to be dependent on the quality of the suggestions, both as to conceptual relevance to the user and as to appropriateness of the terminology. Originality/value - No research has investigated the enhancement of social tagging with suggestions from the DDC, an established KOS, in a user trial, comparing social tagging only and social tagging enhanced with the suggestions. This paper is a final reflection on all aspects of the study.
  8. Golub, K.; Soergel, D.; Buchanan, G.; Tudhope, D.; Lykke, M.; Hiom, D.: ¬A framework for evaluating automatic indexing or classification in the context of retrieval (2016) 0.02
    0.020906799 = product of:
      0.083627194 = sum of:
        0.083627194 = weight(_text_:help in 4311) [ClassicSimilarity], result of:
          0.083627194 = score(doc=4311,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.25985464 = fieldWeight in 4311, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4311)
      0.25 = coord(1/4)
    
    Abstract
    Tools for automatic subject assignment help deal with scale and sustainability in creating and enriching metadata, establishing more connections across and between resources and enhancing consistency. Although some software vendors and experimental researchers claim the tools can replace manual subject indexing, hard scientific evidence of their performance in operating information environments is scarce. A major reason for this is that research is usually conducted in laboratory conditions, excluding the complexities of real-life systems and situations. The article reviews and discusses issues with existing evaluation approaches such as problems of aboutness and relevance assessments, implying the need to use more than a single "gold standard" method when evaluating indexing and retrieval, and proposes a comprehensive evaluation framework. The framework is informed by a systematic review of the literature on evaluation approaches: evaluating indexing quality directly through assessment by an evaluator or through comparison with a gold standard, evaluating the quality of computer-assisted indexing directly in the context of an indexing workflow, and evaluating indexing quality indirectly through analyzing retrieval performance.
  9. Suominen, O.; Koskenniemi, I.: Annif Analyzer Shootout : comparing text lemmatization methods for automated subject indexing (2022) 0.02
    0.020906799 = product of:
      0.083627194 = sum of:
        0.083627194 = weight(_text_:help in 1659) [ClassicSimilarity], result of:
          0.083627194 = score(doc=1659,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.25985464 = fieldWeight in 1659, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1659)
      0.25 = coord(1/4)
    
    Abstract
    Automated text classification is an important function for many AI systems relevant to libraries, including automated subject indexing and classification. When implemented using the traditional natural language processing (NLP) paradigm, one key part of the process is the normalization of words using stemming or lemmatization, which reduces the amount of linguistic variation and often improves the quality of classification. In this paper, we compare the output of seven different text lemmatization algorithms as well as two baseline methods. We measure how the choice of method affects the quality of text classification using example corpora in three languages. The experiments have been performed using the open source Annif toolkit for automated subject indexing and classification, but should generalize also to other NLP toolkits and similar text classification tasks. The results show that lemmatization methods in most cases outperform baseline methods in text classification particularly for Finnish and Swedish text, but not English, where baseline methods are most effective. The differences between lemmatization methods are quite small. The systematic comparison will help optimize text classification pipelines and inform the further development of the Annif toolkit to incorporate a wider choice of normalization methods.
  10. Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992) 0.02
    0.020869179 = product of:
      0.083476715 = sum of:
        0.083476715 = weight(_text_:und in 72) [ClassicSimilarity], result of:
          0.083476715 = score(doc=72,freq=28.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.55012584 = fieldWeight in 72, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=72)
      0.25 = coord(1/4)
    
    Content
    Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
  11. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.02
    0.020786202 = product of:
      0.08314481 = sum of:
        0.08314481 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.08314481 = score(doc=399,freq=10.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.54793847 = fieldWeight in 399, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=399)
      0.25 = coord(1/4)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
  12. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.02
    0.02057729 = product of:
      0.08230916 = sum of:
        0.08230916 = weight(_text_:und in 1782) [ClassicSimilarity], result of:
          0.08230916 = score(doc=1782,freq=20.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.5424314 = fieldWeight in 1782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1782)
      0.25 = coord(1/4)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  13. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.02
    0.019521331 = product of:
      0.078085326 = sum of:
        0.078085326 = weight(_text_:und in 6671) [ClassicSimilarity], result of:
          0.078085326 = score(doc=6671,freq=18.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.5145956 = fieldWeight in 6671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6671)
      0.25 = coord(1/4)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  14. Schwantner, M.: Entwicklung und Pflege des Indexierungswörterbuches PHYS/PILOT (1988) 0.02
    0.019321108 = product of:
      0.07728443 = sum of:
        0.07728443 = weight(_text_:und in 595) [ClassicSimilarity], result of:
          0.07728443 = score(doc=595,freq=6.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.50931764 = fieldWeight in 595, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=595)
      0.25 = coord(1/4)
    
    Source
    Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
  15. Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996) 0.02
    0.019321108 = product of:
      0.07728443 = sum of:
        0.07728443 = weight(_text_:und in 795) [ClassicSimilarity], result of:
          0.07728443 = score(doc=795,freq=6.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.50931764 = fieldWeight in 795, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=795)
      0.25 = coord(1/4)
    
    Imprint
    Oldenburg : Bibliotheks- und Informationssystem der Universität
    Source
    Erschließen, Suchen, Finden: Vorträge aus den bibliothekarischen Arbeitsgruppen der 19. und 20. Jahrestagungen (Basel 1995 / Freiburg 1996) der Gesellschaft für Klassifikation. Hrsg.: H.-J. Hermes u. H.-J. Wätjen
  16. Lohmann, H.: Verbesserung der Literatursuche durch Dokumentanreicherung und automatische Inhaltserschließung : Das Projekt 'KASCADE' an der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.02
    0.019321108 = product of:
      0.07728443 = sum of:
        0.07728443 = weight(_text_:und in 2221) [ClassicSimilarity], result of:
          0.07728443 = score(doc=2221,freq=6.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.50931764 = fieldWeight in 2221, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=2221)
      0.25 = coord(1/4)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
  17. Junger, U.: Möglichkeiten und Probleme automatischer Erschließungsverfahren in Bibliotheken : Bericht vom KASCADE-Workshop in der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.02
    0.019321108 = product of:
      0.07728443 = sum of:
        0.07728443 = weight(_text_:und in 4645) [ClassicSimilarity], result of:
          0.07728443 = score(doc=4645,freq=6.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.50931764 = fieldWeight in 4645, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=4645)
      0.25 = coord(1/4)
    
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.1, S.88-90
  18. Dresler, W.: Semi-automatische Indexierungssoftware : Möglichkeiten und Grenzen am Beispiel von g.a.d.t.1 (1998) 0.02
    0.019321108 = product of:
      0.07728443 = sum of:
        0.07728443 = weight(_text_:und in 5272) [ClassicSimilarity], result of:
          0.07728443 = score(doc=5272,freq=6.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.50931764 = fieldWeight in 5272, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=5272)
      0.25 = coord(1/4)
    
    Footnote
    Abschlussarbeit am Institut für Information und Dokumentation an der Fachhochschule Potsdam
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  19. Qualität in der Inhaltserschließung (2021) 0.02
    0.019321106 = product of:
      0.077284425 = sum of:
        0.077284425 = weight(_text_:und in 1754) [ClassicSimilarity], result of:
          0.077284425 = score(doc=1754,freq=54.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.5093176 = fieldWeight in 1754, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1754)
      0.25 = coord(1/4)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  20. Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000) 0.02
    0.018591745 = product of:
      0.07436698 = sum of:
        0.07436698 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.07436698 = score(doc=400,freq=8.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.4900911 = fieldWeight in 400, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=400)
      0.25 = coord(1/4)
    
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32

Years

Languages

  • d 161
  • e 15
  • a 1
  • m 1
  • nl 1
  • More… Less…

Types

  • a 125
  • x 31
  • el 25
  • m 11
  • s 5
  • d 1
  • h 1
  • p 1
  • r 1
  • More… Less…