-
Vledutz-Stokolov, N.: Concept recognition in an automatic text-processing system for the life sciences (1987)
0.02
0.021642542 = product of:
0.086570166 = sum of:
0.086570166 = weight(_text_:headings in 2848) [ClassicSimilarity], result of:
0.086570166 = score(doc=2848,freq=2.0), product of:
0.32295093 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06655487 = queryNorm
0.26805982 = fieldWeight in 2848, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=2848)
0.25 = coord(1/4)
- Abstract
- This article describes a natural-language text-processing system designed as an automatic aid to subject indexing at BIOSIS. The intellectual procedure the system should model is a deep indexing with a controlled vocabulary of biological concepts - Concept Headings (CHs). On the average, ten CHs are assigned to each article by BIOSIS indexers. The automatic procedure consists of two stages: (1) translation of natural-language biological titles into title-semantic representations which are in the constructed formalized language of Concept Primitives, and (2) translation of the latter representations into the language of CHs. The first stage is performed by matching the titles agianst the system's Semantic Vocabulary (SV). The SV currently contains approximately 15.000 biological natural-language terms and their translations in the language of Concept Primitives. Tor the ambiguous terms, the SV contains the algorithmical rules of term disambiguation, ruels based on semantic analysis of the contexts. The second stage of the automatic procedure is performed by matching the title representations against the CH definitions, formulated as Boolean search strategies in the language of Concept Primitives. Three experiments performed with the system and their results are decribed. The most typical problems the system encounters, the problems of lexical and situational ambiguities, are discussed. The disambiguation techniques employed are described and demonstrated in many examples
-
Golub, K.; Lykke, M.; Tudhope, D.: Enhancing social tagging with automated keywords from the Dewey Decimal Classification (2014)
0.02
0.021642542 = product of:
0.086570166 = sum of:
0.086570166 = weight(_text_:headings in 3918) [ClassicSimilarity], result of:
0.086570166 = score(doc=3918,freq=2.0), product of:
0.32295093 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06655487 = queryNorm
0.26805982 = fieldWeight in 3918, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=3918)
0.25 = coord(1/4)
- Abstract
- Purpose - The purpose of this paper is to explore the potential of applying the Dewey Decimal Classification (DDC) as an established knowledge organization system (KOS) for enhancing social tagging, with the ultimate purpose of improving subject indexing and information retrieval. Design/methodology/approach - Over 11.000 Intute metadata records in politics were used. Totally, 28 politics students were each given four tasks, in which a total of 60 resources were tagged in two different configurations, one with uncontrolled social tags only and another with uncontrolled social tags as well as suggestions from a controlled vocabulary. The controlled vocabulary was DDC comprising also mappings from the Library of Congress Subject Headings. Findings - The results demonstrate the importance of controlled vocabulary suggestions for indexing and retrieval: to help produce ideas of which tags to use, to make it easier to find focus for the tagging, to ensure consistency and to increase the number of access points in retrieval. The value and usefulness of the suggestions proved to be dependent on the quality of the suggestions, both as to conceptual relevance to the user and as to appropriateness of the terminology. Originality/value - No research has investigated the enhancement of social tagging with suggestions from the DDC, an established KOS, in a user trial, comparing social tagging only and social tagging enhanced with the suggestions. This paper is a final reflection on all aspects of the study.
-
Humphrey, S.M.; Névéol, A.; Browne, A.; Gobeil, J.; Ruch, P.; Darmoni, S.J.: Comparing a rule-based versus statistical system for automatic categorization of MEDLINE documents according to biomedical specialty (2009)
0.02
0.021642542 = product of:
0.086570166 = sum of:
0.086570166 = weight(_text_:headings in 287) [ClassicSimilarity], result of:
0.086570166 = score(doc=287,freq=2.0), product of:
0.32295093 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06655487 = queryNorm
0.26805982 = fieldWeight in 287, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=287)
0.25 = coord(1/4)
- Abstract
- Automatic document categorization is an important research problem in Information Science and Natural Language Processing. Many applications, including, Word Sense Disambiguation and Information Retrieval in large collections, can benefit from such categorization. This paper focuses on automatic categorization of documents from the biomedical literature into broad discipline-based categories. Two different systems are described and contrasted: CISMeF, which uses rules based on human indexing of the documents by the Medical Subject Headings (MeSH) controlled vocabulary in order to assign metaterms (MTs), and Journal Descriptor Indexing (JDI), based on human categorization of about 4,000 journals and statistical associations between journal descriptors (JDs) and textwords in the documents. We evaluate and compare the performance of these systems against a gold standard of humanly assigned categories for 100 MEDLINE documents, using six measures selected from trec_eval. The results show that for five of the measures performance is comparable, and for one measure JDI is superior. We conclude that these results favor JDI, given the significantly greater intellectual overhead involved in human indexing and maintaining a rule base for mapping MeSH terms to MTs. We also note a JDI method that associates JDs with MeSH indexing rather than textwords, and it may be worthwhile to investigate whether this JDI method (statistical) and CISMeF (rule-based) might be combined and then evaluated showing they are complementary to one another.
-
Strobel, S.; Marín-Arraiza, P.: Metadata for scientific audiovisual media : current practices and perspectives of the TIB / AV-portal (2015)
0.02
0.021642542 = product of:
0.086570166 = sum of:
0.086570166 = weight(_text_:headings in 4667) [ClassicSimilarity], result of:
0.086570166 = score(doc=4667,freq=2.0), product of:
0.32295093 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06655487 = queryNorm
0.26805982 = fieldWeight in 4667, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=4667)
0.25 = coord(1/4)
- Abstract
- Descriptive metadata play a key role in finding relevant search results in large amounts of unstructured data. However, current scientific audiovisual media are provided with little metadata, which makes them hard to find, let alone individual sequences. In this paper, the TIB / AV-Portal is presented as a use case where methods concerning the automatic generation of metadata, a semantic search and cross-lingual retrieval (German/English) have already been applied. These methods result in a better discoverability of the scientific audiovisual media hosted in the portal. Text, speech, and image content of the video are automatically indexed by specialised GND (Gemeinsame Normdatei) subject headings. A semantic search is established based on properties of the GND ontology. The cross-lingual retrieval uses English 'translations' that were derived by an ontology mapping (DBpedia i. a.). Further ways of increasing the discoverability and reuse of the metadata are publishing them as Linked Open Data and interlinking them with other data sets.
-
Golub, K.: Automatic subject indexing of text (2019)
0.02
0.021642542 = product of:
0.086570166 = sum of:
0.086570166 = weight(_text_:headings in 268) [ClassicSimilarity], result of:
0.086570166 = score(doc=268,freq=2.0), product of:
0.32295093 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06655487 = queryNorm
0.26805982 = fieldWeight in 268, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=268)
0.25 = coord(1/4)
- Abstract
- Automatic subject indexing addresses problems of scale and sustainability and can be at the same time used to enrich existing metadata records, establish more connections across and between resources from various metadata and resource collec-tions, and enhance consistency of the metadata. In this work, au-tomatic subject indexing focuses on assigning index terms or classes from established knowledge organization systems (KOSs) for subject indexing like thesauri, subject headings systems and classification systems. The following major approaches are dis-cussed, in terms of their similarities and differences, advantages and disadvantages for automatic assigned indexing from KOSs: "text categorization," "document clustering," and "document classification." Text categorization is perhaps the most wide-spread, machine-learning approach with what seems generally good reported performance. Document clustering automatically both creates groups of related documents and extracts names of subjects depicting the group at hand. Document classification re-uses the intellectual effort invested into creating a KOS for sub-ject indexing and even simple string-matching algorithms have been reported to achieve good results, because one concept can be described using a number of different terms, including equiv-alent, related, narrower and broader terms. Finally, applicability of automatic subject indexing to operative information systems and challenges of evaluation are outlined, suggesting the need for more research.
-
Weidenbach, N.: Werkzeuge zur Evaluierung und Optimierung von Regeln zur Automatischen Indexierung : Anwendungssystementwicklung (1994)
0.02
0.02046178 = product of:
0.08184712 = sum of:
0.08184712 = weight(_text_:und in 2836) [ClassicSimilarity], result of:
0.08184712 = score(doc=2836,freq=4.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.5544748 = fieldWeight in 2836, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.125 = fieldNorm(doc=2836)
0.25 = coord(1/4)
- Imprint
- Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
-
Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992)
0.02
0.02030129 = product of:
0.08120516 = sum of:
0.08120516 = weight(_text_:und in 72) [ClassicSimilarity], result of:
0.08120516 = score(doc=72,freq=28.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.55012584 = fieldWeight in 72, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=72)
0.25 = coord(1/4)
- Content
- Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
-
Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989)
0.02
0.02022057 = product of:
0.08088228 = sum of:
0.08088228 = weight(_text_:und in 399) [ClassicSimilarity], result of:
0.08088228 = score(doc=399,freq=10.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.54793847 = fieldWeight in 399, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=399)
0.25 = coord(1/4)
- Abstract
- Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
-
Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006)
0.02
0.020017343 = product of:
0.08006937 = sum of:
0.08006937 = weight(_text_:und in 1782) [ClassicSimilarity], result of:
0.08006937 = score(doc=1782,freq=20.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.5424314 = fieldWeight in 1782, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1782)
0.25 = coord(1/4)
- Abstract
- Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
- Imprint
- Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
-
Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001)
0.02
0.01899012 = product of:
0.07596048 = sum of:
0.07596048 = weight(_text_:und in 6671) [ClassicSimilarity], result of:
0.07596048 = score(doc=6671,freq=18.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.5145956 = fieldWeight in 6671, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=6671)
0.25 = coord(1/4)
- Abstract
- Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
- Source
- nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
-
Schwantner, M.: Entwicklung und Pflege des Indexierungswörterbuches PHYS/PILOT (1988)
0.02
0.018795345 = product of:
0.07518138 = sum of:
0.07518138 = weight(_text_:und in 595) [ClassicSimilarity], result of:
0.07518138 = score(doc=595,freq=6.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.50931764 = fieldWeight in 595, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=595)
0.25 = coord(1/4)
- Source
- Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
-
Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996)
0.02
0.018795345 = product of:
0.07518138 = sum of:
0.07518138 = weight(_text_:und in 795) [ClassicSimilarity], result of:
0.07518138 = score(doc=795,freq=6.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.50931764 = fieldWeight in 795, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=795)
0.25 = coord(1/4)
- Imprint
- Oldenburg : Bibliotheks- und Informationssystem der Universität
- Source
- Erschließen, Suchen, Finden: Vorträge aus den bibliothekarischen Arbeitsgruppen der 19. und 20. Jahrestagungen (Basel 1995 / Freiburg 1996) der Gesellschaft für Klassifikation. Hrsg.: H.-J. Hermes u. H.-J. Wätjen
-
Lohmann, H.: Verbesserung der Literatursuche durch Dokumentanreicherung und automatische Inhaltserschließung : Das Projekt 'KASCADE' an der Universitäts- und Landesbibliothek Düsseldorf (1999)
0.02
0.018795345 = product of:
0.07518138 = sum of:
0.07518138 = weight(_text_:und in 2221) [ClassicSimilarity], result of:
0.07518138 = score(doc=2221,freq=6.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.50931764 = fieldWeight in 2221, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=2221)
0.25 = coord(1/4)
- Imprint
- Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
-
Dresler, W.: Semi-automatische Indexierungssoftware : Möglichkeiten und Grenzen am Beispiel von g.a.d.t.1 (1998)
0.02
0.018795345 = product of:
0.07518138 = sum of:
0.07518138 = weight(_text_:und in 5272) [ClassicSimilarity], result of:
0.07518138 = score(doc=5272,freq=6.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.50931764 = fieldWeight in 5272, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=5272)
0.25 = coord(1/4)
- Footnote
- Abschlussarbeit am Institut für Information und Dokumentation an der Fachhochschule Potsdam
- Imprint
- Potsdam : Fachhochschule, Institut für Information und Dokumentation
-
Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000)
0.02
0.018085828 = product of:
0.07234331 = sum of:
0.07234331 = weight(_text_:und in 400) [ClassicSimilarity], result of:
0.07234331 = score(doc=400,freq=8.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.4900911 = fieldWeight in 400, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=400)
0.25 = coord(1/4)
- Imprint
- Düsseldorf : Universitäts- und Landesbibliothek
- Series
- Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
-
Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019)
0.02
0.018085828 = product of:
0.07234331 = sum of:
0.07234331 = weight(_text_:und in 2083) [ClassicSimilarity], result of:
0.07234331 = score(doc=2083,freq=32.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.4900911 = fieldWeight in 2083, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2083)
0.25 = coord(1/4)
- Abstract
- Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
- Footnote
- Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
- Imprint
- Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien
-
Mohrenweis, T.: Konzepte der automatischen Indexierung und vergleichende Analyse der Systeme STAIRS, STEINADLER/CONDOR, CTX und PASSAT/GOLEM (1984)
0.02
0.017904056 = product of:
0.071616225 = sum of:
0.071616225 = weight(_text_:und in 5170) [ClassicSimilarity], result of:
0.071616225 = score(doc=5170,freq=4.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.48516542 = fieldWeight in 5170, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=5170)
0.25 = coord(1/4)
-
Seewald, U.: Semantische Analyse morphologisch komplexer Wörter : ein dreistufiges Verfahren zur maschinellen Inhaltserschließung von Wortableitungen und Komposita (1994)
0.02
0.017904056 = product of:
0.071616225 = sum of:
0.071616225 = weight(_text_:und in 2080) [ClassicSimilarity], result of:
0.071616225 = score(doc=2080,freq=4.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.48516542 = fieldWeight in 2080, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=2080)
0.25 = coord(1/4)
- Source
- Sprache und Datenverarbeitung. 18(1994) H.1, S.33-51
-
MILOS: Automatische Indexierung für Bibliotheken : Handbuch (1996)
0.02
0.017904056 = product of:
0.071616225 = sum of:
0.071616225 = weight(_text_:und in 4299) [ClassicSimilarity], result of:
0.071616225 = score(doc=4299,freq=4.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.48516542 = fieldWeight in 4299, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=4299)
0.25 = coord(1/4)
- Editor
- Universitäts- und Landesbibliothek Düsseldorf
- Imprint
- Düsseldorf : Universitäts- und Landesbibliothek
-
Pusl, F.: Automatische Indexierung an Bibliotheken - Systeme, Projekte und Einsatzmöglichkeiten (2005)
0.02
0.017904056 = product of:
0.071616225 = sum of:
0.071616225 = weight(_text_:und in 3059) [ClassicSimilarity], result of:
0.071616225 = score(doc=3059,freq=4.0), product of:
0.14761198 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06655487 = queryNorm
0.48516542 = fieldWeight in 3059, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=3059)
0.25 = coord(1/4)
- Imprint
- Köln : FH, Fakultät für Informations- und Kommunikationswissenschaften