Search (172 results, page 1 of 9)

  • × theme_ss:"Automatisches Indexieren"
  1. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.13
    0.12535715 = product of:
      0.2507143 = sum of:
        0.075804286 = weight(_text_:und in 1782) [ClassicSimilarity], result of:
          0.075804286 = score(doc=1782,freq=20.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.5424314 = fieldWeight in 1782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1782)
        0.17491002 = weight(_text_:handelt in 1782) [ClassicSimilarity], result of:
          0.17491002 = score(doc=1782,freq=2.0), product of:
            0.3774934 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.06300966 = queryNorm
            0.4633459 = fieldWeight in 1782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1782)
      0.5 = coord(2/4)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  2. Automatische Indexierung zwischen Forschung und Anwendung (1986) 0.11
    0.11142643 = product of:
      0.22285286 = sum of:
        0.047942836 = weight(_text_:und in 952) [ClassicSimilarity], result of:
          0.047942836 = score(doc=952,freq=8.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.34306374 = fieldWeight in 952, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=952)
        0.17491002 = weight(_text_:handelt in 952) [ClassicSimilarity], result of:
          0.17491002 = score(doc=952,freq=2.0), product of:
            0.3774934 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.06300966 = queryNorm
            0.4633459 = fieldWeight in 952, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0546875 = fieldNorm(doc=952)
      0.5 = coord(2/4)
    
    Abstract
    Die automatische Indexierung von Dokumenten für das Information Retrieval, d. h. die automatische Charakterisierung von Dokumentinhalten mittels Deskriptoren (Schlagwörtern) ist bereits seit über 25 Jahren ein Gebiet theoretischer und experimenteller Forschung. Dagegen wurde erst im Oktober 1985 mit der Anwendung der automatischen Indexierung in der Inputproduktion für ein großes Retrievalsystem begonnen. Es handelt sich um die Indexierung englischer Referatetexte für die Physik-Datenbasis des Informationszentrums Energie, Physik, Mathematik GmbH in Karlsruhe. In dem vorliegenden Buch beschreiben Mitarbeiter der Technischen Hochschule Darmstadt ihre Forschungs- und Entwicklungsarbeiten, die zu dieser Pilotanwendung geführt haben.
    Footnote
    Rez. in: Zeitschrift für Bibliothekswesen und Bibliographie 35(1988) S.508-510 (W. Gödert)
  3. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.10
    0.097933605 = product of:
      0.19586721 = sum of:
        0.045944337 = weight(_text_:und in 386) [ClassicSimilarity], result of:
          0.045944337 = score(doc=386,freq=10.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.3287631 = fieldWeight in 386, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=386)
        0.14992288 = weight(_text_:handelt in 386) [ClassicSimilarity], result of:
          0.14992288 = score(doc=386,freq=2.0), product of:
            0.3774934 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.06300966 = queryNorm
            0.39715362 = fieldWeight in 386, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.046875 = fieldNorm(doc=386)
      0.5 = coord(2/4)
    
    Abstract
    Retrieval Tests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das auf Grund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.5, S.251-262
  4. Rapke, K.: Automatische Indexierung von Volltexten für die Gruner+Jahr Pressedatenbank (2001) 0.09
    0.086682655 = product of:
      0.17336531 = sum of:
        0.048429582 = weight(_text_:und in 6863) [ClassicSimilarity], result of:
          0.048429582 = score(doc=6863,freq=16.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.34654674 = fieldWeight in 6863, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6863)
        0.12493573 = weight(_text_:handelt in 6863) [ClassicSimilarity], result of:
          0.12493573 = score(doc=6863,freq=2.0), product of:
            0.3774934 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.06300966 = queryNorm
            0.33096135 = fieldWeight in 6863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6863)
      0.5 = coord(2/4)
    
    Abstract
    Retrievaltests sind die anerkannteste Methode, um neue Verfahren der Inhaltserschließung gegenüber traditionellen Verfahren zu rechtfertigen. Im Rahmen einer Diplomarbeit wurden zwei grundsätzlich unterschiedliche Systeme der automatischen inhaltlichen Erschließung anhand der Pressedatenbank des Verlagshauses Gruner + Jahr (G+J) getestet und evaluiert. Untersucht wurde dabei natürlichsprachliches Retrieval im Vergleich zu Booleschem Retrieval. Bei den beiden Systemen handelt es sich zum einen um Autonomy von Autonomy Inc. und DocCat, das von IBM an die Datenbankstruktur der G+J Pressedatenbank angepasst wurde. Ersteres ist ein auf natürlichsprachlichem Retrieval basierendes, probabilistisches System. DocCat demgegenüber basiert auf Booleschem Retrieval und ist ein lernendes System, das aufgrund einer intellektuell erstellten Trainingsvorlage indexiert. Methodisch geht die Evaluation vom realen Anwendungskontext der Textdokumentation von G+J aus. Die Tests werden sowohl unter statistischen wie auch qualitativen Gesichtspunkten bewertet. Ein Ergebnis der Tests ist, dass DocCat einige Mängel gegenüber der intellektuellen Inhaltserschließung aufweist, die noch behoben werden müssen, während das natürlichsprachliche Retrieval von Autonomy in diesem Rahmen und für die speziellen Anforderungen der G+J Textdokumentation so nicht einsetzbar ist
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  5. Halip, I.: Automatische Extrahierung von Schlagworten aus unstrukturierten Texten (2005) 0.07
    0.07163266 = product of:
      0.14326532 = sum of:
        0.043316733 = weight(_text_:und in 986) [ClassicSimilarity], result of:
          0.043316733 = score(doc=986,freq=20.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.3099608 = fieldWeight in 986, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=986)
        0.099948585 = weight(_text_:handelt in 986) [ClassicSimilarity], result of:
          0.099948585 = score(doc=986,freq=2.0), product of:
            0.3774934 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.06300966 = queryNorm
            0.26476908 = fieldWeight in 986, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.03125 = fieldNorm(doc=986)
      0.5 = coord(2/4)
    
    Abstract
    Durch die zunehmende Mediatisierung und Digitalisierung wird die moderne Gesellschaft immer mehr mit dem Thema der Informationsüberflutung konfrontiert. Erstaunlicherweise führt der Zuwachs an Informationen gleichzeitig zu einem Mangel an Wissen. Die Erklärung kann darin gefunden werden, dass ein großer Teil der existierenden Informationen nicht aufgefunden werden kann. Es handelt sich meistens um Informationen die auf semi- und nichtstrukturierte Daten beruhen. Schätzungen zufolge sind heute rund 80% der entscheidungsrelevanten Informationen in Unternehmen in unstrukturierter, d. h. meist textueller Form vorhanden. Die Unfähigkeit der Maschinen den Inhalt unstrukturierter Texte zu verstehen führt dazu, dass dokumentiertes Wissen schwer auffindbar ist und oft unentdeckt bleibt. Wegen des Informationsvolumens, das meistens zu groß ist, um gelesen, verstanden oder sogar benutzt zu werden, ergibt sich folgendes Problem, mit dem man konfrontiert wird: Informationen die nicht in Wissen umgewandelt werden können, bleiben als papiergebundene oder digitale Dokumente in Data-Repositories verschlossen. Angesichts der heute anfallenden Menge an Dokumenten erscheint eine manuelle Vergabe von Schlagworten nicht mehr realistisch. Deshalb entwickelt Wissensmanagement unterstützende Verfahren, die Informationen rechtzeitig, in der richtigen Qualität und den richtigen Personen verfügbar machen. Einige Schwerpunkte an denen zur Zeit geforscht wird, sind Modelle zur Repräsentation von Dokumenten, Methoden zur Ähnlichkeitsbestimmung von Anfragen zu Dokumenten und zur Indexierung von Dokumentenmengen, sowie die automatische Klassifikation. Vor diesem Hintergrund konzentriert sich diese Arbeit auf die unterschiedlichen Verfahren der automatischen Indexierung, hebt die algorithmischen Vor- und Nachteile hervor, mit dem Ziel die Funktionsweise im Bereich der unstrukturierten Texte zu analysieren. Hierfür erfolgt im 3. Kapitel eine genauere Untersuchung und Darstellung automatischer Indexierungsverfahren. Zuvor werden in Kapitel 2 grundlegende Begrifflichkeiten erklärt, eingeordnet und abgegrenzt. Abschließend werden anhand der theoretischen Darlegung Implementierungen der vorgestellten Verfahren kurz beschrieben. Die Ausarbeitung endet mit der Schlussfolgerung und dem Ausblick.
    Content
    Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster
  6. Carevic, Z.: Semi-automatische Verschlagwortung zur Integration externer semantischer Inhalte innerhalb einer medizinischen Kooperationsplattform (2012) 0.07
    0.066750795 = product of:
      0.13350159 = sum of:
        0.033552997 = weight(_text_:und in 1897) [ClassicSimilarity], result of:
          0.033552997 = score(doc=1897,freq=12.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.24009462 = fieldWeight in 1897, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1897)
        0.099948585 = weight(_text_:handelt in 1897) [ClassicSimilarity], result of:
          0.099948585 = score(doc=1897,freq=2.0), product of:
            0.3774934 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.06300966 = queryNorm
            0.26476908 = fieldWeight in 1897, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.03125 = fieldNorm(doc=1897)
      0.5 = coord(2/4)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit der Integration von externen semantischen Inhalten auf Basis eines medizinischen Begriffssystems. Die zugrundeliegende Annahme ist, dass die Verwendung einer einheitlichen Terminologie auf Seiten des Anfragesystems und der Wissensbasis zu qualitativ hochwertigen Ergebnissen führt. Um dies zu erreichen muss auf Seiten des Anfragesystems eine Abbildung natürlicher Sprache auf die verwendete Terminologie gewährleistet werden. Dies geschieht auf Basis einer (semi-)automatischen Verschlagwortung textbasierter Inhalte. Im Wesentlichen lassen sich folgende Fragestellungen festhalten: Automatische Verschlagwortung textbasierter Inhalte Kann eine automatische Verschlagwortung textbasierter Inhalte auf Basis eines Begriffssystems optimiert werden? Der zentrale Aspekt der vorliegenden Arbeit ist die (semi-)automatische Verschlagwortung textbasierter Inhalte auf Basis eines medizinischen Begriffssystems. Zu diesem Zweck wird der aktuelle Stand der Forschung betrachtet. Es werden eine Reihe von Tokenizern verglichen um zu erfahren welche Algorithmen sich zur Ermittlung von Wortgrenzen eignen. Speziell wird betrachtet, wie die Ermittlung von Wortgrenzen in einer domänenspezifischen Umgebung eingesetzt werden kann. Auf Basis von identifizierten Token in einem Text werden die Auswirkungen des Stemming und POS-Tagging auf die Gesamtmenge der zu analysierenden Inhalte beobachtet. Abschließend wird evaluiert wie ein kontrolliertes Vokabular die Präzision bei der Verschlagwortung erhöhen kann. Dies geschieht unter der Annahme dass domänenspezifische Inhalte auch innerhalb eines domänenspezifischen Begriffssystems definiert sind. Zu diesem Zweck wird ein allgemeines Prozessmodell entwickelt anhand dessen eine Verschlagwortung vorgenommen wird.
    Integration externer Inhalte Inwieweit kann die Nutzung einer einheitlichen Terminologie zwischen Anfragesystem und Wissensbasis den Prozess der Informationsbeschaffung unterstützen? Zu diesem Zweck wird in einer ersten Phase ermittelt welche Wissensbasen aus der medizinischen Domäne in der Linked Data Cloud zur Verfügung stehen. Aufbauend auf den Ergebnissen werden Informationen aus verschiedenen dezentralen Wissensbasen exemplarisch integriert. Der Fokus der Betrachtung liegt dabei auf der verwendeten Terminologie sowie der Nutzung von Semantic Web Technologien. Neben Informationen aus der Linked Data Cloud erfolgt eine Suche nach medizinischer Literatur in PubMed. Wie auch in der Linked Data Cloud erfolgt die Integration unter Verwendung einer einheitlichen Terminologie. Eine weitere Fragestellung ist, wie Informationen aus insgesamt 21. Mio Aufsatzzitaten in PubMed sinnvoll integriert werden können. Dabei wird ermittelt welche Mechanismen eingesetzt werden können um die Präzision der Ergebnisse zu optimieren. Eignung medizinischer Begriffssystem Welche medizinischen Begriffssysteme existieren und wie eignen sich diese als zugrungeliegendes Vokabular für die automatische Verschlagwortung und Integration semantischer Inhalte? Der Fokus liegt dabei speziell auf einer Bewertung der Reichhaltigkeit von Begriffssystemen, wobei insbesondere der Detaillierungsgrad von Interesse ist. Handelt es sich um ein spezifisches oder allgemeines Begriffssystem und eignet sich dieses auch dafür bestimmte Teilaspekte der Medizin, wie bspw. die Chirurige oder die Anästhesie, in einer ausreichenden Tiefe zu beschreiben?
  7. Thönssen, B.: Automatische Indexierung und Schnittstellen zu Thesauri (1988) 0.02
    0.020970624 = product of:
      0.083882496 = sum of:
        0.083882496 = weight(_text_:und in 29) [ClassicSimilarity], result of:
          0.083882496 = score(doc=29,freq=12.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.60023654 = fieldWeight in 29, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=29)
      0.25 = coord(1/4)
    
    Abstract
    Über eine Schnittstelle zwischen Programmen zur automatischen Indexierung (PRIMUS-IDX) und zur maschinellen Thesaurusverwaltung (INDEX) sollen große Textmengen schnell, kostengünstig und konsistent erschlossen und verbesserte Recherchemöglichkeiten geschaffen werden. Zielvorstellung ist ein Verfahren, das auf PCs ablauffähig ist und speziell deutschsprachige Texte bearbeiten kann
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  8. Hauer, M.: Neue Qualitäten in Bibliotheken : Durch Content-Ergänzung, maschinelle Indexierung und modernes Information Retrieval können Recherchen in Bibliothekskatalogen deutlich verbessert werden (2004) 0.02
    0.02054693 = product of:
      0.08218772 = sum of:
        0.08218772 = weight(_text_:und in 1886) [ClassicSimilarity], result of:
          0.08218772 = score(doc=1886,freq=18.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.58810925 = fieldWeight in 1886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1886)
      0.25 = coord(1/4)
    
    Abstract
    Seit Frühjahr 2004 ist Dandelon.com als neues, offenes, internationales Wissenschaftsportal in Betrieb. Erste Retrieval-Tests bescheinigen deutlich bessere Suchergebnisse als in herkömmlichen OPACs oder Verbundsystemen. Seine Daten stammen aus intelligentCAPTURE und Bibliothekskatalogen. intelligentCAPTURE erfasst Content über Scanning oder File-Import oder Web-Spidering und indexiert nach morphosyntaktischen und semantischen Verfahren. Aufbereiteter Content und Indexate gehen an Bibliothekssysteme und an dandelon.com. Dandelon.com ist kostenlos zugänglich für Endbenutzer und ist zugleich Austauschzentrale und Katalogerweiterung für angeschlossene Bibliotheken. Neue Inhalte können so kostengünstig und performant erschlossen werden.
  9. Weidenbach, N.: Werkzeuge zur Evaluierung und Optimierung von Regeln zur Automatischen Indexierung : Anwendungssystementwicklung (1994) 0.02
    0.019371832 = product of:
      0.07748733 = sum of:
        0.07748733 = weight(_text_:und in 2836) [ClassicSimilarity], result of:
          0.07748733 = score(doc=2836,freq=4.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.5544748 = fieldWeight in 2836, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=2836)
      0.25 = coord(1/4)
    
    Imprint
    Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
  10. Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992) 0.02
    0.019219892 = product of:
      0.07687957 = sum of:
        0.07687957 = weight(_text_:und in 72) [ClassicSimilarity], result of:
          0.07687957 = score(doc=72,freq=28.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.55012584 = fieldWeight in 72, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=72)
      0.25 = coord(1/4)
    
    Content
    Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
  11. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.02
    0.019143471 = product of:
      0.076573886 = sum of:
        0.076573886 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.076573886 = score(doc=399,freq=10.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.54793847 = fieldWeight in 399, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=399)
      0.25 = coord(1/4)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
  12. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.02
    0.017978564 = product of:
      0.071914256 = sum of:
        0.071914256 = weight(_text_:und in 6671) [ClassicSimilarity], result of:
          0.071914256 = score(doc=6671,freq=18.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.5145956 = fieldWeight in 6671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6671)
      0.25 = coord(1/4)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  13. Schwantner, M.: Entwicklung und Pflege des Indexierungswörterbuches PHYS/PILOT (1988) 0.02
    0.017794166 = product of:
      0.07117666 = sum of:
        0.07117666 = weight(_text_:und in 595) [ClassicSimilarity], result of:
          0.07117666 = score(doc=595,freq=6.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.50931764 = fieldWeight in 595, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=595)
      0.25 = coord(1/4)
    
    Source
    Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
  14. Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996) 0.02
    0.017794166 = product of:
      0.07117666 = sum of:
        0.07117666 = weight(_text_:und in 795) [ClassicSimilarity], result of:
          0.07117666 = score(doc=795,freq=6.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.50931764 = fieldWeight in 795, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=795)
      0.25 = coord(1/4)
    
    Imprint
    Oldenburg : Bibliotheks- und Informationssystem der Universität
    Source
    Erschließen, Suchen, Finden: Vorträge aus den bibliothekarischen Arbeitsgruppen der 19. und 20. Jahrestagungen (Basel 1995 / Freiburg 1996) der Gesellschaft für Klassifikation. Hrsg.: H.-J. Hermes u. H.-J. Wätjen
  15. Lohmann, H.: Verbesserung der Literatursuche durch Dokumentanreicherung und automatische Inhaltserschließung : Das Projekt 'KASCADE' an der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.02
    0.017794166 = product of:
      0.07117666 = sum of:
        0.07117666 = weight(_text_:und in 2221) [ClassicSimilarity], result of:
          0.07117666 = score(doc=2221,freq=6.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.50931764 = fieldWeight in 2221, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=2221)
      0.25 = coord(1/4)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
  16. Junger, U.: Möglichkeiten und Probleme automatischer Erschließungsverfahren in Bibliotheken : Bericht vom KASCADE-Workshop in der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.02
    0.017794166 = product of:
      0.07117666 = sum of:
        0.07117666 = weight(_text_:und in 4645) [ClassicSimilarity], result of:
          0.07117666 = score(doc=4645,freq=6.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.50931764 = fieldWeight in 4645, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=4645)
      0.25 = coord(1/4)
    
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.1, S.88-90
  17. Dresler, W.: Semi-automatische Indexierungssoftware : Möglichkeiten und Grenzen am Beispiel von g.a.d.t.1 (1998) 0.02
    0.017794166 = product of:
      0.07117666 = sum of:
        0.07117666 = weight(_text_:und in 5272) [ClassicSimilarity], result of:
          0.07117666 = score(doc=5272,freq=6.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.50931764 = fieldWeight in 5272, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=5272)
      0.25 = coord(1/4)
    
    Footnote
    Abschlussarbeit am Institut für Information und Dokumentation an der Fachhochschule Potsdam
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  18. Qualität in der Inhaltserschließung (2021) 0.02
    0.017794164 = product of:
      0.071176656 = sum of:
        0.071176656 = weight(_text_:und in 1754) [ClassicSimilarity], result of:
          0.071176656 = score(doc=1754,freq=54.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.5093176 = fieldWeight in 1754, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1754)
      0.25 = coord(1/4)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  19. Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000) 0.02
    0.017122442 = product of:
      0.06848977 = sum of:
        0.06848977 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.06848977 = score(doc=400,freq=8.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.4900911 = fieldWeight in 400, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=400)
      0.25 = coord(1/4)
    
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  20. Pollmeier, M.: Verlagsschlagwörter als Grundlage für den Einsatz eines maschinellen Verfahrens zur verbalen Erschließung der Kinder- und Jugendliteratur durch die Deutsche Nationalbibliothek : eine Datenanalyse (2019) 0.02
    0.017122442 = product of:
      0.06848977 = sum of:
        0.06848977 = weight(_text_:und in 2083) [ClassicSimilarity], result of:
          0.06848977 = score(doc=2083,freq=32.0), product of:
            0.13974907 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06300966 = queryNorm
            0.4900911 = fieldWeight in 2083, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2083)
      0.25 = coord(1/4)
    
    Abstract
    Die Inhaltserschließung durch Schlagwörter wird aktuell in vielen Öffentlichen Bibliotheken Deutschlands zurückgefahren. Aufgrund von Personalmangel und den vielfältigen anderen bibliothekarischen Dienstleistungen, die für die Benutzer zu leisten sind, kommt sie oft zu kurz. Die Deutsche Nationalbibliothek unterstützte diese Bibliotheken bisher als wichtigster Datenlieferant, jedoch stellte sie 2017 die intellektuelle Inhaltserschließung der Kinder- und Jugendliteratur und der Belletristik ein. Um diese problematische Situation zu verbessern, wird aktuell in der Deutschen Nationalbibliothek ein Verfahren erprobt, das aus Schlagwörtern von Verlagen maschinell bibliothekarische Schlagwörter aus der Gemeinsamen Normdatei generiert. Auf die Titel der Kinder- und Jugendliteratur aus den Jahren 2018 und 2019 wurde es bereits angewendet. In dieser Arbeit geht es um eine erste Analyse dieser Erschließungsergebnisse, um Aussagen über die Nützlichkeit der Verlagsschlagwörter und des automatischen Verfahrens zu treffen. Im theoretischen Teil werden einerseits die Inhaltserschließung im bibliothekarischen Bereich und deren aktuelle Entwicklungen hinsichtlich der Automatisierung beschrieben. Andererseits wird näher auf die Erschließungspraxis in der Deutschen Nationalbibliothek hinsichtlich der Automatisierung und der Kinder- und Jugendliteratur eingegangen. Im Analyseteil werden sowohl die Verlagsschlagwörter als auch die bibliothekarischen Schlagwörter nach festgelegten Kriterien untersucht und schließlich miteinander verglichen.
    Footnote
    Bachelorarbeit an der Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik und Medien Studiengang Bibliotheks- und Informationswissenschaft.
    Imprint
    Leipzig : Hochschule für Technik, Wirtschaft und Kultur / Fakultät Informatik und Medien

Years

Languages

  • d 161
  • e 9
  • a 1
  • m 1
  • nl 1
  • More… Less…

Types

  • a 120
  • x 31
  • el 22
  • m 11
  • s 5
  • d 1
  • h 1
  • p 1
  • r 1
  • More… Less…