Search (178 results, page 1 of 9)

  • × theme_ss:"Automatisches Indexieren"
  1. Mongin, L.; Fu, Y.Y.; Mostafa, J.: Open Archives data Service prototype and automated subject indexing using D-Lib archive content as a testbed (2003) 0.06
    0.055446703 = product of:
      0.22178681 = sum of:
        0.22178681 = weight(_text_:java in 2167) [ClassicSimilarity], result of:
          0.22178681 = score(doc=2167,freq=2.0), product of:
            0.47472697 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.067360975 = queryNorm
            0.46718815 = fieldWeight in 2167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2167)
      0.25 = coord(1/4)
    
    Abstract
    The Indiana University School of Library and Information Science opened a new research laboratory in January 2003; The Indiana University School of Library and Information Science Information Processing Laboratory [IU IP Lab]. The purpose of the new laboratory is to facilitate collaboration between scientists in the department in the areas of information retrieval (IR) and information visualization (IV) research. The lab has several areas of focus. These include grid and cluster computing, and a standard Java-based software platform to support plug and play research datasets, a selection of standard IR modules and standard IV algorithms. Future development includes software to enable researchers to contribute datasets, IR algorithms, and visualization algorithms into the standard environment. We decided early on to use OAI-PMH as a resource discovery tool because it is consistent with our mission.
  2. Willis, C.; Losee, R.M.: ¬A random walk on an ontology : using thesaurus structure for automatic subject indexing (2013) 0.05
    0.050301604 = product of:
      0.10060321 = sum of:
        0.014643907 = weight(_text_:und in 2016) [ClassicSimilarity], result of:
          0.014643907 = score(doc=2016,freq=2.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.098018214 = fieldWeight in 2016, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2016)
        0.0859593 = weight(_text_:here in 2016) [ClassicSimilarity], result of:
          0.0859593 = score(doc=2016,freq=2.0), product of:
            0.36196628 = queryWeight, product of:
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.067360975 = queryNorm
            0.23747875 = fieldWeight in 2016, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.03125 = fieldNorm(doc=2016)
      0.5 = coord(2/4)
    
    Abstract
    Relationships between terms and features are an essential component of thesauri, ontologies, and a range of controlled vocabularies. In this article, we describe ways to identify important concepts in documents using the relationships in a thesaurus or other vocabulary structures. We introduce a methodology for the analysis and modeling of the indexing process based on a weighted random walk algorithm. The primary goal of this research is the analysis of the contribution of thesaurus structure to the indexing process. The resulting models are evaluated in the context of automatic subject indexing using four collections of documents pre-indexed with 4 different thesauri (AGROVOC [UN Food and Agriculture Organization], high-energy physics taxonomy [HEP], National Agricultural Library Thesaurus [NALT], and medical subject headings [MeSH]). We also introduce a thesaurus-centric matching algorithm intended to improve the quality of candidate concepts. In all cases, the weighted random walk improves automatic indexing performance over matching alone with an increase in average precision (AP) of 9% for HEP, 11% for MeSH, 35% for NALT, and 37% for AGROVOC. The results of the analysis support our hypothesis that subject indexing is in part a browsing process, and that using the vocabulary and its structure in a thesaurus contributes to the indexing process. The amount that the vocabulary structure contributes was found to differ among the 4 thesauri, possibly due to the vocabulary used in the corresponding thesauri and the structural relationships between the terms. Each of the thesauri and the manual indexing associated with it is characterized using the methods developed here.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Chartron, G.; Dalbin, S.; Monteil, M.-G.; Verillon, M.: Indexation manuelle et indexation automatique : dépasser les oppositions (1989) 0.04
    0.037607193 = product of:
      0.15042877 = sum of:
        0.15042877 = weight(_text_:here in 3584) [ClassicSimilarity], result of:
          0.15042877 = score(doc=3584,freq=2.0), product of:
            0.36196628 = queryWeight, product of:
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.067360975 = queryNorm
            0.4155878 = fieldWeight in 3584, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3584)
      0.25 = coord(1/4)
    
    Abstract
    Report of a study comparing 2 methods of indexing: LEXINET, a computerised system for indexing titles and summaries only; and manual indexing of full texts, using the thesaurus developed by French Electricity (EDF). Both systems were applied to a collection of approximately 2.000 documents on artifical intelligence from the EDF data base. The results were then analysed to compare quantitative performance (number and range of terms) and qualitative performance (ambiguity of terms, specificity, variability, consistency). Overall, neither system proved ideal: LEXINET was deficient as regards lack of accessibility and excessive ambiguity; while the manual system gave rise to an over-wide variation of terms. The ideal system would appear to be a combination of automatic and manual systems, on the evidence produced here.
  4. Lochbaum, K.E.; Streeter, A.R.: Comparing and combining the effectiveness of latent semantic indexing and the ordinary vector space model for information retrieval (1989) 0.03
    0.03223474 = product of:
      0.12893896 = sum of:
        0.12893896 = weight(_text_:here in 4458) [ClassicSimilarity], result of:
          0.12893896 = score(doc=4458,freq=2.0), product of:
            0.36196628 = queryWeight, product of:
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.067360975 = queryNorm
            0.35621813 = fieldWeight in 4458, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.046875 = fieldNorm(doc=4458)
      0.25 = coord(1/4)
    
    Abstract
    A retrievalsystem was built to find individuals with appropriate expertise within a large research establishment on the basis of their authored documents. The expert-locating system uses a new method for automatic indexing and retrieval based on singular value decomposition, a matrix decomposition technique related to the factor analysis. Organizational groups, represented by the documents they write, and the terms contained in these documents, are fit simultaneously into a 100-dimensional "semantic" space. User queries are positioned in the semantic space, and the most similar groups are returned to the user. Here we compared the standard vector-space model with this new technique and found that combining the two methods improved performance over either alone. We also examined the effects of various experimental variables on the system`s retrieval accuracy. In particular, the effects of: term weighting functions in the semantic space construction and in query construction, suffix stripping, and using lexical units larger than a a single word were studied.
  5. Martins, E.F.; Belém, F.M.; Almeida, J.M.; Gonçalves, M.A.: On cold start for associative tag recommendation (2016) 0.03
    0.026862282 = product of:
      0.10744913 = sum of:
        0.10744913 = weight(_text_:here in 3494) [ClassicSimilarity], result of:
          0.10744913 = score(doc=3494,freq=2.0), product of:
            0.36196628 = queryWeight, product of:
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.067360975 = queryNorm
            0.29684845 = fieldWeight in 3494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3494)
      0.25 = coord(1/4)
    
    Abstract
    Tag recommendation strategies that exploit term co-occurrence patterns with tags previously assigned to the target object have consistently produced state-of-the-art results. However, such techniques work only for objects with previously assigned tags. Here we focus on tag recommendation for objects with no tags, a variation of the well-known \textit{cold start} problem. We start by evaluating state-of-the-art co-occurrence based methods in cold start. Our results show that the effectiveness of these methods suffers in this situation. Moreover, we show that employing various automatic filtering strategies to generate an initial tag set that enables the use of co-occurrence patterns produces only marginal improvements. We then propose a new approach that exploits both positive and negative user feedback to iteratively select input tags along with a genetic programming strategy to learn the recommendation function. Our experimental results indicate that extending the methods to include user relevance feedback leads to gains in precision of up to 58% over the best baseline in cold start scenarios and gains of up to 43% over the best baseline in objects that contain some initial tags (i.e., no cold start). We also show that our best relevance-feedback-driven strategy performs well even in scenarios that lack user cooperation (i.e., users may refuse to provide feedback) and user reliability (i.e., users may provide the wrong feedback).
  6. Thönssen, B.: Automatische Indexierung und Schnittstellen zu Thesauri (1988) 0.02
    0.022418812 = product of:
      0.08967525 = sum of:
        0.08967525 = weight(_text_:und in 29) [ClassicSimilarity], result of:
          0.08967525 = score(doc=29,freq=12.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.60023654 = fieldWeight in 29, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=29)
      0.25 = coord(1/4)
    
    Abstract
    Über eine Schnittstelle zwischen Programmen zur automatischen Indexierung (PRIMUS-IDX) und zur maschinellen Thesaurusverwaltung (INDEX) sollen große Textmengen schnell, kostengünstig und konsistent erschlossen und verbesserte Recherchemöglichkeiten geschaffen werden. Zielvorstellung ist ein Verfahren, das auf PCs ablauffähig ist und speziell deutschsprachige Texte bearbeiten kann
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Hauer, M.: Neue Qualitäten in Bibliotheken : Durch Content-Ergänzung, maschinelle Indexierung und modernes Information Retrieval können Recherchen in Bibliothekskatalogen deutlich verbessert werden (2004) 0.02
    0.021965858 = product of:
      0.08786343 = sum of:
        0.08786343 = weight(_text_:und in 1886) [ClassicSimilarity], result of:
          0.08786343 = score(doc=1886,freq=18.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.58810925 = fieldWeight in 1886, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1886)
      0.25 = coord(1/4)
    
    Abstract
    Seit Frühjahr 2004 ist Dandelon.com als neues, offenes, internationales Wissenschaftsportal in Betrieb. Erste Retrieval-Tests bescheinigen deutlich bessere Suchergebnisse als in herkömmlichen OPACs oder Verbundsystemen. Seine Daten stammen aus intelligentCAPTURE und Bibliothekskatalogen. intelligentCAPTURE erfasst Content über Scanning oder File-Import oder Web-Spidering und indexiert nach morphosyntaktischen und semantischen Verfahren. Aufbereiteter Content und Indexate gehen an Bibliothekssysteme und an dandelon.com. Dandelon.com ist kostenlos zugänglich für Endbenutzer und ist zugleich Austauschzentrale und Katalogerweiterung für angeschlossene Bibliotheken. Neue Inhalte können so kostengünstig und performant erschlossen werden.
  8. Weidenbach, N.: Werkzeuge zur Evaluierung und Optimierung von Regeln zur Automatischen Indexierung : Anwendungssystementwicklung (1994) 0.02
    0.020709611 = product of:
      0.082838446 = sum of:
        0.082838446 = weight(_text_:und in 2836) [ClassicSimilarity], result of:
          0.082838446 = score(doc=2836,freq=4.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.5544748 = fieldWeight in 2836, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=2836)
      0.25 = coord(1/4)
    
    Imprint
    Darmstadt : Fachhochschule, Fachbereich Information und Dokumentation
  9. Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992) 0.02
    0.02054718 = product of:
      0.08218872 = sum of:
        0.08218872 = weight(_text_:und in 72) [ClassicSimilarity], result of:
          0.08218872 = score(doc=72,freq=28.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.55012584 = fieldWeight in 72, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=72)
      0.25 = coord(1/4)
    
    Content
    Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
  10. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.02
    0.02046548 = product of:
      0.08186192 = sum of:
        0.08186192 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.08186192 = score(doc=399,freq=10.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.54793847 = fieldWeight in 399, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=399)
      0.25 = coord(1/4)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
  11. Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006) 0.02
    0.020259792 = product of:
      0.08103917 = sum of:
        0.08103917 = weight(_text_:und in 1782) [ClassicSimilarity], result of:
          0.08103917 = score(doc=1782,freq=20.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.5424314 = fieldWeight in 1782, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1782)
      0.25 = coord(1/4)
    
    Abstract
    Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
    Imprint
    Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
  12. Renz, M.: Automatische Inhaltserschließung im Zeichen von Wissensmanagement (2001) 0.02
    0.019220127 = product of:
      0.07688051 = sum of:
        0.07688051 = weight(_text_:und in 6671) [ClassicSimilarity], result of:
          0.07688051 = score(doc=6671,freq=18.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.5145956 = fieldWeight in 6671, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6671)
      0.25 = coord(1/4)
    
    Abstract
    Methoden der automatischen Inhaltserschließung werden seit mehr als 30 Jahren entwickelt, ohne in luD-Kreisen auf merkliche Akzeptanz zu stoßen. Gegenwärtig führen jedoch die steigende Informationsflut und der Bedarf an effizienten Zugriffsverfahren im Informations- und Wissensmanagement in breiten Anwenderkreisen zu einem wachsenden Interesse an diesen Methoden, zu verstärkten Anstrengungen in Forschung und Entwicklung und zu neuen Produkten. In diesem Beitrag werden verschiedene Ansätze zu intelligentem und inhaltsbasiertem Retrieval und zur automatischen Inhaltserschließung diskutiert sowie kommerziell vertriebene Softwarewerkzeuge und Lösungen präsentiert. Abschließend wird festgestellt, dass in naher Zukunft mit einer zunehmenden Automatisierung von bestimmten Komponenten des Informations- und Wissensmanagements zu rechnen ist, indem Software-Werkzeuge zur automatischen Inhaltserschließung in den Workflow integriert werden
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.2, S.69-78
  13. Schwantner, M.: Entwicklung und Pflege des Indexierungswörterbuches PHYS/PILOT (1988) 0.02
    0.019022994 = product of:
      0.076091975 = sum of:
        0.076091975 = weight(_text_:und in 595) [ClassicSimilarity], result of:
          0.076091975 = score(doc=595,freq=6.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.50931764 = fieldWeight in 595, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=595)
      0.25 = coord(1/4)
    
    Source
    Von der Information zum Wissen - vom Wissen zur Information: traditionelle und moderne Informationssysteme für Wissenschaft und Praxis, Deutscher Dokumentartag 1987, Bad Dürkheim, vom 23.-25.9.1987. Hrsg.: H. Strohl-Goebel
  14. Lepsky, K.: Vom OPAC zum Hyperkatalog : Daten und Indexierung (1996) 0.02
    0.019022994 = product of:
      0.076091975 = sum of:
        0.076091975 = weight(_text_:und in 795) [ClassicSimilarity], result of:
          0.076091975 = score(doc=795,freq=6.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.50931764 = fieldWeight in 795, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=795)
      0.25 = coord(1/4)
    
    Imprint
    Oldenburg : Bibliotheks- und Informationssystem der Universität
    Source
    Erschließen, Suchen, Finden: Vorträge aus den bibliothekarischen Arbeitsgruppen der 19. und 20. Jahrestagungen (Basel 1995 / Freiburg 1996) der Gesellschaft für Klassifikation. Hrsg.: H.-J. Hermes u. H.-J. Wätjen
  15. Lohmann, H.: Verbesserung der Literatursuche durch Dokumentanreicherung und automatische Inhaltserschließung : Das Projekt 'KASCADE' an der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.02
    0.019022994 = product of:
      0.076091975 = sum of:
        0.076091975 = weight(_text_:und in 2221) [ClassicSimilarity], result of:
          0.076091975 = score(doc=2221,freq=6.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.50931764 = fieldWeight in 2221, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=2221)
      0.25 = coord(1/4)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
  16. Junger, U.: Möglichkeiten und Probleme automatischer Erschließungsverfahren in Bibliotheken : Bericht vom KASCADE-Workshop in der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.02
    0.019022994 = product of:
      0.076091975 = sum of:
        0.076091975 = weight(_text_:und in 4645) [ClassicSimilarity], result of:
          0.076091975 = score(doc=4645,freq=6.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.50931764 = fieldWeight in 4645, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=4645)
      0.25 = coord(1/4)
    
    Source
    Bibliothek: Forschung und Praxis. 23(1999) H.1, S.88-90
  17. Dresler, W.: Semi-automatische Indexierungssoftware : Möglichkeiten und Grenzen am Beispiel von g.a.d.t.1 (1998) 0.02
    0.019022994 = product of:
      0.076091975 = sum of:
        0.076091975 = weight(_text_:und in 5272) [ClassicSimilarity], result of:
          0.076091975 = score(doc=5272,freq=6.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.50931764 = fieldWeight in 5272, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=5272)
      0.25 = coord(1/4)
    
    Footnote
    Abschlussarbeit am Institut für Information und Dokumentation an der Fachhochschule Potsdam
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  18. Qualität in der Inhaltserschließung (2021) 0.02
    0.019022992 = product of:
      0.07609197 = sum of:
        0.07609197 = weight(_text_:und in 1754) [ClassicSimilarity], result of:
          0.07609197 = score(doc=1754,freq=54.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.5093176 = fieldWeight in 1754, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1754)
      0.25 = coord(1/4)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  19. Vinyals, O.; Toshev, A.; Bengio, S.; Erhan, D.: ¬A picture is worth a thousand (coherent) words : building a natural description of images (2014) 0.02
    0.018803596 = product of:
      0.075214386 = sum of:
        0.075214386 = weight(_text_:here in 2874) [ClassicSimilarity], result of:
          0.075214386 = score(doc=2874,freq=2.0), product of:
            0.36196628 = queryWeight, product of:
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.067360975 = queryNorm
            0.2077939 = fieldWeight in 2874, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.373531 = idf(docFreq=559, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2874)
      0.25 = coord(1/4)
    
    Content
    Our experiments with this system on several openly published datasets, including Pascal, Flickr8k, Flickr30k and SBU, show how robust the qualitative results are -- the generated sentences are quite reasonable. It also performs well in quantitative evaluations with the Bilingual Evaluation Understudy (BLEU), a metric used in machine translation to evaluate the quality of generated sentences. A picture may be worth a thousand words, but sometimes it's the words that are most useful -- so it's important we figure out ways to translate from images to words automatically and accurately. As the datasets suited to learning image descriptions grow and mature, so will the performance of end-to-end approaches like this. We look forward to continuing developments in systems that can read images and generate good natural-language descriptions. To get more details about the framework used to generate descriptions from images, as well as the model evaluation, read the full paper here." Vgl. auch: https://news.ycombinator.com/item?id=8621658.
  20. Gombocz, W.L.: Stichwort oder Schlagwort versus Textwort : Grazer und Düsseldorfer Philosophie-Dokumentation und -Information nach bzw. gemäß Norbert Henrichs (2000) 0.02
    0.018304883 = product of:
      0.07321953 = sum of:
        0.07321953 = weight(_text_:und in 400) [ClassicSimilarity], result of:
          0.07321953 = score(doc=400,freq=8.0), product of:
            0.14939985 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.067360975 = queryNorm
            0.4900911 = fieldWeight in 400, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=400)
      0.25 = coord(1/4)
    
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32

Years

Languages

  • d 161
  • e 14
  • a 1
  • f 1
  • m 1
  • nl 1
  • More… Less…

Types

  • a 124
  • x 31
  • el 25
  • m 11
  • s 5
  • d 1
  • h 1
  • p 1
  • r 1
  • More… Less…