Search (74 results, page 1 of 4)

  • × theme_ss:"Retrievalstudien"
  1. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.06
    0.06389658 = product of:
      0.12779316 = sum of:
        0.06808942 = weight(_text_:und in 4068) [ClassicSimilarity], result of:
          0.06808942 = score(doc=4068,freq=26.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.44176215 = fieldWeight in 4068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4068)
        0.05970374 = weight(_text_:https in 4068) [ClassicSimilarity], result of:
          0.05970374 = score(doc=4068,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.21785304 = fieldWeight in 4068, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4068)
      0.5 = coord(2/4)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
  2. Petras, V.; Womser-Hacker, C.: Evaluation im Information Retrieval (2023) 0.06
    0.058483772 = product of:
      0.116967544 = sum of:
        0.04532305 = weight(_text_:und in 1809) [ClassicSimilarity], result of:
          0.04532305 = score(doc=1809,freq=8.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.29405463 = fieldWeight in 1809, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1809)
        0.07164449 = weight(_text_:https in 1809) [ClassicSimilarity], result of:
          0.07164449 = score(doc=1809,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.26142365 = fieldWeight in 1809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.046875 = fieldNorm(doc=1809)
      0.5 = coord(2/4)
    
    Abstract
    Das Ziel einer Evaluation ist die Überprüfung, ob bzw. in welchem Ausmaß ein Informationssystem die an das System gestellten Anforderungen erfüllt. Informationssysteme können aus verschiedenen Perspektiven evaluiert werden. Für eine ganzheitliche Evaluation (als Synonym wird auch Evaluierung benutzt), die unterschiedliche Qualitätsaspekte betrachtet (z. B. wie gut ein System relevante Dokumente rankt, wie schnell ein System die Suche durchführt, wie die Ergebnispräsentation gestaltet ist oder wie Suchende durch das System geführt werden) und die Erfüllung mehrerer Anforderungen überprüft, empfiehlt es sich, sowohl eine perspektivische als auch methodische Triangulation (d. h. der Einsatz von mehreren Ansätzen zur Qualitätsüberprüfung) vorzunehmen. Im Information Retrieval (IR) konzentriert sich die Evaluation auf die Qualitätseinschätzung der Suchfunktion eines Information-Retrieval-Systems (IRS), wobei oft zwischen systemzentrierter und nutzerzentrierter Evaluation unterschieden wird. Dieses Kapitel setzt den Fokus auf die systemzentrierte Evaluation, während andere Kapitel dieses Handbuchs andere Evaluationsansätze diskutieren (s. Kapitel C 4 Interaktives Information Retrieval, C 7 Cross-Language Information Retrieval und D 1 Information Behavior).
    Footnote
    Vgl.: https://doi.org/10.1515/9783110769043.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  3. Munkelt, J.; Schaer, P.: Towards an IR test collection for the German National Library (2018) 0.04
    0.04179262 = product of:
      0.16717048 = sum of:
        0.16717048 = weight(_text_:https in 780) [ClassicSimilarity], result of:
          0.16717048 = score(doc=780,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.6099885 = fieldWeight in 780, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.109375 = fieldNorm(doc=780)
      0.25 = coord(1/4)
    
    Source
    https://www.researchgate.net/publication/327238375_Towards_an_IR_Test_Collection_for_the_German_National_Library
  4. Hou, Y.; Pascale, A.; Carnerero-Cano, J.; Sattigeri, P.; Tchrakian, T.; Marinescu, R.; Daly, E.; Padhi, I.: WikiContradict : a benchmark for evaluating LLMs on real-world knowledge conflicts from Wikipedia (2024) 0.03
    0.02585248 = product of:
      0.10340992 = sum of:
        0.10340992 = weight(_text_:https in 2368) [ClassicSimilarity], result of:
          0.10340992 = score(doc=2368,freq=6.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.37733257 = fieldWeight in 2368, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2368)
      0.25 = coord(1/4)
    
    Abstract
    Retrieval-augmented generation (RAG) has emerged as a promising solution to mitigate the limitations of large language models (LLMs), such as hallucinations and outdated information. However, it remains unclear how LLMs handle knowledge conflicts arising from different augmented retrieved passages, especially when these passages originate from the same source and have equal trustworthiness. In this work, we conduct a comprehensive evaluation of LLM-generated answers to questions that have varying answers based on contradictory passages from Wikipedia, a dataset widely regarded as a high-quality pre-training resource for most LLMs. Specifically, we introduce WikiContradict, a benchmark consisting of 253 high-quality, human-annotated instances designed to assess LLM performance when augmented with retrieved passages containing real-world knowledge conflicts. We benchmark a diverse range of both closed and open-source LLMs under different QA scenarios, including RAG with a single passage, and RAG with 2 contradictory passages. Through rigorous human evaluations on a subset of WikiContradict instances involving 5 LLMs and over 3,500 judgements, we shed light on the behaviour and limitations of these models. For instance, when provided with two passages containing contradictory facts, all models struggle to generate answers that accurately reflect the conflicting nature of the context, especially for implicit conflicts requiring reasoning. Since human evaluation is costly, we also introduce an automated model that estimates LLM performance using a strong open-source language model, achieving an F-score of 0.8. Using this automated metric, we evaluate more than 1,500 answers from seven LLMs across all WikiContradict instances. To facilitate future work, we release WikiContradict on: https://ibm.biz/wikicontradict.
    Content
    Vgl.: https://www.researchgate.net/publication/381580571_WikiContradict_A_Benchmark_for_Evaluating_LLMs_on_Real-World_Knowledge_Conflicts_from_Wikipedia.
    Source
    https://arxiv.org/abs/2406.13805 [DOI: 10.48550/arXiv.2406.13805]
  5. Balog, K.; Schuth, A.; Dekker, P.; Tavakolpoursaleh, N.; Schaer, P.; Chuang, P.-Y.: Overview of the TREC 2016 Open Search track Academic Search Edition (2016) 0.02
    0.023881497 = product of:
      0.09552599 = sum of:
        0.09552599 = weight(_text_:https in 1044) [ClassicSimilarity], result of:
          0.09552599 = score(doc=1044,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.34856486 = fieldWeight in 1044, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0625 = fieldNorm(doc=1044)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://www.researchgate.net/publication/345253485_Overview_of_the_TREC_2016_Open_Search_track_Academic_Search_Edition.
  6. Toepfer, M.; Seifert, C.: Content-based quality estimation for automatic subject indexing of short texts under precision and recall constraints 0.02
    0.02110846 = product of:
      0.08443384 = sum of:
        0.08443384 = weight(_text_:https in 309) [ClassicSimilarity], result of:
          0.08443384 = score(doc=309,freq=4.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30809072 = fieldWeight in 309, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=309)
      0.25 = coord(1/4)
    
    Content
    This is an authors' manuscript version of a paper accepted for proceedings of TPDL-2018, Porto, Portugal, Sept 10-13. The nal authenticated publication is available online at https://doi.org/will be added as soon as available.
    Source
    https://arxiv.org/abs/1806.02743
  7. Gao, R.; Ge, Y.; Sha, C.: FAIR: Fairness-aware information retrieval evaluation (2022) 0.02
    0.02110846 = product of:
      0.08443384 = sum of:
        0.08443384 = weight(_text_:https in 1670) [ClassicSimilarity], result of:
          0.08443384 = score(doc=1670,freq=4.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30809072 = fieldWeight in 1670, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1670)
      0.25 = coord(1/4)
    
    Content
    https://asistdl.onlinelibrary.wiley.com/doi/10.1002/asi.24648. https://doi.org/10.1002/asi.24648.
  8. Keller, K.; Breuer, T.; Schaer, P.: Evaluation of temporal change in IR test collections (2024) 0.02
    0.02110846 = product of:
      0.08443384 = sum of:
        0.08443384 = weight(_text_:https in 2344) [ClassicSimilarity], result of:
          0.08443384 = score(doc=2344,freq=4.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30809072 = fieldWeight in 2344, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2344)
      0.25 = coord(1/4)
    
    Content
    DOI: 10.1145/3664190.3672530. Vgl.: https://www.researchgate.net/publication/382893247_Evaluation_of_Temporal_Change_in_IR_Test_Collections. Vgl. auch: https://www.researchgate.net/publication/381885150_Evaluation_of_Temporal_Change_in_IR_Test_Collections.
  9. Brewer, R.: Understanding voice-based information uncertainty : a case study of health information seeking with voice assistants (2024) 0.02
    0.02110846 = product of:
      0.08443384 = sum of:
        0.08443384 = weight(_text_:https in 2370) [ClassicSimilarity], result of:
          0.08443384 = score(doc=2370,freq=4.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30809072 = fieldWeight in 2370, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2370)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://asistdl.onlinelibrary.wiley.com/doi/10.1002/asi.24854. DOI: https://doi.org/10.1002/asi.24854.
  10. Schultz Jr., W.N.; Braddy, L.: ¬A librarian-centered study of perceptions of subject terms and controlled vocabulary (2017) 0.02
    0.02089631 = product of:
      0.08358524 = sum of:
        0.08358524 = weight(_text_:https in 156) [ClassicSimilarity], result of:
          0.08358524 = score(doc=156,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 156, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=156)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://doi.org/10.1080/01639374.2017.1356781.
  11. Mandl, T.: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval (2006) 0.02
    0.019985588 = product of:
      0.07994235 = sum of:
        0.07994235 = weight(_text_:und in 975) [ClassicSimilarity], result of:
          0.07994235 = score(doc=975,freq=14.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.51866364 = fieldWeight in 975, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=975)
      0.25 = coord(1/4)
    
    Abstract
    Im Information Retrieval tragen Evaluierungsinitiativen erheblich zur empirisch fundierten Forschung bei. Mit umfangreichen Kollektionen und Aufgaben unterstützen sie die Standardisierung und damit die Systementwicklung. Die wachsenden Anforderungen hinsichtlich der Korpora und Anwendungsszenarien führten zu einer starken Diversifizierung innerhalb der Evaluierungsinitiativen. Dieser Artikel gibt einen Überblick über den aktuellen Stand der wichtigsten Evaluierungsinitiativen und neuen Trends.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  12. Lohmann, H.: Verbesserung der Literatursuche durch Dokumentanreicherung und automatische Inhaltserschließung : Das Projekt 'KASCADE' an der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.02
    0.019625459 = product of:
      0.078501835 = sum of:
        0.078501835 = weight(_text_:und in 2221) [ClassicSimilarity], result of:
          0.078501835 = score(doc=2221,freq=6.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.50931764 = fieldWeight in 2221, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=2221)
      0.25 = coord(1/4)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
  13. Mandl, T.: Web- und Multimedia-Dokumente : Neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen (2003) 0.02
    0.018503059 = product of:
      0.074012235 = sum of:
        0.074012235 = weight(_text_:und in 2734) [ClassicSimilarity], result of:
          0.074012235 = score(doc=2734,freq=12.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.48018923 = fieldWeight in 2734, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2734)
      0.25 = coord(1/4)
    
    Abstract
    Die Menge an Daten im Internet steigt weiter rapide an. Damit wächst auch der Bedarf an qualitativ hochwertigen Information Retrieval Diensten zur Orientierung und problemorientierten Suche. Die Entscheidung für die Benutzung oder Beschaffung von Information Retrieval Software erfordert aussagekräftige Evaluierungsergebnisse. Dieser Beitrag stellt neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen vor und zeigt den Trend zu Spezialisierung und Diversifizierung von Evaluierungsstudien, die den Realitätsgrad derErgebnisse erhöhen. DerSchwerpunkt liegt auf dem Retrieval von Fachtexten, Internet-Seiten und Multimedia-Objekten.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.4, S.203-210
  14. Kluck, M.; Winter, M.: Topic-Entwicklung und Relevanzbewertung bei GIRT : ein Werkstattbericht (2006) 0.02
    0.018503059 = product of:
      0.074012235 = sum of:
        0.074012235 = weight(_text_:und in 967) [ClassicSimilarity], result of:
          0.074012235 = score(doc=967,freq=12.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.48018923 = fieldWeight in 967, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=967)
      0.25 = coord(1/4)
    
    Abstract
    Der Zusammenhang zwischen Topic-Entwicklung und Relevanzbewertung wird anhand einiger Fallbeispiele aus der CLEF-Evaluierungskampagne 2005 diskutiert. Im fachspezifischen Retrievaltest für multilinguale Systeme wurden die Topics am Dokumentenbestand von GIRT entwickelt. Die Zusammenhänge von Topic-Formulierung und Interpretationsspielräumen bei der Relevanzbewertung werden untersucht.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  15. Breuer, T.; Tavakolpoursaleh, N.; Schaer, P.; Hienert, D.; Schaible, J.; Castro, L.J.: Online Information Retrieval Evaluation using the STELLA Framework (2022) 0.02
    0.017911123 = product of:
      0.07164449 = sum of:
        0.07164449 = weight(_text_:https in 1641) [ClassicSimilarity], result of:
          0.07164449 = score(doc=1641,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.26142365 = fieldWeight in 1641, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.046875 = fieldNorm(doc=1641)
      0.25 = coord(1/4)
    
    Source
    https://www.researchgate.net/publication/364689252_Online_Information_Retrieval_Evaluation_using_the_STELLA_Framework
  16. Wolff, C.: Leistungsvergleich der Retrievaloberflächen zwischen Web und klassischen Expertensystemen (2001) 0.02
    0.01748739 = product of:
      0.06994956 = sum of:
        0.06994956 = weight(_text_:und in 6870) [ClassicSimilarity], result of:
          0.06994956 = score(doc=6870,freq=14.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.4538307 = fieldWeight in 6870, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6870)
      0.25 = coord(1/4)
    
    Abstract
    Die meisten Web-Auftritte der Hosts waren bisher für den Retrieval-Laien gedacht. Im Hintergrund steht dabei das Ziel: mehr Nutzung durch einfacheres Retrieval. Dieser Ansatz steht aber im Konflikt mit der wachsenden Datenmenge und Dokumentgröße, die eigentlich ein immer ausgefeilteres Retrieval verlangen. Häufig wird von Information Professionals die Kritik geäußert, dass die Webanwendungen einen Verlust an Relevanz bringen. Wie weit der Nutzer tatsächlich einen Kompromiss zwischen Relevanz und Vollständigkeit eingehen muss, soll in diesem Beitrag anhand verschiedener Host-Rechner quantifiziert werden
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  17. Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001) 0.02
    0.016890906 = product of:
      0.06756362 = sum of:
        0.06756362 = weight(_text_:und in 1261) [ClassicSimilarity], result of:
          0.06756362 = score(doc=1261,freq=10.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.4383508 = fieldWeight in 1261, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1261)
      0.25 = coord(1/4)
    
    Abstract
    Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.7, S.381-392
  18. Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986) 0.02
    0.016354548 = product of:
      0.06541819 = sum of:
        0.06541819 = weight(_text_:und in 4108) [ClassicSimilarity], result of:
          0.06541819 = score(doc=4108,freq=6.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.42443132 = fieldWeight in 4108, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4108)
      0.25 = coord(1/4)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Durchführung und zu den Ergebnissen des Retrievaltests zum AIR/PHYS-Projekt. Er zählt mit seinen 309 Fragen und 15.000 Dokumenten zu den größten Retrievaltests, die bisher zur Evaluierung automatisierter Indexierungs- oder Retrievalverfahren vorgenommen wurden.
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  19. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.02
    0.016354548 = product of:
      0.06541819 = sum of:
        0.06541819 = weight(_text_:und in 2159) [ClassicSimilarity], result of:
          0.06541819 = score(doc=2159,freq=6.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.42443132 = fieldWeight in 2159, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=2159)
      0.25 = coord(1/4)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  20. Munkelt, J.: Erstellung einer DNB-Retrieval-Testkollektion (2018) 0.02
    0.016190177 = product of:
      0.06476071 = sum of:
        0.06476071 = weight(_text_:und in 310) [ClassicSimilarity], result of:
          0.06476071 = score(doc=310,freq=12.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.42016557 = fieldWeight in 310, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=310)
      0.25 = coord(1/4)
    
    Abstract
    Seit Herbst 2017 findet in der Deutschen Nationalbibliothek die Inhaltserschließung bestimmter Medienwerke rein maschinell statt. Die Qualität dieses Verfahrens, das die Prozessorganisation von Bibliotheken maßgeblich prägen kann, wird unter Fachleuten kontrovers diskutiert. Ihre Standpunkte werden zunächst hinreichend erläutert, ehe die Notwendigkeit einer Qualitätsprüfung des Verfahrens und dessen Grundlagen dargelegt werden. Zentraler Bestandteil einer künftigen Prüfung ist eine Testkollektion. Ihre Erstellung und deren Dokumentation steht im Fokus dieser Arbeit. In diesem Zusammenhang werden auch die Entstehungsgeschichte und Anforderungen an gelungene Testkollektionen behandelt. Abschließend wird ein Retrievaltest durchgeführt, der die Einsatzfähigkeit der erarbeiteten Testkollektion belegt. Seine Ergebnisse dienen ausschließlich der Funktionsüberprüfung. Eine Qualitätsbeurteilung maschineller Inhaltserschließung im Speziellen sowie im Allgemeinen findet nicht statt und ist nicht Ziel der Ausarbeitung.
    Content
    Bachelorarbeit, Bibliothekswissenschaften, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln
    Imprint
    Köln : Technische Hochschule, Fakultät für Informations- und Kommunikationswissenschaften

Years

Languages

  • d 51
  • e 22
  • m 1
  • More… Less…

Types

  • a 56
  • el 10
  • r 6
  • x 6
  • m 2
  • p 2
  • s 1
  • More… Less…