-
¬The Fifth Text Retrieval Conference (TREC-5) (1997)
0.07
0.070842564 = product of:
0.28337026 = sum of:
0.28337026 = weight(_text_:harman in 4087) [ClassicSimilarity], result of:
0.28337026 = score(doc=4087,freq=2.0), product of:
0.45429128 = queryWeight, product of:
7.057077 = idf(docFreq=103, maxDocs=44421)
0.06437386 = queryNorm
0.6237634 = fieldWeight in 4087, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.057077 = idf(docFreq=103, maxDocs=44421)
0.0625 = fieldNorm(doc=4087)
0.25 = coord(1/4)
- Editor
- Voorhees, E.M. u. D.K. Harman
-
¬The Sixth Text Retrieval Conference (TREC-6) (1998)
0.07
0.070842564 = product of:
0.28337026 = sum of:
0.28337026 = weight(_text_:harman in 5476) [ClassicSimilarity], result of:
0.28337026 = score(doc=5476,freq=2.0), product of:
0.45429128 = queryWeight, product of:
7.057077 = idf(docFreq=103, maxDocs=44421)
0.06437386 = queryNorm
0.6237634 = fieldWeight in 5476, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.057077 = idf(docFreq=103, maxDocs=44421)
0.0625 = fieldNorm(doc=5476)
0.25 = coord(1/4)
- Editor
- Voorhees, E.M. u. D.K. Harman
-
¬The Eleventh Text Retrieval Conference, TREC 2002 (2003)
0.07
0.070842564 = product of:
0.28337026 = sum of:
0.28337026 = weight(_text_:harman in 5049) [ClassicSimilarity], result of:
0.28337026 = score(doc=5049,freq=2.0), product of:
0.45429128 = queryWeight, product of:
7.057077 = idf(docFreq=103, maxDocs=44421)
0.06437386 = queryNorm
0.6237634 = fieldWeight in 5049, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.057077 = idf(docFreq=103, maxDocs=44421)
0.0625 = fieldNorm(doc=5049)
0.25 = coord(1/4)
- Editor
- Voorhees, E.M. u. D.K. Harman
-
Harman, D.: Overview of the first Text Retrieval Conference (1993)
0.06
0.061987244 = product of:
0.24794897 = sum of:
0.24794897 = weight(_text_:harman in 616) [ClassicSimilarity], result of:
0.24794897 = score(doc=616,freq=2.0), product of:
0.45429128 = queryWeight, product of:
7.057077 = idf(docFreq=103, maxDocs=44421)
0.06437386 = queryNorm
0.54579294 = fieldWeight in 616, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.057077 = idf(docFreq=103, maxDocs=44421)
0.0546875 = fieldNorm(doc=616)
0.25 = coord(1/4)
-
Harman, D.: ¬The Text REtrieval Conferences (TRECs) : providing a test-bed for information retrieval systems (1998)
0.06
0.061987244 = product of:
0.24794897 = sum of:
0.24794897 = weight(_text_:harman in 2314) [ClassicSimilarity], result of:
0.24794897 = score(doc=2314,freq=2.0), product of:
0.45429128 = queryWeight, product of:
7.057077 = idf(docFreq=103, maxDocs=44421)
0.06437386 = queryNorm
0.54579294 = fieldWeight in 2314, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.057077 = idf(docFreq=103, maxDocs=44421)
0.0546875 = fieldNorm(doc=2314)
0.25 = coord(1/4)
-
TREC: experiment and evaluation in information retrieval (2005)
0.05
0.04950275 = product of:
0.198011 = sum of:
0.198011 = weight(_text_:harman in 761) [ClassicSimilarity], result of:
0.198011 = score(doc=761,freq=10.0), product of:
0.45429128 = queryWeight, product of:
7.057077 = idf(docFreq=103, maxDocs=44421)
0.06437386 = queryNorm
0.4358679 = fieldWeight in 761, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.057077 = idf(docFreq=103, maxDocs=44421)
0.01953125 = fieldNorm(doc=761)
0.25 = coord(1/4)
- Content
- Enthält die Beiträge: 1. The Text REtrieval Conference - Ellen M. Voorhees and Donna K. Harman 2. The TREC Test Collections - Donna K. Harman 3. Retrieval System Evaluation - Chris Buckley and Ellen M. Voorhees 4. The TREC Ad Hoc Experiments - Donna K. Harman 5. Routing and Filtering - Stephen Robertson and Jamie Callan 6. The TREC Interactive Tracks: Putting the User into Search - Susan T. Dumais and Nicholas J. Belkin 7. Beyond English - Donna K. Harman 8. Retrieving Noisy Text - Ellen M. Voorhees and John S. Garofolo 9.The Very Large Collection and Web Tracks - David Hawking and Nick Craswell 10. Question Answering in TREC - Ellen M. Voorhees 11. The University of Massachusetts and a Dozen TRECs - James Allan, W. Bruce Croft and Jamie Callan 12. How Okapi Came to TREC - Stephen Robertson 13. The SMART Project at TREC - Chris Buckley 14. Ten Years of Ad Hoc Retrieval at TREC Using PIRCS - Kui-Lam Kwok 15. MultiText Experiments for TREC - Gordon V. Cormack, Charles L. A. Clarke, Christopher R. Palmer and Thomas R. Lynam 16. A Language-Modeling Approach to TREC - Djoerd Hiemstra and Wessel Kraaij 17. BM Research Activities at TREC - Eric W. Brown, David Carmel, Martin Franz, Abraham Ittycheriah, Tapas Kanungo, Yoelle Maarek, J. Scott McCarley, Robert L. Mack, John M. Prager, John R. Smith, Aya Soffer, Jason Y. Zien and Alan D. Marwick Epilogue: Metareflections on TREC - Karen Sparck Jones
- Editor
- Voorhees, E.M. u. D.K. Harman
-
Robertson, S.E.; Sparck Jones, K.: Simple, proven approaches to text retrieval (1997)
0.04
0.044276603 = product of:
0.17710641 = sum of:
0.17710641 = weight(_text_:harman in 5532) [ClassicSimilarity], result of:
0.17710641 = score(doc=5532,freq=2.0), product of:
0.45429128 = queryWeight, product of:
7.057077 = idf(docFreq=103, maxDocs=44421)
0.06437386 = queryNorm
0.3898521 = fieldWeight in 5532, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.057077 = idf(docFreq=103, maxDocs=44421)
0.0390625 = fieldNorm(doc=5532)
0.25 = coord(1/4)
- Abstract
- This technical note describes straightforward techniques for document indexing and retrieval that have been solidly established through extensive testing and are easy to apply. They are useful for many different types of text material, are viable for very large files, and have the advantage that they do not require special skills or training for searching, but are easy for end users. The document and text retrieval methods described here have a sound theoretical basis, are well established by extensive testing, and the ideas involved are now implemented in some commercial retrieval systems. Testing in the last few years has, in particular, shown that the methods presented here work very well with full texts, not only title and abstracts, and with large files of texts containing three quarters of a million documents. These tests, the TREC Tests (see Harman 1993 - 1997; IP&M 1995), have been rigorous comparative evaluations involving many different approaches to information retrieval. These techniques depend an the use of simple terms for indexing both request and document texts; an term weighting exploiting statistical information about term occurrences; an scoring for request-document matching, using these weights, to obtain a ranked search output; and an relevance feedback to modify request weights or term sets in iterative searching. The normal implementation is via an inverted file organisation using a term list with linked document identifiers, plus counting data, and pointers to the actual texts. The user's request can be a word list, phrases, sentences or extended text.
-
Voorhees, E.M.; Harman, D.K.: ¬The Text REtrieval Conference (2005)
0.04
0.0438316 = product of:
0.1753264 = sum of:
0.1753264 = weight(_text_:harman in 82) [ClassicSimilarity], result of:
0.1753264 = score(doc=82,freq=4.0), product of:
0.45429128 = queryWeight, product of:
7.057077 = idf(docFreq=103, maxDocs=44421)
0.06437386 = queryNorm
0.3859339 = fieldWeight in 82, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.057077 = idf(docFreq=103, maxDocs=44421)
0.02734375 = fieldNorm(doc=82)
0.25 = coord(1/4)
- Source
- TREC: experiment and evaluation in information retrieval. Ed.: E.M. Voorhees, u. D.K. Harman
-
Mandl, T.: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval (2006)
0.02
0.018513015 = product of:
0.07405206 = sum of:
0.07405206 = weight(_text_:und in 975) [ClassicSimilarity], result of:
0.07405206 = score(doc=975,freq=14.0), product of:
0.14277472 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06437386 = queryNorm
0.51866364 = fieldWeight in 975, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=975)
0.25 = coord(1/4)
- Abstract
- Im Information Retrieval tragen Evaluierungsinitiativen erheblich zur empirisch fundierten Forschung bei. Mit umfangreichen Kollektionen und Aufgaben unterstützen sie die Standardisierung und damit die Systementwicklung. Die wachsenden Anforderungen hinsichtlich der Korpora und Anwendungsszenarien führten zu einer starken Diversifizierung innerhalb der Evaluierungsinitiativen. Dieser Artikel gibt einen Überblick über den aktuellen Stand der wichtigsten Evaluierungsinitiativen und neuen Trends.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Lohmann, H.: Verbesserung der Literatursuche durch Dokumentanreicherung und automatische Inhaltserschließung : Das Projekt 'KASCADE' an der Universitäts- und Landesbibliothek Düsseldorf (1999)
0.02
0.01817942 = product of:
0.07271768 = sum of:
0.07271768 = weight(_text_:und in 2221) [ClassicSimilarity], result of:
0.07271768 = score(doc=2221,freq=6.0), product of:
0.14277472 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06437386 = queryNorm
0.50931764 = fieldWeight in 2221, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=2221)
0.25 = coord(1/4)
- Imprint
- Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
-
Mandl, T.: Web- und Multimedia-Dokumente : Neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen (2003)
0.02
0.01713972 = product of:
0.06855888 = sum of:
0.06855888 = weight(_text_:und in 2734) [ClassicSimilarity], result of:
0.06855888 = score(doc=2734,freq=12.0), product of:
0.14277472 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06437386 = queryNorm
0.48018923 = fieldWeight in 2734, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2734)
0.25 = coord(1/4)
- Abstract
- Die Menge an Daten im Internet steigt weiter rapide an. Damit wächst auch der Bedarf an qualitativ hochwertigen Information Retrieval Diensten zur Orientierung und problemorientierten Suche. Die Entscheidung für die Benutzung oder Beschaffung von Information Retrieval Software erfordert aussagekräftige Evaluierungsergebnisse. Dieser Beitrag stellt neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen vor und zeigt den Trend zu Spezialisierung und Diversifizierung von Evaluierungsstudien, die den Realitätsgrad derErgebnisse erhöhen. DerSchwerpunkt liegt auf dem Retrieval von Fachtexten, Internet-Seiten und Multimedia-Objekten.
- Source
- Information - Wissenschaft und Praxis. 54(2003) H.4, S.203-210
-
Kluck, M.; Winter, M.: Topic-Entwicklung und Relevanzbewertung bei GIRT : ein Werkstattbericht (2006)
0.02
0.01713972 = product of:
0.06855888 = sum of:
0.06855888 = weight(_text_:und in 967) [ClassicSimilarity], result of:
0.06855888 = score(doc=967,freq=12.0), product of:
0.14277472 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06437386 = queryNorm
0.48018923 = fieldWeight in 967, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=967)
0.25 = coord(1/4)
- Abstract
- Der Zusammenhang zwischen Topic-Entwicklung und Relevanzbewertung wird anhand einiger Fallbeispiele aus der CLEF-Evaluierungskampagne 2005 diskutiert. Im fachspezifischen Retrievaltest für multilinguale Systeme wurden die Topics am Dokumentenbestand von GIRT entwickelt. Die Zusammenhänge von Topic-Formulierung und Interpretationsspielräumen bei der Relevanzbewertung werden untersucht.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Wolff, C.: Leistungsvergleich der Retrievaloberflächen zwischen Web und klassischen Expertensystemen (2001)
0.02
0.016198887 = product of:
0.064795546 = sum of:
0.064795546 = weight(_text_:und in 6870) [ClassicSimilarity], result of:
0.064795546 = score(doc=6870,freq=14.0), product of:
0.14277472 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06437386 = queryNorm
0.4538307 = fieldWeight in 6870, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=6870)
0.25 = coord(1/4)
- Abstract
- Die meisten Web-Auftritte der Hosts waren bisher für den Retrieval-Laien gedacht. Im Hintergrund steht dabei das Ziel: mehr Nutzung durch einfacheres Retrieval. Dieser Ansatz steht aber im Konflikt mit der wachsenden Datenmenge und Dokumentgröße, die eigentlich ein immer ausgefeilteres Retrieval verlangen. Häufig wird von Information Professionals die Kritik geäußert, dass die Webanwendungen einen Verlust an Relevanz bringen. Wie weit der Nutzer tatsächlich einen Kompromiss zwischen Relevanz und Vollständigkeit eingehen muss, soll in diesem Beitrag anhand verschiedener Host-Rechner quantifiziert werden
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016)
0.02
0.015768116 = product of:
0.063072465 = sum of:
0.063072465 = weight(_text_:und in 4068) [ClassicSimilarity], result of:
0.063072465 = score(doc=4068,freq=26.0), product of:
0.14277472 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06437386 = queryNorm
0.44176215 = fieldWeight in 4068, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4068)
0.25 = coord(1/4)
- Abstract
- Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
- Content
- Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
-
Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001)
0.02
0.015646353 = product of:
0.06258541 = sum of:
0.06258541 = weight(_text_:und in 1261) [ClassicSimilarity], result of:
0.06258541 = score(doc=1261,freq=10.0), product of:
0.14277472 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06437386 = queryNorm
0.4383508 = fieldWeight in 1261, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1261)
0.25 = coord(1/4)
- Abstract
- Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
- Source
- nfd Information - Wissenschaft und Praxis. 52(2001) H.7, S.381-392
-
Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986)
0.02
0.015149515 = product of:
0.06059806 = sum of:
0.06059806 = weight(_text_:und in 4108) [ClassicSimilarity], result of:
0.06059806 = score(doc=4108,freq=6.0), product of:
0.14277472 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06437386 = queryNorm
0.42443132 = fieldWeight in 4108, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4108)
0.25 = coord(1/4)
- Abstract
- Der Beitrag enthält eine Darstellung zur Durchführung und zu den Ergebnissen des Retrievaltests zum AIR/PHYS-Projekt. Er zählt mit seinen 309 Fragen und 15.000 Dokumenten zu den größten Retrievaltests, die bisher zur Evaluierung automatisierter Indexierungs- oder Retrievalverfahren vorgenommen wurden.
- Source
- Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
-
Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002)
0.02
0.015149515 = product of:
0.06059806 = sum of:
0.06059806 = weight(_text_:und in 2159) [ClassicSimilarity], result of:
0.06059806 = score(doc=2159,freq=6.0), product of:
0.14277472 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06437386 = queryNorm
0.42443132 = fieldWeight in 2159, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2159)
0.25 = coord(1/4)
- Source
- Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
-
Munkelt, J.: Erstellung einer DNB-Retrieval-Testkollektion (2018)
0.01
0.014997255 = product of:
0.05998902 = sum of:
0.05998902 = weight(_text_:und in 310) [ClassicSimilarity], result of:
0.05998902 = score(doc=310,freq=12.0), product of:
0.14277472 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06437386 = queryNorm
0.42016557 = fieldWeight in 310, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=310)
0.25 = coord(1/4)
- Abstract
- Seit Herbst 2017 findet in der Deutschen Nationalbibliothek die Inhaltserschließung bestimmter Medienwerke rein maschinell statt. Die Qualität dieses Verfahrens, das die Prozessorganisation von Bibliotheken maßgeblich prägen kann, wird unter Fachleuten kontrovers diskutiert. Ihre Standpunkte werden zunächst hinreichend erläutert, ehe die Notwendigkeit einer Qualitätsprüfung des Verfahrens und dessen Grundlagen dargelegt werden. Zentraler Bestandteil einer künftigen Prüfung ist eine Testkollektion. Ihre Erstellung und deren Dokumentation steht im Fokus dieser Arbeit. In diesem Zusammenhang werden auch die Entstehungsgeschichte und Anforderungen an gelungene Testkollektionen behandelt. Abschließend wird ein Retrievaltest durchgeführt, der die Einsatzfähigkeit der erarbeiteten Testkollektion belegt. Seine Ergebnisse dienen ausschließlich der Funktionsüberprüfung. Eine Qualitätsbeurteilung maschineller Inhaltserschließung im Speziellen sowie im Allgemeinen findet nicht statt und ist nicht Ziel der Ausarbeitung.
- Content
- Bachelorarbeit, Bibliothekswissenschaften, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln
- Imprint
- Köln : Technische Hochschule, Fakultät für Informations- und Kommunikationswissenschaften
-
Kaltenborn, K.-F.: Endnutzerrecherchen in der CD-ROM-Datenbank Medline : T.1: Evaluations- und Benutzerforschung über Nutzungscharakteristika, Bewertung der Rechercheergebnisse und künftige Informationsgewinnung; T.2: Evaluations- und Benutzerforschung über Recherchequalität und Nutzer-Computer/Datenbank-Interaktion (1991)
0.01
0.014843433 = product of:
0.059373733 = sum of:
0.059373733 = weight(_text_:und in 5104) [ClassicSimilarity], result of:
0.059373733 = score(doc=5104,freq=16.0), product of:
0.14277472 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06437386 = queryNorm
0.41585606 = fieldWeight in 5104, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=5104)
0.25 = coord(1/4)
- Abstract
- Die Einführung von CD-ROM Datenbanken als neue Informationstechnologie hat die Formen der Informationsgewinnung in bestimmten wissenschaftlichen Fachgebieten grundlegend geändert. Der Beitrag berichtet über Ergebnisse wissenschaftlicher Begleitforschung bei Endnutzerrecherchen in der CD-ROM-Version der Datenbank MEDLINE. Hierzu wurden drei verschiedene Erhebungen durchgeführt. Hiernach ist die überwiegende Zahl der Endnutzer (89,3%) mit dem jeweiligen Rechercheresultat zufrieden, wobei Benutzer mit geringer Rechercheerfahrung eine höhere Zufriedenheitsrate erreichen als Benutzer mit umfangreicheren Recherchekenntnissen. Die Gründe zur Nutzung von CD-ROM-Systemen resultieren voriwegend aus der klinischen Alltagsroutine oder täglichen Forschungspraxis, während vermittelte Online-Literatursuchen tendenziell häufiger im Zusammenhang mit einmaligen Ereignissen der wissenschaftlichen Aus- und Weiterbildung stehen. Die selbständige CD-ROM Literaturrecherche stellt für die befragten Ärzte und Wissenschaftler die bevorzugte Methode der Informationsgewinnung dar. Die analysierten Endnutzerrecherchen weisen allerdings Fehler und Defizite hinsichtlich einer optimalen Suchstrategie auf, die zu unbemerktn Informationsverlusten und zu Fehlbeurteilungen des wissenschaftlichen Kenntnisstandes führen
-
Scherer, B.: Automatische Indexierung und ihre Anwendung im DFG-Projekt "Gemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" (2003)
0.01
0.0145045575 = product of:
0.05801823 = sum of:
0.05801823 = weight(_text_:und in 283) [ClassicSimilarity], result of:
0.05801823 = score(doc=283,freq=22.0), product of:
0.14277472 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06437386 = queryNorm
0.4063621 = fieldWeight in 283, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=283)
0.25 = coord(1/4)
- Abstract
- Automatische Indexierung verzeichnet schon seit einigen Jahren aufgrund steigender Informationsflut ein wachsendes Interesse. Allerdings gibt es immer noch Vorbehalte gegenüber der intellektuellen Indexierung in Bezug auf Qualität und größerem Aufwand der Systemimplementierung bzw. -pflege. Neuere Entwicklungen aus dem Bereich des Wissensmanagements, wie beispielsweise Verfahren aus der Künstlichen Intelligenz, der Informationsextraktion, dem Text Mining bzw. der automatischen Klassifikation sollen die automatische Indexierung aufwerten und verbessern. Damit soll eine intelligentere und mehr inhaltsbasierte Erschließung geleistet werden. In dieser Masterarbeit wird außerhalb der Darstellung von Grundlagen und Verfahren der automatischen Indexierung sowie neueren Entwicklungen auch Möglichkeiten der Evaluation dargestellt. Die mögliche Anwendung der automatischen Indexierung im DFG-ProjektGemeinsames Portal für Bibliotheken, Archive und Museen (BAM)" bilden den Schwerpunkt der Arbeit. Im Portal steht die bibliothekarische Erschließung von Texten im Vordergrund. In einem umfangreichen Test werden drei deutsche, linguistische Systeme mit statistischen Verfahren kombiniert (die aber teilweise im System bereits integriert ist) und evaluiert, allerdings nur auf der Basis der ausgegebenen Indexate. Abschließend kann festgestellt werden, dass die Ergebnisse und damit die Qualität (bezogen auf die Indexate) von intellektueller und automatischer Indexierung noch signifikant unterschiedlich sind. Die Gründe liegen in noch zu lösenden semantischen Problemen bzw, in der Obereinstimmung mit Worten aus einem Thesaurus, die von einem automatischen Indexierungssystem nicht immer nachvollzogen werden kann. Eine Inhaltsanreicherung mit den Indexaten zum Vorteil beim Retrieval kann, je nach System oder auch über die Einbindung durch einen Thesaurus, erreicht werden.
- Imprint
- Konstanz : Universität / Fachbereich Informatik und Informationswissenschaft