Search (64 results, page 1 of 4)

  • × theme_ss:"Retrievalstudien"
  1. Carterette, B.: Test collections (2009) 0.03
    0.03345088 = product of:
      0.13380352 = sum of:
        0.13380352 = weight(_text_:help in 878) [ClassicSimilarity], result of:
          0.13380352 = score(doc=878,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.41576743 = fieldWeight in 878, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.0625 = fieldNorm(doc=878)
      0.25 = coord(1/4)
    
    Abstract
    Research and development of search engines and other information retrieval (IR) systems proceeds by a cycle of design, implementation, and experimentation, with the results of each experiment influencing design decisions in the next iteration of the cycle. Batch experiments on test collections help ensure that this process goes as smoothly and as quickly as possible. A test collection comprises a collection of documents, a set of information needs, and judgments of the relevance of documents to those needs.
  2. Tillotson, J.: Is keyword searching the answer? (1995) 0.03
    0.029269518 = product of:
      0.11707807 = sum of:
        0.11707807 = weight(_text_:help in 1925) [ClassicSimilarity], result of:
          0.11707807 = score(doc=1925,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.3637965 = fieldWeight in 1925, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1925)
      0.25 = coord(1/4)
    
    Abstract
    Examines 3 aspects of keyword searching to see if defaulting to keyword searches might serve as a solution to the problems users find when performing subject searches in OPACs. Investigates if keyword searching produces useful results; if people who use keyword searches to find information on a subject report that they are satisfied with the results; and how keyword searching and controlled vocabulary searching are offered and explained in currently available OPAC interfaces. Concludes that both keyword and controlled vocabulary searching ought to be easily available in an OPAC, and that improvements need to be made in explanation and help offered to subject searchers
  3. Voorbij, H.: ¬Een goede titel behoeft geen trefwoord, of toch wel? : een vergelijkend oderzoek titelwoorden - trefwoorden (1997) 0.03
    0.029269518 = product of:
      0.11707807 = sum of:
        0.11707807 = weight(_text_:help in 2446) [ClassicSimilarity], result of:
          0.11707807 = score(doc=2446,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.3637965 = fieldWeight in 2446, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2446)
      0.25 = coord(1/4)
    
    Abstract
    A recent survey at the Royal Library in the Netherlands showed that subject headings are more efficient than title keywords for retrieval purposes. 475 Dutch publications were selected at random and assigned subject headings. The study showed that subject headings provided additional useful information in 56% of titles. Subsequent searching of the library's online catalogue showed that 88% of titles were retrieved via subject headings against 57% through title keywords. Further precision may be achieved with the help of indexing staff, but at considerable cost
  4. Alemayehu, N.: Analysis of performance variation using quey expansion (2003) 0.03
    0.025088158 = product of:
      0.10035263 = sum of:
        0.10035263 = weight(_text_:help in 2454) [ClassicSimilarity], result of:
          0.10035263 = score(doc=2454,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.31182557 = fieldWeight in 2454, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.046875 = fieldNorm(doc=2454)
      0.25 = coord(1/4)
    
    Abstract
    Information retrieval performance evaluation is commonly made based an the classical recall and precision based figures or graphs. However, important information indicating causes for variation may remain hidden under the average recall and precision figures. Identifying significant causes for variation can help researchers and developers to focus an opportunities for improvement that underlay the averages. This article presents a case study showing the potential of a statistical repeated measures analysis of variance for testing the significance of factors in retrieval performance variation. The TREC-9 Query Track performance data is used as a case study and the factors studied are retrieval method, topic, and their interaction. The results show that retrieval method, topic, and their interaction are all significant. A topic level analysis is also made to see the nature of variation in the performance of retrieval methods across topics. The observed retrieval performances of expansion runs are truly significant improvements for most of the topics. Analyses of the effect of query expansion an document ranking confirm that expansion affects ranking positively.
  5. Serrano Cobos, J.; Quintero Orta, A.: Design, development and management of an information recovery system for an Internet Website : from documentary theory to practice (2003) 0.03
    0.025088158 = product of:
      0.10035263 = sum of:
        0.10035263 = weight(_text_:help in 3726) [ClassicSimilarity], result of:
          0.10035263 = score(doc=3726,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.31182557 = fieldWeight in 3726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.046875 = fieldNorm(doc=3726)
      0.25 = coord(1/4)
    
    Abstract
    A real case study is shown, explaining in a timeline the whole process of design, development and evaluation of a search engine used as a navigational help tool for end users and clients an a content website, e-commerce driven. The nature of the website is a community website, which will determine the core design of the information service. This study will involve several steps, such as information recovery system analysis, comparative analysis of other commercial search engines, service design, functionalities and scope; software selection, design of the project, project management, future service administration and conclusions.
  6. Bashir, S.; Rauber, A.: On the relationship between query characteristics and IR functions retrieval bias (2011) 0.02
    0.020906799 = product of:
      0.083627194 = sum of:
        0.083627194 = weight(_text_:help in 628) [ClassicSimilarity], result of:
          0.083627194 = score(doc=628,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.25985464 = fieldWeight in 628, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.0390625 = fieldNorm(doc=628)
      0.25 = coord(1/4)
    
    Abstract
    Bias quantification of retrieval functions with the help of document retrievability scores has recently evolved as an important evaluation measure for recall-oriented retrieval applications. While numerous studies have evaluated retrieval bias of retrieval functions, solid validation of its impact on realistic types of queries is still limited. This is due to the lack of well-accepted criteria for query generation for estimating retrievability. Commonly, random queries are used for approximating documents retrievability due to the prohibitively large query space and time involved in processing all queries. Additionally, a cumulative retrievability score of documents over all queries is used for analyzing retrieval functions (retrieval) bias. However, this approach does not consider the difference between different query characteristics (QCs) and their influence on retrieval functions' bias quantification. This article provides an in-depth study of retrievability over different QCs. It analyzes the correlation of lower/higher retrieval bias with different query characteristics. The presence of strong correlation between retrieval bias and query characteristics in experiments indicates the possibility of determining retrieval bias of retrieval functions without processing an exhaustive query set. Experiments are validated on TREC Chemical Retrieval Track consisting of 1.2 million patent documents.
  7. Brewer, R.: Understanding voice-based information uncertainty : a case study of health information seeking with voice assistants (2024) 0.02
    0.020906799 = product of:
      0.083627194 = sum of:
        0.083627194 = weight(_text_:help in 2370) [ClassicSimilarity], result of:
          0.083627194 = score(doc=2370,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.25985464 = fieldWeight in 2370, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2370)
      0.25 = coord(1/4)
    
    Abstract
    Evaluating information quality online is increasingly important for healthy decision-making. People assess information quality using visual interfaces (e.g., computers, smartphones) with visual cues like aesthetics. Yet, voice interfaces lack critical visual cues for evaluating information because there is often no visual display. Without ways to assess voice-based information quality, people may overly trust or misinterpret information which can be challenging in high-risk or sensitive contexts. This paper investigates voice information uncertainty in one high-risk context-health information seeking. We recruited 30 adults (ages 18-84) in the United States to participate in scenario-based interviews about health topics. Our findings provide evidence of information uncertainty expectations with voice assistants, voice search preferences, and the audio cues they use to assess information quality. We contribute a nuanced discussion of how to inform more critical information ecosystems with voice technologies and propose ways to design audio cues to help people more quickly assess content quality.
  8. Mandl, T.: Neue Entwicklungen bei den Evaluierungsinitiativen im Information Retrieval (2006) 0.02
    0.019675652 = product of:
      0.078702606 = sum of:
        0.078702606 = weight(_text_:und in 975) [ClassicSimilarity], result of:
          0.078702606 = score(doc=975,freq=14.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.51866364 = fieldWeight in 975, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=975)
      0.25 = coord(1/4)
    
    Abstract
    Im Information Retrieval tragen Evaluierungsinitiativen erheblich zur empirisch fundierten Forschung bei. Mit umfangreichen Kollektionen und Aufgaben unterstützen sie die Standardisierung und damit die Systementwicklung. Die wachsenden Anforderungen hinsichtlich der Korpora und Anwendungsszenarien führten zu einer starken Diversifizierung innerhalb der Evaluierungsinitiativen. Dieser Artikel gibt einen Überblick über den aktuellen Stand der wichtigsten Evaluierungsinitiativen und neuen Trends.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  9. Lohmann, H.: Verbesserung der Literatursuche durch Dokumentanreicherung und automatische Inhaltserschließung : Das Projekt 'KASCADE' an der Universitäts- und Landesbibliothek Düsseldorf (1999) 0.02
    0.019321108 = product of:
      0.07728443 = sum of:
        0.07728443 = weight(_text_:und in 2221) [ClassicSimilarity], result of:
          0.07728443 = score(doc=2221,freq=6.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.50931764 = fieldWeight in 2221, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=2221)
      0.25 = coord(1/4)
    
    Imprint
    Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
  10. Mandl, T.: Web- und Multimedia-Dokumente : Neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen (2003) 0.02
    0.018216114 = product of:
      0.07286446 = sum of:
        0.07286446 = weight(_text_:und in 2734) [ClassicSimilarity], result of:
          0.07286446 = score(doc=2734,freq=12.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.48018923 = fieldWeight in 2734, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2734)
      0.25 = coord(1/4)
    
    Abstract
    Die Menge an Daten im Internet steigt weiter rapide an. Damit wächst auch der Bedarf an qualitativ hochwertigen Information Retrieval Diensten zur Orientierung und problemorientierten Suche. Die Entscheidung für die Benutzung oder Beschaffung von Information Retrieval Software erfordert aussagekräftige Evaluierungsergebnisse. Dieser Beitrag stellt neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen vor und zeigt den Trend zu Spezialisierung und Diversifizierung von Evaluierungsstudien, die den Realitätsgrad derErgebnisse erhöhen. DerSchwerpunkt liegt auf dem Retrieval von Fachtexten, Internet-Seiten und Multimedia-Objekten.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.4, S.203-210
  11. Kluck, M.; Winter, M.: Topic-Entwicklung und Relevanzbewertung bei GIRT : ein Werkstattbericht (2006) 0.02
    0.018216114 = product of:
      0.07286446 = sum of:
        0.07286446 = weight(_text_:und in 967) [ClassicSimilarity], result of:
          0.07286446 = score(doc=967,freq=12.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.48018923 = fieldWeight in 967, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=967)
      0.25 = coord(1/4)
    
    Abstract
    Der Zusammenhang zwischen Topic-Entwicklung und Relevanzbewertung wird anhand einiger Fallbeispiele aus der CLEF-Evaluierungskampagne 2005 diskutiert. Im fachspezifischen Retrievaltest für multilinguale Systeme wurden die Topics am Dokumentenbestand von GIRT entwickelt. Die Zusammenhänge von Topic-Formulierung und Interpretationsspielräumen bei der Relevanzbewertung werden untersucht.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  12. Wolff, C.: Leistungsvergleich der Retrievaloberflächen zwischen Web und klassischen Expertensystemen (2001) 0.02
    0.017216196 = product of:
      0.068864785 = sum of:
        0.068864785 = weight(_text_:und in 6870) [ClassicSimilarity], result of:
          0.068864785 = score(doc=6870,freq=14.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.4538307 = fieldWeight in 6870, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6870)
      0.25 = coord(1/4)
    
    Abstract
    Die meisten Web-Auftritte der Hosts waren bisher für den Retrieval-Laien gedacht. Im Hintergrund steht dabei das Ziel: mehr Nutzung durch einfacheres Retrieval. Dieser Ansatz steht aber im Konflikt mit der wachsenden Datenmenge und Dokumentgröße, die eigentlich ein immer ausgefeilteres Retrieval verlangen. Häufig wird von Information Professionals die Kritik geäußert, dass die Webanwendungen einen Verlust an Relevanz bringen. Wie weit der Nutzer tatsächlich einen Kompromiss zwischen Relevanz und Vollständigkeit eingehen muss, soll in diesem Beitrag anhand verschiedener Host-Rechner quantifiziert werden
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  13. Günther, M.: Vermitteln Suchmaschinen vollständige Bilder aktueller Themen? : Untersuchung der Gewichtung inhaltlicher Aspekte von Suchmaschinenergebnissen in Deutschland und den USA (2016) 0.02
    0.016758373 = product of:
      0.06703349 = sum of:
        0.06703349 = weight(_text_:und in 4068) [ClassicSimilarity], result of:
          0.06703349 = score(doc=4068,freq=26.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.44176215 = fieldWeight in 4068, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4068)
      0.25 = coord(1/4)
    
    Abstract
    Zielsetzung - Vor dem Hintergrund von Suchmaschinenverzerrungen sollte herausgefunden werden, ob sich die von Google und Bing vermittelten Bilder aktueller internationaler Themen in Deutschland und den USA hinsichtlich (1) Vollständigkeit, (2) Abdeckung und (3) Gewichtung der jeweiligen inhaltlichen Aspekte unterscheiden. Forschungsmethoden - Für die empirische Untersuchung wurde eine Methode aus Ansätzen der empirischen Sozialwissenschaften (Inhaltsanalyse) und der Informationswissenschaft (Retrievaltests) entwickelt und angewandt. Ergebnisse - Es zeigte sich, dass Google und Bing in Deutschland und den USA (1) keine vollständigen Bilder aktueller internationaler Themen vermitteln, dass sie (2) auf den ersten Trefferpositionen nicht die drei wichtigsten inhaltlichen Aspekte abdecken, und dass es (3) bei der Gewichtung der inhaltlichen Aspekte keine signifikanten Unterschiede gibt. Allerdings erfahren diese Ergebnisse Einschränkungen durch die Methodik und die Auswertung der empirischen Untersuchung. Schlussfolgerungen - Es scheinen tatsächlich inhaltliche Suchmaschinenverzerrungen vorzuliegen - diese könnten Auswirkungen auf die Meinungsbildung der Suchmaschinennutzer haben. Trotz großem Aufwand bei manueller, und qualitativ schlechteren Ergebnissen bei automatischer Untersuchung sollte dieses Thema weiter erforscht werden.
    Content
    Vgl.: https://yis.univie.ac.at/index.php/yis/article/view/1355. Diesem Beitrag liegt folgende Abschlussarbeit zugrunde: Günther, Markus: Welches Weltbild vermitteln Suchmaschinen? Untersuchung der Gewichtung inhaltlicher Aspekte von Google- und Bing-Ergebnissen in Deutschland und den USA zu aktuellen internationalen Themen . Masterarbeit (M.A.), Hochschule für Angewandte Wissenschaften Hamburg, 2015. Volltext: http://edoc.sub.uni-hamburg.de/haw/volltexte/2016/332.
  14. Borgman, C.L.: Why are online catalogs still hard to use? (1996) 0.02
    0.01672544 = product of:
      0.06690176 = sum of:
        0.06690176 = weight(_text_:help in 4448) [ClassicSimilarity], result of:
          0.06690176 = score(doc=4448,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.20788372 = fieldWeight in 4448, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.03125 = fieldNorm(doc=4448)
      0.25 = coord(1/4)
    
    Abstract
    We return to arguments made 10 years ago that online catalogs are difficult to use because their design does not incorporate sufficient understanding of searching behavior. The earlier article examined studies of information retrieval system searching for their implications for online catalog design; this article examines the implications of card catalog design for online catalogs. With this analysis, we hope to contribute to a better understanding of user behavior and to lay to rest the card catalog design model for online catalogs. We discuss the problems with query matching systems, which were designed for skilled search intermediaries rather than end-users, and the knowledge and skills they require in the information-seeking process, illustrated with examples of searching card and online catalogs. Searching requires conceptual knowledge of the information retrieval process - translating an information need into a searchable query; semantic knowledge of how to implement a query in a given system - the how and when to use system features; and technical skills in executing the query - basic computing skills and the syntax of entering queries as specific search statements. In the short term, we can help make online catalogs easier to use through improved training and documentation that is based on information-seeking bahavior, with the caveat that good training is not a substitute for good system design. Our long term goal should be to design intuitive systems that require a minimum of instruction. Given the complexity of the information retrieval problem and the limited capabilities of today's systems, we are far from achieving that goal. If libraries are to provide primary information services for the networked world, they need to put research results on the information-seeking process into practice in designing the next generation of online public access information retrieval systems
  15. Bateman, J.: Modelling the importance of end-user relevance criteria (1999) 0.02
    0.01672544 = product of:
      0.06690176 = sum of:
        0.06690176 = weight(_text_:help in 606) [ClassicSimilarity], result of:
          0.06690176 = score(doc=606,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.20788372 = fieldWeight in 606, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.03125 = fieldNorm(doc=606)
      0.25 = coord(1/4)
    
    Abstract
    In most information retrieval research, the concept of relevance has been defined a priori as a single variable by the researcher and the meaning of relevance to the end-user who is making relevance judgments has not been taken into account. However, a number of criteria that users employ in making relevance judgments has been identified (Schamher, 1991; Barry, 1993). Understanding these criteria and their importance to end-users can help researchers better understand end-user evaluation behavior. This study reports end-users' ratings of the relative importance of 40 relevance criteria as used in their own information-seeking situations, and examines relationships between criteria that they rated most important. Data were collected from 210 graduate students who were instructed in a mail survey to rate 40 relevance criteria by importance in their selection of the most valuable information source for a recent or current paper or project. The criteria were selected from previous studies in which open-ended interviews were used to elicit criteria from end-users making judgments in their own information-seeking situations (Schamher, 1991; Su, 1992; Barry, 1993). A model of relevance with three constructs that contribute to the concept of relevance was proposed using the eleven criteria that survey respondents rated as most important (75 or more on a scale of 0 to 100). The development of this model was guided by similarities in criteria and criteria groupings from previous research (Barry & Schamher, 1998). Confirmatory factor analysis was used to confirm the model and verify that the constructs would produce reliable subscale scores. The three constructs are information quality, information credibility, and information completeness. Second-order factor analysis indicated that these constructs explain 48% of positive relevance judgments for these respondents. Three additional constructs, information availability, information topicality, and information currency are also suggested. The constructs developed from this analysis are thought to underlie the concept of relevance for this group of users
  16. Dresel, R.; Hörnig, D.; Kaluza, H.; Peter, A.; Roßmann, A.; Sieber, W.: Evaluation deutscher Web-Suchwerkzeuge : Ein vergleichender Retrievaltest (2001) 0.02
    0.016628962 = product of:
      0.06651585 = sum of:
        0.06651585 = weight(_text_:und in 1261) [ClassicSimilarity], result of:
          0.06651585 = score(doc=1261,freq=10.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.4383508 = fieldWeight in 1261, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1261)
      0.25 = coord(1/4)
    
    Abstract
    Die deutschen Suchmaschinen, Abacho, Acoon, Fireball und Lycos sowie die Web-Kataloge Web.de und Yahoo! werden einem Qualitätstest nach relativem Recall, Precision und Availability unterzogen. Die Methoden der Retrievaltests werden vorgestellt. Im Durchschnitt werden bei einem Cut-Off-Wert von 25 ein Recall von rund 22%, eine Precision von knapp 19% und eine Verfügbarkeit von 24% erreicht
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.7, S.381-392
  17. Biebricher, P.; Fuhr, N.; Niewelt, B.: ¬Der AIR-Retrievaltest (1986) 0.02
    0.016100923 = product of:
      0.06440369 = sum of:
        0.06440369 = weight(_text_:und in 4108) [ClassicSimilarity], result of:
          0.06440369 = score(doc=4108,freq=6.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.42443132 = fieldWeight in 4108, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4108)
      0.25 = coord(1/4)
    
    Abstract
    Der Beitrag enthält eine Darstellung zur Durchführung und zu den Ergebnissen des Retrievaltests zum AIR/PHYS-Projekt. Er zählt mit seinen 309 Fragen und 15.000 Dokumenten zu den größten Retrievaltests, die bisher zur Evaluierung automatisierter Indexierungs- oder Retrievalverfahren vorgenommen wurden.
    Source
    Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
  18. Griesbaum, J.; Rittberger, M.; Bekavac, B.: Deutsche Suchmaschinen im Vergleich : AltaVista.de, Fireball.de, Google.de und Lycos.de (2002) 0.02
    0.016100923 = product of:
      0.06440369 = sum of:
        0.06440369 = weight(_text_:und in 2159) [ClassicSimilarity], result of:
          0.06440369 = score(doc=2159,freq=6.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.42443132 = fieldWeight in 2159, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=2159)
      0.25 = coord(1/4)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  19. Munkelt, J.: Erstellung einer DNB-Retrieval-Testkollektion (2018) 0.02
    0.0159391 = product of:
      0.0637564 = sum of:
        0.0637564 = weight(_text_:und in 310) [ClassicSimilarity], result of:
          0.0637564 = score(doc=310,freq=12.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.42016557 = fieldWeight in 310, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=310)
      0.25 = coord(1/4)
    
    Abstract
    Seit Herbst 2017 findet in der Deutschen Nationalbibliothek die Inhaltserschließung bestimmter Medienwerke rein maschinell statt. Die Qualität dieses Verfahrens, das die Prozessorganisation von Bibliotheken maßgeblich prägen kann, wird unter Fachleuten kontrovers diskutiert. Ihre Standpunkte werden zunächst hinreichend erläutert, ehe die Notwendigkeit einer Qualitätsprüfung des Verfahrens und dessen Grundlagen dargelegt werden. Zentraler Bestandteil einer künftigen Prüfung ist eine Testkollektion. Ihre Erstellung und deren Dokumentation steht im Fokus dieser Arbeit. In diesem Zusammenhang werden auch die Entstehungsgeschichte und Anforderungen an gelungene Testkollektionen behandelt. Abschließend wird ein Retrievaltest durchgeführt, der die Einsatzfähigkeit der erarbeiteten Testkollektion belegt. Seine Ergebnisse dienen ausschließlich der Funktionsüberprüfung. Eine Qualitätsbeurteilung maschineller Inhaltserschließung im Speziellen sowie im Allgemeinen findet nicht statt und ist nicht Ziel der Ausarbeitung.
    Content
    Bachelorarbeit, Bibliothekswissenschaften, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln
    Imprint
    Köln : Technische Hochschule, Fakultät für Informations- und Kommunikationswissenschaften
  20. Kaltenborn, K.-F.: Endnutzerrecherchen in der CD-ROM-Datenbank Medline : T.1: Evaluations- und Benutzerforschung über Nutzungscharakteristika, Bewertung der Rechercheergebnisse und künftige Informationsgewinnung; T.2: Evaluations- und Benutzerforschung über Recherchequalität und Nutzer-Computer/Datenbank-Interaktion (1991) 0.02
    0.015775617 = product of:
      0.06310247 = sum of:
        0.06310247 = weight(_text_:und in 5104) [ClassicSimilarity], result of:
          0.06310247 = score(doc=5104,freq=16.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.41585606 = fieldWeight in 5104, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5104)
      0.25 = coord(1/4)
    
    Abstract
    Die Einführung von CD-ROM Datenbanken als neue Informationstechnologie hat die Formen der Informationsgewinnung in bestimmten wissenschaftlichen Fachgebieten grundlegend geändert. Der Beitrag berichtet über Ergebnisse wissenschaftlicher Begleitforschung bei Endnutzerrecherchen in der CD-ROM-Version der Datenbank MEDLINE. Hierzu wurden drei verschiedene Erhebungen durchgeführt. Hiernach ist die überwiegende Zahl der Endnutzer (89,3%) mit dem jeweiligen Rechercheresultat zufrieden, wobei Benutzer mit geringer Rechercheerfahrung eine höhere Zufriedenheitsrate erreichen als Benutzer mit umfangreicheren Recherchekenntnissen. Die Gründe zur Nutzung von CD-ROM-Systemen resultieren voriwegend aus der klinischen Alltagsroutine oder täglichen Forschungspraxis, während vermittelte Online-Literatursuchen tendenziell häufiger im Zusammenhang mit einmaligen Ereignissen der wissenschaftlichen Aus- und Weiterbildung stehen. Die selbständige CD-ROM Literaturrecherche stellt für die befragten Ärzte und Wissenschaftler die bevorzugte Methode der Informationsgewinnung dar. Die analysierten Endnutzerrecherchen weisen allerdings Fehler und Defizite hinsichtlich einer optimalen Suchstrategie auf, die zu unbemerktn Informationsverlusten und zu Fehlbeurteilungen des wissenschaftlichen Kenntnisstandes führen

Years

Languages

  • d 51
  • e 11
  • m 1
  • nl 1
  • More… Less…

Types

  • a 49
  • el 6
  • r 6
  • x 6
  • m 2
  • s 1
  • More… Less…