Search (58 results, page 3 of 3)

  • × theme_ss:"Retrievalstudien"
  1. Schoger, A.; Frommer, J.: Heterogen - was nun? : Evaluierung heterogener bibliographischer Metadaten (2000) 0.01
    0.009419478 = product of:
      0.03767791 = sum of:
        0.03767791 = weight(_text_:und in 5465) [ClassicSimilarity], result of:
          0.03767791 = score(doc=5465,freq=2.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.29405463 = fieldWeight in 5465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=5465)
      0.25 = coord(1/4)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.110-128
  2. Petras, V.; Womser-Hacker, C.: Evaluation im Information Retrieval (2023) 0.01
    0.009419478 = product of:
      0.03767791 = sum of:
        0.03767791 = weight(_text_:und in 1809) [ClassicSimilarity], result of:
          0.03767791 = score(doc=1809,freq=8.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.29405463 = fieldWeight in 1809, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1809)
      0.25 = coord(1/4)
    
    Abstract
    Das Ziel einer Evaluation ist die Überprüfung, ob bzw. in welchem Ausmaß ein Informationssystem die an das System gestellten Anforderungen erfüllt. Informationssysteme können aus verschiedenen Perspektiven evaluiert werden. Für eine ganzheitliche Evaluation (als Synonym wird auch Evaluierung benutzt), die unterschiedliche Qualitätsaspekte betrachtet (z. B. wie gut ein System relevante Dokumente rankt, wie schnell ein System die Suche durchführt, wie die Ergebnispräsentation gestaltet ist oder wie Suchende durch das System geführt werden) und die Erfüllung mehrerer Anforderungen überprüft, empfiehlt es sich, sowohl eine perspektivische als auch methodische Triangulation (d. h. der Einsatz von mehreren Ansätzen zur Qualitätsüberprüfung) vorzunehmen. Im Information Retrieval (IR) konzentriert sich die Evaluation auf die Qualitätseinschätzung der Suchfunktion eines Information-Retrieval-Systems (IRS), wobei oft zwischen systemzentrierter und nutzerzentrierter Evaluation unterschieden wird. Dieses Kapitel setzt den Fokus auf die systemzentrierte Evaluation, während andere Kapitel dieses Handbuchs andere Evaluationsansätze diskutieren (s. Kapitel C 4 Interaktives Information Retrieval, C 7 Cross-Language Information Retrieval und D 1 Information Behavior).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  3. Lohmann, H.: KASCADE: Dokumentanreicherung und automatische Inhaltserschließung : Projektbericht und Ergebnisse des Retrievaltests (2000) 0.01
    0.009111922 = product of:
      0.03644769 = sum of:
        0.03644769 = weight(_text_:und in 1494) [ClassicSimilarity], result of:
          0.03644769 = score(doc=1494,freq=22.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.28445345 = fieldWeight in 1494, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1494)
      0.25 = coord(1/4)
    
    Abstract
    Der Test hat gezeigt, dass die Ergänzung der bibliothekarischen Titelaufnahme um zusätzliche inhaltsrelevante Daten zu einer beeindruckenden Verbesserung der Suchergebnisse führt. Die Dokumentanreicherung sollte daher als Ziel bibliothekarischer Bemühungen um eine Verbesserung des OPAC-Retrievals weiterverfolgt werden. Der im Projekt eingeschlagene Weg, die Inhaltsverzeichnisse zu scannen, erwies sich allerdings als wenig sinnvoll. Zwar erzielte das Scanningverfahren gute Ergebnisse, auch arbeitete die Texterkennungssoftware sehr zuverlässig. Das Scanning bietet darüber hinaus die Möglichkeit, die dabei angefertigte Grafik-Datei mit dem Titelsatz im OPAC zu verknüpfen und so dem Nutzer als Entscheidungshilfe bei der Ergebnismengenbeurteilung an die Hand zu geben. Die Arbeiten am Aufbau der Testdatenbank brachten aber die Erkenntnis, dass die Anreicherung im Wege des Scanning technisch außerordentlich problematisch ist und einen nicht vorauszusehenden und letztlich auch nicht zu rechtfertigenden Aufwand erfordert. Diese Methode der Anreicherung kann daher für einen Praxiseinsatz nicht empfohlen werden.
    Abgesehen von diesen Überlegungen müssten für einen praktischen Einsatz der KASCADE-Entwicklungen weitere Voraussetzungen geschaffen werden. Erforderlich wäre zunächst die Optimierung und Rationalisierung der Verfahrensabläufe selbst. Die Teilprogramme unter KasKoll sollten in ein kompaktes Programm integriert werden. Die Sortiervorgänge könnten vereinfacht werden, indem die Deskriptoren in eine relationale Datenbank überführt werden. Letztendlich wirken sich diese Punkte aber vor allem auf die Dauer der Maschinenlaufzeiten aus, die bei der Frage nach den Implementierungskosten letztlich nur eine untergeordnete Rolle spielen. Optimiert werden sollte die Oberfläche zur Steuerung des Verfahrens. Bereits jetzt laufen einige der Programme unter einer menügeführten Windows-Schnittstelle (Kasadew) ab, was für alle Verfahrensteile erreicht werden sollte. Schließlich ist zu klären, unter welchen Bedingungen das Gewichtungsverfahren im Praxisbetrieb ablaufen kann.
    Da sich mit jedem Dokument, das zu dem im Gewichtungsverfahren befindlichen Gesamtbestand hinzukommt, die Werte aller bereits gewichteten Deskriptoren ändern können, müsste die Berechnung der Häufigkeitsverteilung jeder Grundform im Prinzip nach jeder Änderung im Dokumentbestand neu berechnet werden. Eine Online-Aktualisierung des Bestandes erscheint daher wenig sinnvoll. In der Praxis könnte eine Neuberechnung in bestimmten zeitlichen Abständen mit einem Abzug des OPAC-Bestandes unabhängig vom eigentlichen Betrieb des OPAC erfolgen, was auch insofern genügen würde, als die zugrunde liegenden Maße auf relativen Häufigkeiten basieren. Dadurch würde nur ein geringer Verzug in der Bereitstellung der aktuellen Gewichte eintreten. Außerdem würde der Zeitfaktor eine nur untergeordnete Rolle spielen, da ein offline ablaufender Gewichtungslauf erst bis zum nächsten Aktualisierungszeitpunkt abgeschlossen sein müsste. Denkbar wäre zusätzlich, für die Zeit zwischen zwei Aktualisierungen des OPACs für die in den Neuzugängen enthaltenen Begriffe Standardgewichte einzusetzen, soweit diese Begriffe bereits in dem Bestand auftreten. Bei entsprechender Optimierung und Rationalisierung der SELIX-Verfahrensabläufe, Nutzung der Gewichte auf der Retrievalseite für ein Ranking der auszugebenden Dokumente und Integration der THEAS-Komponente kann das Verfahren zu einem wirkungsvollen Instrument zur Verbesserung der Retrievaleffektivität weiterentwickelt werden.
    Footnote
    Zugl.: Köln, Fachhochsch., Fachbereich Bibliotheks- und Informationswesen, Hausarbeit
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 31
  4. Jochum, F.; Weissmann, V.: Struktur und Elemente des Information Retrieval Experiments (1985) 0.01
    0.008880769 = product of:
      0.035523076 = sum of:
        0.035523076 = weight(_text_:und in 114) [ClassicSimilarity], result of:
          0.035523076 = score(doc=114,freq=4.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.2772374 = fieldWeight in 114, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=114)
      0.25 = coord(1/4)
    
    Abstract
    Eine fundierte Untersuchung der Anforderungen an Experimente im Information Retrieval bedarf einer geeigneten Sprache, die es erlaubt, alle relevanten Aspekte adäquat zu beschreiben. Der Beitrag versucht, ein solches Begriffsgerüst zu entwickeln. Als grundlegende Begriffe dienen die 4 Kategorien: experimentelle Faktoren, situative Faktoren; Experimentalobjekte und Beobachtungsvariablen. Das Begriffsgerüst wird anhand praktischer Beispiele illustriert
  5. Heinz, M.; Voigt, H.: Aufbau einer Suchmaschine für ein Forschungsinstitut : Aufgabe für die Bibliothek? (2000) 0.01
    0.008880769 = product of:
      0.035523076 = sum of:
        0.035523076 = weight(_text_:und in 6234) [ClassicSimilarity], result of:
          0.035523076 = score(doc=6234,freq=4.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.2772374 = fieldWeight in 6234, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6234)
      0.25 = coord(1/4)
    
    Abstract
    Anhand eines einfachen Modells wird geprüft, ob der Nutzen den Aufbau einer Spezialsuchmaschine trägt. Zum Vergleich werden fünf große Suchmaschinen herangezogen und deren Ergebnisse bei gleichen Fragestellungen analysiert. Es ergeben sich gravierende Abweichungen sowohl in der Überdeckung der Ergebnismengen als auch im Ranking. Es erscheint also sinnvoll, eine eigene Suchmaschine zu betreiben
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.6, S.335-341
  6. Hierl, S.: Bezugsrahmen für die Evaluation von Information Retrieval Systemen mit Visualisierungskomponenten (2007) 0.01
    0.008880769 = product of:
      0.035523076 = sum of:
        0.035523076 = weight(_text_:und in 4040) [ClassicSimilarity], result of:
          0.035523076 = score(doc=4040,freq=4.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.2772374 = fieldWeight in 4040, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4040)
      0.25 = coord(1/4)
    
    Abstract
    Folgender Beitrag beschäftigt sich mit der Konzeption und Durchführung von nachhaltigen Evaluationen von Information Retrieval Systemen mit Visualisierungskomponenten. Bisherige Evaluationsansätze differieren sowohl in der Methodenauswahl als auch Untersuchungsanlage, wie eine State-of-the-Art-Analyse aufzeigt. Im Anschluss werden die größten Herausforderungen, die sich bei Evaluationen dieser Art ergeben mit Vorschlägen zu potenziellen Lösungsansätzen diskutiert. Auf der Grundlage eines morphologischen Rahmens wird ein Bezugsrahmen für die Evaluation von Information Retrieval Systemen mit Visualisierungskomponenten vorgeschlagen, das einen integrierten Ansatz zur Kombination geeigneter Methoden aus dem Bereich der Usability-Evaluation und der Retrievaleffektivitäts-Evaluation verfolgt.
  7. Griesbaum, J.: Evaluierung hybrider Suchsysteme im WWW (2000) 0.01
    0.0081575075 = product of:
      0.03263003 = sum of:
        0.03263003 = weight(_text_:und in 3482) [ClassicSimilarity], result of:
          0.03263003 = score(doc=3482,freq=6.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.25465882 = fieldWeight in 3482, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3482)
      0.25 = coord(1/4)
    
    Abstract
    Der Ausgangspunkt dieser Arbeit ist die Suchproblematik im World Wide Web. Suchmaschinen sind einerseits unverzichtbar für erfolgreiches Information Retrieval, andererseits wird ihnen eine mäßige Leistungsfähigkeit vorgeworfen. Das Thema dieser Arbeit ist die Untersuchung der Retrievaleffektivität deutschsprachiger Suchmaschinen. Es soll festgestellt werden, welche Retrievaleffektivität Nutzer derzeit erwarten können. Ein Ansatz, um die Retrievaleffektivität von Suchmaschinen zu erhöhen besteht darin, redaktionell von Menschen erstellte und automatisch generierte Suchergebnisse in einer Trefferliste zu vermengen. Ziel dieser Arbeit ist es, die Retrievaleffektivität solcher hybrider Systeme im Vergleich zu rein roboterbasierten Suchmaschinen zu evaluieren. Zunächst werden hierzu die grundlegenden Problembereiche bei der Evaluation von Retrievalsystemen analysiert. In Anlehnung an die von Tague-Sutcliff vorgeschlagene Methodik wird unter Beachtung der webspezifischen Besonderheiten eine mögliche Vorgehensweise erschlossen. Darauf aufbauend wird das konkrete Setting für die Durchführung der Evaluation erarbeitet und ein Retrievaleffektivitätstest bei den Suchmaschinen Lycos.de, AItaVista.de und QualiGo durchgeführt.
  8. Oberhauser, O.; Labner, J.: OPAC-Erweiterung durch automatische Indexierung : Empirische Untersuchung mit Daten aus dem Österreichischen Verbundkatalog (2002) 0.01
    0.0081575075 = product of:
      0.03263003 = sum of:
        0.03263003 = weight(_text_:und in 1883) [ClassicSimilarity], result of:
          0.03263003 = score(doc=1883,freq=6.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.25465882 = fieldWeight in 1883, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1883)
      0.25 = coord(1/4)
    
    Abstract
    In Anlehnung an die in den neunziger Jahren durchgeführten Erschließungsprojekte MILOS I und MILOS II, die die Eignung eines Verfahrens zur automatischen Indexierung für Bibliothekskataloge zum Thema hatten, wurde eine empirische Untersuchung anhand einer repräsentativen Stichprobe von Titelsätzen aus dem Österreichischen Verbundkatalog durchgeführt. Ziel war die Prüfung und Bewertung der Einsatzmöglichkeit dieses Verfahrens in den Online-Katalogen des Verbundes. Der Realsituation der OPAC-Benutzung gemäß wurde ausschließlich die Auswirkung auf den automatisch generierten Begriffen angereicherten Basic Index ("Alle Felder") untersucht. Dazu wurden 100 Suchanfragen zunächst im ursprünglichen Basic Index und sodann im angereicherten Basic Index in einem OPAC unter Aleph 500 durchgeführt. Die Tests erbrachten einen Zuwachs an relevanten Treffern bei nur leichten Verlusten an Precision, eine Reduktion der Nulltreffer-Ergebnisse sowie Aufschlüsse über die Auswirkung einer vorhandenen verbalen Sacherschließung.
  9. Bollmann-Sdorra, P.: Probleme der Validität bei Retrievaltests (1990) 0.01
    0.007849565 = product of:
      0.03139826 = sum of:
        0.03139826 = weight(_text_:und in 5112) [ClassicSimilarity], result of:
          0.03139826 = score(doc=5112,freq=2.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.24504554 = fieldWeight in 5112, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=5112)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Beitrag werden beispielhaft Probleme der Validität bei Retrievaltests behandelt. Die externe Validität wird im Zusammenhang von Ähnlichkeitsmaßen und Bewertungsmaßen diskutiert. Die interne Validität wird am Beispiel der Mittelwertbildung diskutiert. Es zeigt sich, daß die Forderung nach Validität die zur Auswahl stehenden Methoden einschränkt
  10. Binder, G.; Stahl, M.; Faulborn, L.: Vergleichsuntersuchung MESSENGER-FULCRUM (2000) 0.01
    0.007770673 = product of:
      0.031082692 = sum of:
        0.031082692 = weight(_text_:und in 5885) [ClassicSimilarity], result of:
          0.031082692 = score(doc=5885,freq=4.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.24258271 = fieldWeight in 5885, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5885)
      0.25 = coord(1/4)
    
    Abstract
    In einem Benutzertest, der im Rahmen der Projektes GIRT stattfand, wurde die Leistungsfähigkeit zweier Retrievalsprachen für die Datenbankrecherche überprüft. Die Ergebnisse werden in diesem Bericht dargestellt: Das System FULCRUM beruht auf automatischer Indexierung und liefert ein nach statistischer Relevanz sortiertes Suchergebnis. Die Standardfreitextsuche des Systems MESSENGER wurde um die intellektuell vom IZ vergebenen Deskriptoren ergänzt. Die Ergebnisse zeigen, dass in FULCRUM das Boole'sche Exakt-Match-Retrieval dem Verktos-Space-Modell (Best-Match-Verfahren) von den Versuchspersonen vorgezogen wurde. Die in MESSENGER realisierte Mischform aus intellektueller und automatischer Indexierung erwies sich gegenüber dem quantitativ-statistischen Ansatz beim Recall als überlegen
  11. Becks, D.; Mandl, T.; Womser-Hacker, C.: Spezielle Anforderungen bei der Evaluierung von Patent-Retrieval-Systemen (2010) 0.01
    0.007770673 = product of:
      0.031082692 = sum of:
        0.031082692 = weight(_text_:und in 667) [ClassicSimilarity], result of:
          0.031082692 = score(doc=667,freq=4.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.24258271 = fieldWeight in 667, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=667)
      0.25 = coord(1/4)
    
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  12. Mielke, B.: Wider einige gängige Ansichten zur juristischen Informationserschließung (2002) 0.01
    0.0066605764 = product of:
      0.026642306 = sum of:
        0.026642306 = weight(_text_:und in 3145) [ClassicSimilarity], result of:
          0.026642306 = score(doc=3145,freq=4.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.20792803 = fieldWeight in 3145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3145)
      0.25 = coord(1/4)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  13. Hofmann, M.: TREC Konferenzbericht (7.10.93) (1995) 0.01
    0.0062796515 = product of:
      0.025118606 = sum of:
        0.025118606 = weight(_text_:und in 5073) [ClassicSimilarity], result of:
          0.025118606 = score(doc=5073,freq=2.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.19603643 = fieldWeight in 5073, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5073)
      0.25 = coord(1/4)
    
    Abstract
    Ziel der US-amerikanischen TREC (Texte REtrieval Conference) Initiative ist es, zum einen Standard-Kollektionen von Teten zu erstellen, auf deren Basis verschiedene Retrieval-Ansätze verglichen werden können. Zum anderen sollen Kollektionen einer Grösse aufgebaut werden, die realistischen Anwendungen nahe kommen. Damit soll das alte Vorurteil der Untauglichkeit neuerer IR-Methoden (bzgl. Effizienz und Effektivität) für größere Darenbasen widerlegt werden.
  14. Schirrmeister, N.-P.; Keil, S.: Aufbau einer Infrastruktur für Information Retrieval-Evaluationen (2012) 0.01
    0.0062796515 = product of:
      0.025118606 = sum of:
        0.025118606 = weight(_text_:und in 4097) [ClassicSimilarity], result of:
          0.025118606 = score(doc=4097,freq=2.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.19603643 = fieldWeight in 4097, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4097)
      0.25 = coord(1/4)
    
    Abstract
    Das Projekt "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE) bietet eine Softwareinfrastruktur zur Unterstützung von Information Retrieval-Evaluationen (IR-Evaluationen). Die Infrastruktur basiert auf einem Tool-Kit, das bei GESIS im Rahmen des DFG-Projekts IRM entwickelt wurde. Ziel ist es, ein System zu bieten, das zur Forschung und Lehre am Fachbereich Media für IR-Evaluationen genutzt werden kann. This paper describes some aspects of a project called "Aufbau einer Infrastruktur für Information Retrieval-Evaluationen" (AIIRE). Its goal is to build a software-infrastructure which supports the evaluation of information retrieval algorithms.
  15. Lepsky, K.; Siepmann, J.; Zimmermann, A.: Automatische Indexierung für Online-Kataloge : Ergebnisse eines Retrievaltests (1996) 0.01
    0.005494695 = product of:
      0.02197878 = sum of:
        0.02197878 = weight(_text_:und in 3319) [ClassicSimilarity], result of:
          0.02197878 = score(doc=3319,freq=2.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.17153187 = fieldWeight in 3319, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3319)
      0.25 = coord(1/4)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 43(1996) H.1, S.47-56
  16. Evans, J.E.: Some external and internal factors affecting users of interactive information systems (1996) 0.00
    0.004709739 = product of:
      0.018838955 = sum of:
        0.018838955 = weight(_text_:und in 6330) [ClassicSimilarity], result of:
          0.018838955 = score(doc=6330,freq=2.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.14702731 = fieldWeight in 6330, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6330)
      0.25 = coord(1/4)
    
    Source
    Herausforderungen an die Informationswirtschaft: Informationsverdichtung, Informationsbewertung und Datenvisualisierung. Proceedings des 5. Internationalen Symposiums für Informationswissenschaft (ISI'96), Humboldt-Universität zu Berlin, 17.-19. Oktober 1996. Hrsg.: J. Krause u.a
  17. Chen, H.; Martinez, J.; Kirchhoff, A.; Ng, T.D.; Schatz, B.R.: Alleviating search uncertainty through concept associations : automatic indexing, co-occurence analysis, and parallel computing (1998) 0.00
    0.004709739 = product of:
      0.018838955 = sum of:
        0.018838955 = weight(_text_:und in 6202) [ClassicSimilarity], result of:
          0.018838955 = score(doc=6202,freq=2.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.14702731 = fieldWeight in 6202, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6202)
      0.25 = coord(1/4)
    
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  18. Meyer, O.C.: Retrievalexperimente mit bibliothekarischen Daten : Historischer Überblick und aktueller Forschungsstand (2022) 0.00
    0.004709739 = product of:
      0.018838955 = sum of:
        0.018838955 = weight(_text_:und in 1656) [ClassicSimilarity], result of:
          0.018838955 = score(doc=1656,freq=2.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.14702731 = fieldWeight in 1656, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1656)
      0.25 = coord(1/4)
    

Years

Languages

  • d 51
  • e 6
  • m 1
  • More… Less…

Types

  • a 43
  • el 6
  • r 6
  • x 6
  • m 2
  • s 1
  • More… Less…