-
Green, R.: Topical relevance relationships : 2: an exploratory study and preliminary typology (1995)
0.08
0.07906964 = product of:
0.15813927 = sum of:
0.03955064 = weight(_text_:journal in 3792) [ClassicSimilarity], result of:
0.03955064 = score(doc=3792,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.18576685 = fieldWeight in 3792, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.046875 = fieldNorm(doc=3792)
0.118588634 = weight(_text_:headings in 3792) [ClassicSimilarity], result of:
0.118588634 = score(doc=3792,freq=2.0), product of:
0.36866346 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.07597547 = queryNorm
0.32167178 = fieldWeight in 3792, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=3792)
0.5 = coord(2/4)
- Abstract
- The assumption of topic matching between user needs and texts topically relevant to those needs is often erroneous. Reports an emprical investigantion of the question 'what relationship types actually account for topical relevance'? In order to avoid the bias to topic matching search strategies, user needs are back generated from a randomly selected subset of the subject headings employed in a user oriented topical concordance. The corresponding relevant texts are those indicated in the concordance under the subject heading. Compares the topics of the user needs with the topics of the relevant texts to determine the relationships between them. Topical relevance relationships include a large variety of relationships, only some of which are matching relationships. Others are examples of paradigmatic or syntagmatic relationships. There appear to be no constraints on the kinds of relationships that can function as topical relevance relationships. They are distinguishable from other types of relationships only on functional grounds
- Source
- Journal of the American Society for Information Science. 46(1995) no.9, S.654-662.
-
Kleinberg, J.M.: Authoritative sources in a hyperlinked environment (1998)
0.03
0.032162808 = product of:
0.064325616 = sum of:
0.03955064 = weight(_text_:journal in 1005) [ClassicSimilarity], result of:
0.03955064 = score(doc=1005,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.18576685 = fieldWeight in 1005, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.046875 = fieldNorm(doc=1005)
0.024774972 = weight(_text_:und in 1005) [ClassicSimilarity], result of:
0.024774972 = score(doc=1005,freq=2.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.14702731 = fieldWeight in 1005, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1005)
0.5 = coord(2/4)
- Content
- Vorversionen auch in: Proceedings of the ACM-SIAM Symposium on Discrete Algorithms, 1998, und als IBM Research Report RJ 10076, May 1997.
- Source
- Journal of the Association for Computing Machinery. 46(1998) no.5, S.604-632
-
Ackermann, J.: Knuth-Morris-Pratt (2005)
0.03
0.029700197 = product of:
0.059400395 = sum of:
0.026367094 = weight(_text_:journal in 990) [ClassicSimilarity], result of:
0.026367094 = score(doc=990,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.123844564 = fieldWeight in 990, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.03125 = fieldNorm(doc=990)
0.0330333 = weight(_text_:und in 990) [ClassicSimilarity], result of:
0.0330333 = score(doc=990,freq=8.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.19603643 = fieldWeight in 990, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=990)
0.5 = coord(2/4)
- Abstract
- Im Rahmen des Seminars Suchmaschinen und Suchalgorithmen beschäftigt sich diese Arbeit mit dem Auffinden bestimmter Wörter oder Muster in Texten. Der Begriff "Text" wird hier in einem sehr allgemeinen Sinne als strukturierte Folge beliebiger Länge von Zeichen aus einem endlichen Alphabet verstanden. Somit fällt unter diesen Bereich ganz allgemein die Suche nach einem Muster in einer Sequenz von Zeichen. Beispiele hierfür sind neben der Suche von Wörtern in "literarischen" Texten, z.B. das Finden von Pixelfolgen in Bildern oder gar das Finden von Mustern in DNS-Strängen. Das Anwendungsgebiet für eine solche Suche ist weit gefächert. Man denke hier allein an Texteditoren, Literaturdatenbanken, digitale Lexika oder die besagte DNADatenbank. Betrachtet man allein das 1989 publizierte Oxford English Dictionary mit seinen etwa 616500 definierten Stichworten auf gedruckten 21728 Seiten, so gilt es, einen möglichst effizienten Algorithmus für die Suche in Texten zu nutzen. Der in der Arbeit zugrunde liegende Datentyp ist vom Typ String (Zeichenkette), wobei hier offen gelassen wird, wie der Datentyp programmtechnisch realisiert wird. Algorithmen zur Verarbeitung von Zeichenketten (string processing) umfassen ein bestimmtes Spektrum an Anwendungsgebieten [Ot96, S.617 f.], wie z.B. das Komprimieren, das Verschlüssen, das Analysieren (parsen), das Übersetzen von Texten sowie das Suchen in Texten, welches Thema dieses Seminars ist. Im Rahmen dieser Arbeit wird der Knuth-Morris-Pratt Algorithmus vorgestellt, der wie der ebenfalls in diesem Seminar vorgestellte Boyer-Moore Algorithmus einen effizienten Suchalgorithmus darstellt. Dabei soll ein gegebenes Suchwort oder Muster (pattern) in einer gegeben Zeichenkette erkannt werden (pattern matching). Gesucht werden dabei ein oder mehrere Vorkommen eines bestimmten Suchwortes (exact pattern matching). Der Knuth-Morris-Pratt Algorithmus wurde erstmals 1974 als Institutbericht der Stanford University beschrieben und erschien 1977 in der Fachzeitschrift Journal of Computing unter dem Titel "Fast Pattern Matching in Strings" [Kn77]. Der Algorithmus beschreibt eine Suche in Zeichenketten mit linearer Laufzeit. Der Name des Algorithmus setzt sich aus den Entwicklern des Algorithmus Donald E. Knuth, James H. Morris und Vaughan R. Pratt zusammen.
- Content
- Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/JanAckermann.pdf
-
Robertson, S.E.; Belkin, N.J.: Ranking in principle (1978)
0.03
0.026367094 = product of:
0.10546838 = sum of:
0.10546838 = weight(_text_:journal in 1142) [ClassicSimilarity], result of:
0.10546838 = score(doc=1142,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.49537826 = fieldWeight in 1142, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.125 = fieldNorm(doc=1142)
0.25 = coord(1/4)
- Source
- Journal of documentation. 34(1978), S.93-100
-
Rijsbergen, C.J. van: ¬A fast hierarchic clustering algorithm (1970)
0.03
0.026367094 = product of:
0.10546838 = sum of:
0.10546838 = weight(_text_:journal in 3299) [ClassicSimilarity], result of:
0.10546838 = score(doc=3299,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.49537826 = fieldWeight in 3299, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.125 = fieldNorm(doc=3299)
0.25 = coord(1/4)
- Source
- Computer journal. 13(1970), S.324-326
-
Wu, H.; Salton, G.: ¬The estimation of term relevance weights using relevance feedback (1981)
0.03
0.026367094 = product of:
0.10546838 = sum of:
0.10546838 = weight(_text_:journal in 4727) [ClassicSimilarity], result of:
0.10546838 = score(doc=4727,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.49537826 = fieldWeight in 4727, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.125 = fieldNorm(doc=4727)
0.25 = coord(1/4)
- Source
- Journal of documentation. 37(1981), S.194-214
-
Sparck Jones, K.: ¬A statistical interpretation of term specifity and its application in retrieval (1972)
0.03
0.026367094 = product of:
0.10546838 = sum of:
0.10546838 = weight(_text_:journal in 5186) [ClassicSimilarity], result of:
0.10546838 = score(doc=5186,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.49537826 = fieldWeight in 5186, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.125 = fieldNorm(doc=5186)
0.25 = coord(1/4)
- Source
- Journal of documentation. 28(1972), S.11-21
-
Rada, R.; Bicknell, E.: Ranking documents with a thesaurus (1989)
0.03
0.026367094 = product of:
0.10546838 = sum of:
0.10546838 = weight(_text_:journal in 6907) [ClassicSimilarity], result of:
0.10546838 = score(doc=6907,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.49537826 = fieldWeight in 6907, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.125 = fieldNorm(doc=6907)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science. 40(1989) no.5, S.304-310
-
Smeaton, A.F.; Rijsbergen, C.J. van: ¬The retrieval effects of query expansion on a feedback document retrieval system (1983)
0.02
0.023071207 = product of:
0.09228483 = sum of:
0.09228483 = weight(_text_:journal in 2133) [ClassicSimilarity], result of:
0.09228483 = score(doc=2133,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.43345597 = fieldWeight in 2133, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.109375 = fieldNorm(doc=2133)
0.25 = coord(1/4)
- Source
- Computer journal. 26(1983), S.239-246
-
Perry, R.; Willett, P.: ¬A revies of the use of inverted files for best match searching in information retrieval systems (1983)
0.02
0.023071207 = product of:
0.09228483 = sum of:
0.09228483 = weight(_text_:journal in 2700) [ClassicSimilarity], result of:
0.09228483 = score(doc=2700,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.43345597 = fieldWeight in 2700, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.109375 = fieldNorm(doc=2700)
0.25 = coord(1/4)
- Source
- Journal of information science. 6(1983), S.59-66
-
Crestani, F.: Combination of similarity measures for effective spoken document retrieval (2003)
0.02
0.023071207 = product of:
0.09228483 = sum of:
0.09228483 = weight(_text_:journal in 5690) [ClassicSimilarity], result of:
0.09228483 = score(doc=5690,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.43345597 = fieldWeight in 5690, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.109375 = fieldNorm(doc=5690)
0.25 = coord(1/4)
- Source
- Journal of information science. 29(2003) no.2, S.87-96
-
Mandl, T.: Web- und Multimedia-Dokumente : Neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen (2003)
0.02
0.020228682 = product of:
0.08091473 = sum of:
0.08091473 = weight(_text_:und in 2734) [ClassicSimilarity], result of:
0.08091473 = score(doc=2734,freq=12.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.48018923 = fieldWeight in 2734, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2734)
0.25 = coord(1/4)
- Abstract
- Die Menge an Daten im Internet steigt weiter rapide an. Damit wächst auch der Bedarf an qualitativ hochwertigen Information Retrieval Diensten zur Orientierung und problemorientierten Suche. Die Entscheidung für die Benutzung oder Beschaffung von Information Retrieval Software erfordert aussagekräftige Evaluierungsergebnisse. Dieser Beitrag stellt neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen vor und zeigt den Trend zu Spezialisierung und Diversifizierung von Evaluierungsstudien, die den Realitätsgrad derErgebnisse erhöhen. DerSchwerpunkt liegt auf dem Retrieval von Fachtexten, Internet-Seiten und Multimedia-Objekten.
- Source
- Information - Wissenschaft und Praxis. 54(2003) H.4, S.203-210
-
Ro, J.S.: ¬An evaluation of the applicability of ranking algorithms to improve the effectiveness of full-text retrieval : 1. On the effectiveness of full-text retrieval (1988)
0.02
0.01977532 = product of:
0.07910128 = sum of:
0.07910128 = weight(_text_:journal in 4029) [ClassicSimilarity], result of:
0.07910128 = score(doc=4029,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.3715337 = fieldWeight in 4029, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.09375 = fieldNorm(doc=4029)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science. 39(1988), S.73-78
-
Robertson, S.E.: ¬The probability ranking principle in IR (1977)
0.02
0.01977532 = product of:
0.07910128 = sum of:
0.07910128 = weight(_text_:journal in 2935) [ClassicSimilarity], result of:
0.07910128 = score(doc=2935,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.3715337 = fieldWeight in 2935, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.09375 = fieldNorm(doc=2935)
0.25 = coord(1/4)
- Source
- Journal of documentation. 33(1977), S.294-304
-
Sparck Jones, K.: Search term relevance weighting given little relevance information (1979)
0.02
0.01977532 = product of:
0.07910128 = sum of:
0.07910128 = weight(_text_:journal in 2939) [ClassicSimilarity], result of:
0.07910128 = score(doc=2939,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.3715337 = fieldWeight in 2939, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.09375 = fieldNorm(doc=2939)
0.25 = coord(1/4)
- Source
- Journal of documentation. 35(1979), S.30-48
-
Nagelschmidt, M.: Verfahren zur Anfragemodifikation im Information Retrieval (2008)
0.02
0.019586336 = product of:
0.07834534 = sum of:
0.07834534 = weight(_text_:und in 3774) [ClassicSimilarity], result of:
0.07834534 = score(doc=3774,freq=20.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.4649412 = fieldWeight in 3774, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3774)
0.25 = coord(1/4)
- Abstract
- Für das Modifizieren von Suchanfragen kennt das Information Retrieval vielfältige Möglichkeiten. Nach einer einleitenden Darstellung der Wechselwirkung zwischen Informationsbedarf und Suchanfrage wird eine konzeptuelle und typologische Annäherung an Verfahren zur Anfragemodifikation gegeben. Im Anschluss an eine kurze Charakterisierung des Fakten- und des Information Retrieval, sowie des Vektorraum- und des probabilistischen Modells, werden intellektuelle, automatische und interaktive Modifikationsverfahren vorgestellt. Neben klassischen intellektuellen Verfahren, wie der Blockstrategie und der "Citation Pearl Growing"-Strategie, umfasst die Darstellung der automatischen und interaktiven Verfahren Modifikationsmöglichkeiten auf den Ebenen der Morphologie, der Syntax und der Semantik von Suchtermen. Darüber hinaus werden das Relevance Feedback, der Nutzen informetrischer Analysen und die Idee eines assoziativen Retrievals auf der Basis von Clustering- und terminologischen Techniken, sowie zitationsanalytischen Verfahren verfolgt. Ein Eindruck für die praktischen Gestaltungsmöglichkeiten der behandelten Verfahren soll abschließend durch fünf Anwendungsbeispiele vermittelt werden.
-
Fuhr, N.: Zur Überwindung der Diskrepanz zwischen Retrievalforschung und -praxis (1990)
0.02
0.018466176 = product of:
0.073864706 = sum of:
0.073864706 = weight(_text_:und in 6624) [ClassicSimilarity], result of:
0.073864706 = score(doc=6624,freq=10.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.4383508 = fieldWeight in 6624, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6624)
0.25 = coord(1/4)
- Abstract
- In diesem Beitrag werden einige Forschungsergebnisse des Information Retrieval vorgestellt, die unmittelbar zur Verbesserung der Retrievalqualität für bereits existierende Datenbanken eingesetzt werden können: Linguistische Algorithmen zur Grund- und Stammformreduktion unterstützen die Suche nach Flexions- und Derivationsformen von Suchtermen. Rankingalgorithmen, die Frage- und Dokumentterme gewichten, führen zu signifikant besseren Retrievalergebnissen als beim Booleschen Retrieval. Durch Relevance Feedback können die Retrievalqualität weiter gesteigert und außerdem der Benutzer bei der sukzessiven Modifikation seiner Frageformulierung unterstützt werden. Es wird eine benutzerfreundliche Bedienungsoberfläche für ein System vorgestellt, das auf diesen Konzepten basiert.
-
Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014)
0.02
0.018466176 = product of:
0.073864706 = sum of:
0.073864706 = weight(_text_:und in 2484) [ClassicSimilarity], result of:
0.073864706 = score(doc=2484,freq=10.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.4383508 = fieldWeight in 2484, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2484)
0.25 = coord(1/4)
- Abstract
- Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
-
Behnert, C.; Borst, T.: Neue Formen der Relevanz-Sortierung in bibliothekarischen Informationssystemen : das DFG-Projekt LibRank (2015)
0.02
0.018466176 = product of:
0.073864706 = sum of:
0.073864706 = weight(_text_:und in 392) [ClassicSimilarity], result of:
0.073864706 = score(doc=392,freq=10.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.4383508 = fieldWeight in 392, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=392)
0.25 = coord(1/4)
- Abstract
- Das von der DFG geförderte Projekt LibRank erforscht neue Rankingverfahren für bibliothekarische Informationssysteme, die aufbauend auf Erkenntnissen aus dem Bereich Websuche qualitätsinduzierende Faktoren wie z. B. Aktualität, Popularität und Verfügbarkeit von einzelnen Medien berücksichtigen. Die konzipierten Verfahren werden im Kontext eines in den Wirtschaftswissenschaften häufig genutzten Rechercheportals (EconBiz) entwickelt und in einem Testsystem systematisch evaluiert. Es werden Rankingfaktoren, die für den Bibliotheksbereich von besonderem Interesse sind, vorgestellt und exemplarisch Probleme und Herausforderungen aufgezeigt.
- Source
- Bibliothek: Forschung und Praxis. 39(2015) H.3, S.384-393
-
Dreßler, H.: Fuzzy Information Retrieval (2008)
0.02
0.017879797 = product of:
0.07151919 = sum of:
0.07151919 = weight(_text_:und in 3300) [ClassicSimilarity], result of:
0.07151919 = score(doc=3300,freq=6.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.42443132 = fieldWeight in 3300, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=3300)
0.25 = coord(1/4)
- Abstract
- Nach einer Erläuterung der Grundlagen der Fuzzylogik wird das Prinzip der unscharfen Suche dargestellt und die Unterschiede zum herkömmlichen Information Retrieval beschrieben. Am Beispiel der Suche nach Steinen für ein Mauerwerk wird gezeigt, wie eine unscharfe Suche in der D&WFuzzydatenbank erfolgreich durchgeführt werden kann und zu eindeutigen Ergebnissen führt.
- Source
- Information - Wissenschaft und Praxis. 59(2008) H.6/7, S.351-352