-
Weiß, B.: Verwandte Seiten finden : "Ähnliche Seiten" oder "What's Related" (2005)
0.01
0.013655921 = product of:
0.054623686 = sum of:
0.054623686 = weight(_text_:und in 993) [ClassicSimilarity], result of:
0.054623686 = score(doc=993,freq=14.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.32416478 = fieldWeight in 993, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=993)
0.25 = coord(1/4)
- Abstract
- Die Link-Struktur-Analyse (LSA) ist nicht nur beim Crawling, dem Webseitenranking, der Abgrenzung geographischer Bereiche, der Vorhersage von Linkverwendungen, dem Auffinden von "Mirror"-Seiten, dem Kategorisieren von Webseiten und beim Generieren von Webseitenstatistiken eines der wichtigsten Analyseverfahren, sondern auch bei der Suche nach verwandten Seiten. Um qualitativ hochwertige verwandte Seiten zu finden, bildet sie nach herrschender Meinung den Hauptbestandteil bei der Identifizierung von ähnlichen Seiten innerhalb themenspezifischer Graphen vernetzter Dokumente. Dabei wird stets von zwei Annahmen ausgegangen: Links zwischen zwei Dokumenten implizieren einen verwandten Inhalt beider Dokumente und wenn die Dokumente aus unterschiedlichen Quellen (von unterschiedlichen Autoren, Hosts, Domänen, .) stammen, so bedeutet dies das eine Quelle die andere über einen Link empfiehlt. Aufbauend auf dieser Idee entwickelte Kleinberg 1998 den HITS Algorithmus um verwandte Seiten über die Link-Struktur-Analyse zu bestimmen. Dieser Ansatz wurde von Bharat und Henzinger weiterentwickelt und später auch in Algorithmen wie dem Companion und Cocitation Algorithmus zur Suche von verwandten Seiten basierend auf nur einer Anfrage-URL weiter verfolgt. In der vorliegenden Seminararbeit sollen dabei die Algorithmen, die hinter diesen Überlegungen stehen, näher erläutert werden und im Anschluss jeweils neuere Forschungsansätze auf diesem Themengebiet aufgezeigt werden.
- Content
- Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/BurkhardWei%DF.pdf
-
Frants, V.I.; Shapiro, J.: Control and feedback in a documentary information retrieval system (1991)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 415) [ClassicSimilarity], result of:
0.05273419 = score(doc=415,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 415, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=415)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science. 42(1991) no.9, S.623-634
-
Tenopir, C.: Online databases : natural language searching with WIN (1993)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 7037) [ClassicSimilarity], result of:
0.05273419 = score(doc=7037,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 7037, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=7037)
0.25 = coord(1/4)
- Source
- Library journal. 118(1993) no.18, S.54-56
-
Nakkouzi, Z.S.; Eastman, C.M.: Query formulation for handling negation in information retrieval systems (1990)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 3599) [ClassicSimilarity], result of:
0.05273419 = score(doc=3599,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 3599, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=3599)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science. 41(1990) no.3, S.171-182
-
Wong, S.K.M.; Yao, Y.Y.: Query formulation in linear retrieval models (1990)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 3639) [ClassicSimilarity], result of:
0.05273419 = score(doc=3639,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 3639, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=3639)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science. 41(1990) no.5, S.334-341
-
Robertson, M.; Willett, P.: ¬An upperbound to the performance of ranked output searching : optimal weighting of query terms using a genetic algorithms (1996)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 46) [ClassicSimilarity], result of:
0.05273419 = score(doc=46,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 46, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=46)
0.25 = coord(1/4)
- Source
- Journal of documentation. 52(1996) no.4, S.405-420
-
Longshu, L.; Xia, Z.: On an aproximate fuzzy information retrieval agent (1998)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 4294) [ClassicSimilarity], result of:
0.05273419 = score(doc=4294,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 4294, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=4294)
0.25 = coord(1/4)
- Source
- Journal of the China Society for Scientific and Technical Information. 17(1998) no.3, S.180-184
-
Kulyukin, V.A.; Settle, A.: Ranked retrieval with semantic networks and vector spaces (2001)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 934) [ClassicSimilarity], result of:
0.05273419 = score(doc=934,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 934, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=934)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science and technology. 52(2001) no.14, S.1224-1233
-
Losada, D.E.; Barreiro, A.: Emebedding term similarity and inverse document frequency into a logical model of information retrieval (2003)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 2422) [ClassicSimilarity], result of:
0.05273419 = score(doc=2422,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 2422, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=2422)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science and technology. 54(2003) no.4, S.285-301
-
Croft, W.B.; Harper, D.J.: Using probabilistic models of document retrieval without relevance information (1979)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 5520) [ClassicSimilarity], result of:
0.05273419 = score(doc=5520,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 5520, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=5520)
0.25 = coord(1/4)
- Source
- Journal of documentation. 35(1979) no.4, S.285-295
-
Stock, W.G.: On relevance distributions (2006)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 116) [ClassicSimilarity], result of:
0.05273419 = score(doc=116,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 116, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=116)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science and Technology. 57(2006) no.8, S.1126-1129
-
Hubert, G.; Mothe, J.: ¬An adaptable search engine for multimodal information retrieval (2009)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 3951) [ClassicSimilarity], result of:
0.05273419 = score(doc=3951,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 3951, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=3951)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science and Technology. 60(2009) no.8, S.1625-1634
-
Bornmann, L.; Mutz, R.: From P100 to P100' : a new citation-rank approach (2014)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 2431) [ClassicSimilarity], result of:
0.05273419 = score(doc=2431,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 2431, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=2431)
0.25 = coord(1/4)
- Source
- Journal of the Association for Information Science and Technology. 65(2014) no.9, S.1939-1943
-
Kanaeva, Z.: Ranking: Google und CiteSeer (2005)
0.01
0.01251586 = product of:
0.05006344 = sum of:
0.05006344 = weight(_text_:und in 4276) [ClassicSimilarity], result of:
0.05006344 = score(doc=4276,freq=6.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.29710194 = fieldWeight in 4276, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=4276)
0.25 = coord(1/4)
- Abstract
- Im Rahmen des klassischen Information Retrieval wurden verschiedene Verfahren für das Ranking sowie die Suche in einer homogenen strukturlosen Dokumentenmenge entwickelt. Die Erfolge der Suchmaschine Google haben gezeigt dass die Suche in einer zwar inhomogenen aber zusammenhängenden Dokumentenmenge wie dem Internet unter Berücksichtigung der Dokumentenverbindungen (Links) sehr effektiv sein kann. Unter den von der Suchmaschine Google realisierten Konzepten ist ein Verfahren zum Ranking von Suchergebnissen (PageRank), das in diesem Artikel kurz erklärt wird. Darüber hinaus wird auf die Konzepte eines Systems namens CiteSeer eingegangen, welches automatisch bibliographische Angaben indexiert (engl. Autonomous Citation Indexing, ACI). Letzteres erzeugt aus einer Menge von nicht vernetzten wissenschaftlichen Dokumenten eine zusammenhängende Dokumentenmenge und ermöglicht den Einsatz von Banking-Verfahren, die auf den von Google genutzten Verfahren basieren.
- Source
- Information - Wissenschaft und Praxis. 56(2005) H.2, S.87-92
-
Fuhr, N.: Rankingexperimente mit gewichteter Indexierung (1986)
0.01
0.012387486 = product of:
0.049549945 = sum of:
0.049549945 = weight(_text_:und in 3051) [ClassicSimilarity], result of:
0.049549945 = score(doc=3051,freq=2.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.29405463 = fieldWeight in 3051, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=3051)
0.25 = coord(1/4)
- Source
- Automatische Indexierung zwischen Forschung und Anwendung, Hrsg.: G. Lustig
-
Walz, J.: Analyse der Übertragbarkeit allgemeiner Rankingfaktoren von Web-Suchmaschinen auf Discovery-Systeme (2018)
0.01
0.012387486 = product of:
0.049549945 = sum of:
0.049549945 = weight(_text_:und in 744) [ClassicSimilarity], result of:
0.049549945 = score(doc=744,freq=8.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.29405463 = fieldWeight in 744, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=744)
0.25 = coord(1/4)
- Abstract
- Ziel: Ziel dieser Bachelorarbeit war es, die Übertragbarkeit der allgemeinen Rankingfaktoren, wie sie von Web-Suchmaschinen verwendet werden, auf Discovery-Systeme zu analysieren. Dadurch könnte das bisher hauptsächlich auf dem textuellen Abgleich zwischen Suchanfrage und Dokumenten basierende bibliothekarische Ranking verbessert werden. Methode: Hierfür wurden Faktoren aus den Gruppen Popularität, Aktualität, Lokalität, Technische Faktoren, sowie dem personalisierten Ranking diskutiert. Die entsprechenden Rankingfaktoren wurden nach ihrer Vorkommenshäufigkeit in der analysierten Literatur und der daraus abgeleiteten Wichtigkeit, ausgewählt. Ergebnis: Von den 23 untersuchten Rankingfaktoren sind 14 (61 %) direkt vom Ranking der Web-Suchmaschinen auf das Ranking der Discovery-Systeme übertragbar. Zu diesen zählen unter anderem das Klickverhalten, das Erstellungsdatum, der Nutzerstandort, sowie die Sprache. Sechs (26%) der untersuchten Faktoren sind dagegen nicht übertragbar (z.B. Aktualisierungsfrequenz und Ladegeschwindigkeit). Die Linktopologie, die Nutzungshäufigkeit, sowie die Aktualisierungsfrequenz sind mit entsprechenden Modifikationen übertragbar.
- Imprint
- Köln : Fakultät für Informations- und Kommunikationswissenschaften
-
Mandl, T.: Tolerantes Information Retrieval : Neuronale Netze zur Erhöhung der Adaptivität und Flexibilität bei der Informationssuche (2001)
0.01
0.012214227 = product of:
0.048856907 = sum of:
0.048856907 = weight(_text_:und in 965) [ClassicSimilarity], result of:
0.048856907 = score(doc=965,freq=70.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.2899418 = fieldWeight in 965, product of:
8.3666 = tf(freq=70.0), with freq of:
70.0 = termFreq=70.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=965)
0.25 = coord(1/4)
- Abstract
- Ein wesentliches Bedürfnis im Rahmen der Mensch-Maschine-Interaktion ist die Suche nach Information. Um Information Retrieval (IR) Systeme kognitiv adäquat zu gestalten und sie an den Menschen anzupassen bieten sich Modelle des Soft Computing an. Ein umfassender state-of-the-art Bericht zu neuronalen Netzen im IR zeigt dass die meisten bestehenden Modelle das Potential neuronaler Netze nicht ausschöpfen. Das vorgestellte COSIMIR-Modell (Cognitive Similarity learning in Information Retrieval) basiert auf neuronalen Netzen und lernt, die Ähnlichkeit zwischen Anfrage und Dokument zu berechnen. Es trägt somit die kognitive Modellierung in den Kern eines IR Systems. Das Transformations-Netzwerk ist ein weiteres neuronales Netzwerk, das die Behandlung von Heterogenität anhand von Expertenurteilen lernt. Das COSIMIR-Modell und das Transformations-Netzwerk werden ausführlich diskutiert und anhand realer Datenmengen evaluiert
- Content
- Kapitel: 1 Einleitung - 2 Grundlagen des Information Retrieval - 3 Grundlagen neuronaler Netze - 4 Neuronale Netze im Information Retrieval - 5 Heterogenität und ihre Behandlung im Information Retrieval - 6 Das COSIMIR-Modell - 7 Experimente mit dem COSIMIR-Modell und dem Transformations-Netzwerk - 8 Fazit
- Footnote
- Rez. in: nfd - Information 54(2003) H.6, S.379-380 (U. Thiel): "Kannte G. Salton bei der Entwicklung des Vektorraummodells die kybernetisch orientierten Versuche mit assoziativen Speicherstrukturen? An diese und ähnliche Vermutungen, die ich vor einigen Jahren mit Reginald Ferber und anderen Kollegen diskutierte, erinnerte mich die Thematik des vorliegenden Buches. Immerhin lässt sich feststellen, dass die Vektorrepräsentation eine genial einfache Darstellung sowohl der im Information Retrieval (IR) als grundlegende Datenstruktur benutzten "inverted files" als auch der assoziativen Speichermatrizen darstellt, die sich im Laufe der Zeit Über Perzeptrons zu Neuronalen Netzen (NN) weiterentwickelten. Dieser formale Zusammenhang stimulierte in der Folge eine Reihe von Ansätzen, die Netzwerke im Retrieval zu verwenden, wobei sich, wie auch im vorliegenden Band, hybride Ansätze, die Methoden aus beiden Disziplinen kombinieren, als sehr geeignet erweisen. Aber der Reihe nach... Das Buch wurde vom Autor als Dissertation beim Fachbereich IV "Sprachen und Technik" der Universität Hildesheim eingereicht und resultiert aus einer Folge von Forschungsbeiträgen zu mehreren Projekten, an denen der Autor in der Zeit von 1995 bis 2000 an verschiedenen Standorten beteiligt war. Dies erklärt die ungewohnte Breite der Anwendungen, Szenarien und Domänen, in denen die Ergebnisse gewonnen wurden. So wird das in der Arbeit entwickelte COSIMIR Modell (COgnitive SIMilarity learning in Information Retrieval) nicht nur anhand der klassischen Cranfield-Kollektion evaluiert, sondern auch im WING-Projekt der Universität Regensburg im Faktenretrieval aus einer Werkstoffdatenbank eingesetzt. Weitere Versuche mit der als "Transformations-Netzwerk" bezeichneten Komponente, deren Aufgabe die Abbildung von Gewichtungsfunktionen zwischen zwei Termräumen ist, runden das Spektrum der Experimente ab. Aber nicht nur die vorgestellten Resultate sind vielfältig, auch der dem Leser angebotene "State-of-the-Art"-Überblick fasst in hoch informativer Breite Wesentliches aus den Gebieten IR und NN zusammen und beleuchtet die Schnittpunkte der beiden Bereiche. So werden neben den Grundlagen des Text- und Faktenretrieval die Ansätze zur Verbesserung der Adaptivität und zur Beherrschung von Heterogenität vorgestellt, während als Grundlagen Neuronaler Netze neben einer allgemeinen Einführung in die Grundbegriffe u.a. das Backpropagation-Modell, KohonenNetze und die Adaptive Resonance Theory (ART) geschildert werden. Einweiteres Kapitel stellt die bisherigen NN-orientierten Ansätze im IR vor und rundet den Abriss der relevanten Forschungslandschaft ab. Als Vorbereitung der Präsentation des COSIMIR-Modells schiebt der Autor an dieser Stelle ein diskursives Kapitel zum Thema Heterogenität im IR ein, wodurch die Ziele und Grundannahmen der Arbeit noch einmal reflektiert werden. Als Dimensionen der Heterogenität werden der Objekttyp, die Qualität der Objekte und ihrer Erschließung und die Mehrsprachigkeit genannt. Wenn auch diese Systematik im Wesentlichen die Akzente auf Probleme aus den hier tangierten Projekten legt, und weniger eine umfassende Aufbereitung z.B. der Literatur zum Problem der Relevanz anstrebt, ist sie dennoch hilfreich zum Verständnis der in den nachfolgenden Kapitel oft nur implizit angesprochenen Designentscheidungen bei der Konzeption der entwickelten Prototypen. Der Ansatz, Heterogenität durch Transformationen zu behandeln, wird im speziellen Kontext der NN konkretisiert, wobei andere Möglichkeiten, die z.B. Instrumente der Logik und Probabilistik einzusetzen, nur kurz diskutiert werden. Eine weitergehende Analyse hätte wohl auch den Rahmen der Arbeit zu weit gespannt,
da nun nach fast 200 Seiten der Hauptteil der Dissertation folgt - die Vorstellung und Bewertung des bereits erwähnten COSIMIR Modells. Das COSIMIR Modell "berechnet die Ähnlichkeit zwischen den zwei anliegenden Input-Vektoren" (P.194). Der Output des Netzwerks wird an einem einzigen Knoten abgegriffen, an dem sich ein sogenannten Relevanzwert einstellt, wenn die Berechnungen der Gewichtungen interner Knoten zum Abschluss kommen. Diese Gewichtungen hängen von den angelegten Inputvektoren, aus denen die Gewichte der ersten Knotenschicht ermittelt werden, und den im Netzwerk vorgegebenen Kantengewichten ab. Die Gewichtung von Kanten ist der Kernpunkt des neuronalen Ansatzes: In Analogie zum biologischen Urbild (Dendrit mit Synapsen) wächst das Gewicht der Kante mit jeder Aktivierung während einer Trainingsphase. Legt man in dieser Phase zwei Inputvektoren, z.B. Dokumentvektor und Ouery gleichzeitig mit dem Relevanzurteil als Wert des Outputknoten an, verteilen sich durch den BackpropagationProzess die Gewichte entlang der Pfade, die zwischen den beteiligten Knoten bestehen. Da alle Knoten miteinander verbunden sind, entstehen nach mehreren Trainingsbeispielen bereits deutlich unterschiedliche Kantengewichte, weil die aktiv beteiligten Kanten die Änderungen akkumulativ speichern. Eine Variation des Verfahrens benutzt das NN als "Transformationsnetzwerk", wobei die beiden Inputvektoren mit einer Dokumentrepräsentation und einem dazugehörigen Indexat (von einem Experten bereitgestellt) belegt werden. Neben der schon aufgezeigten Trainingsnotwendigkeit weisen die Neuronalen Netze eine weitere intrinsische Problematik auf: Je mehr äußere Knoten benötigt werden, desto mehr interne Kanten (und bei der Verwendung von Zwischenschichten auch Knoten) sind zu verwalten, deren Anzahl nicht linear wächst. Dieser algorithmische Befund setzt naiven Einsätzen der NN-Modelle in der Praxis schnell Grenzen, deshalb ist es umso verdienstvoller, dass der Autor einen innovativen Weg zur Lösung des Problems mit den Mitteln des IR vorschlagen kann. Er verwendet das Latent Semantic Indexing, welches Dokumentrepräsentationen aus einem hochdimensionalen Vektorraum in einen niederdimensionalen abbildet, um die Anzahl der Knoten deutlich zu reduzieren. Damit ist eine sehr schöne Synthese gelungen, welche die eingangs angedeuteten formalen Übereinstimmungen zwischen Vektorraummodellen im IR und den NN aufzeigt und ausnutzt.
Im abschließenden Kapitel des Buchs berichtet der Autor über eine Reihe von Experimenten, die im Kontext unterschiedlicher Anwendungen durchgeführt wurden. Die Evaluationen wurden sehr sorgfältig durchgeführt und werden kompetent kommentiert, so dass der Leser sich ein Bild von der Komplexität der Untersuchungen machen kann. Inhaltlich sind die Ergebnisse unterschiedlich, die Verwendung des NN-Ansatzes ist sehr abhängig von der Menge und Qualität des Trainingsmaterials (so sind die Ergebnisse auf der Cranfield-Kollektion wegen der geringen Anzahl von zur Verfügung stehenden Relevanzurteilen schlechter als die der traditionellen Verfahren). Das Experiment mit Werkstoffinformationen im Projekt WING ist eine eher traditionelle NN-Applikation: Aus Merkmalsvektoren soll auf die "Anwendungsähnlichkeit" von Werkstoffen geschlossen werden, was offenbar gut gelingt. Hier sind die konkurrierenden Verfahren aber weniger im IR zu vermuten, sondern eher im Gebiet des Data Mining. Die Versuche mit Textdaten sind Anregung, hier weitere, systematischere Untersuchungen vorzunehmen. So sollte z.B. nicht nur ein Vergleich mit klassischen One-shot IR-Verfahren durchgeführt werden, viel interessanter und aussagekräftiger ist die Gegenüberstellung von NN-Systemen und lernfähigen IR-Systemen, die z.B. über Relevance Feedback Wissen akkumulieren (vergleichbar den NN in der Trainingsphase). Am Ende könnte dann nicht nur ein einheitliches Modell stehen, sondern auch Erkenntnisse darüber, welches Lernverfahren wann vorzuziehen ist. Fazit: Das Buch ist ein hervorragendes Beispiel der "Schriften zur Informationswissenschaft", mit denen der HI (Hochschulverband für Informationswissenschaft) die Ergebnisse der informationswissenschaftlichen Forschung seit etlichen Jahren einem größerem Publikum vorstellt. Es bietet einen umfassenden Überblick zum dynamisch sich entwickelnden Gebiet der Neuronalen Netze im IR, die sich anschicken, ein "tolerantes Information Retrieval" zu ermöglichen."
-
Li, J.; Willett, P.: ArticleRank : a PageRank-based alternative to numbers of citations for analysing citation networks (2009)
0.01
0.011652719 = product of:
0.046610877 = sum of:
0.046610877 = weight(_text_:journal in 1751) [ClassicSimilarity], result of:
0.046610877 = score(doc=1751,freq=4.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.21892832 = fieldWeight in 1751, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0390625 = fieldNorm(doc=1751)
0.25 = coord(1/4)
- Abstract
- Purpose - The purpose of this paper is to suggest an alternative to the widely used Times Cited criterion for analysing citation networks. The approach involves taking account of the natures of the papers that cite a given paper, so as to differentiate between papers that attract the same number of citations. Design/methodology/approach - ArticleRank is an algorithm that has been derived from Google's PageRank algorithm to measure the influence of journal articles. ArticleRank is applied to two datasets - a citation network based on an early paper on webometrics, and a self-citation network based on the 19 most cited papers in the Journal of Documentation - using citation data taken from the Web of Knowledge database. Findings - ArticleRank values provide a different ranking of a set of papers from that provided by the corresponding Times Cited values, and overcomes the inability of the latter to differentiate between papers with the same numbers of citations. The difference in rankings between Times Cited and ArticleRank is greatest for the most heavily cited articles in a dataset. Originality/value - This is a novel application of the PageRank algorithm.
-
Fuhr, N.: Modelle im Information Retrieval (2023)
0.01
0.011541359 = product of:
0.046165437 = sum of:
0.046165437 = weight(_text_:und in 1801) [ClassicSimilarity], result of:
0.046165437 = score(doc=1801,freq=10.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.27396923 = fieldWeight in 1801, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1801)
0.25 = coord(1/4)
- Abstract
- Information-Retrieval-Modelle -(IR-Modelle) spezifizieren, wie zu einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Ausgangsbasis jedes Modells sind dabei zunächst bestimmte Annahmen über die Wissensrepräsentation (s. Teil B Methoden und Systeme der Inhaltserschließung) von Fragen und Dokumenten. Hier bezeichnen wir die Elemente dieser Repräsentationen als Terme, wobei es aus der Sicht des Modells egal ist, wie diese Terme aus dem Dokument (und analog aus der von Benutzenden eingegebenen Anfrage) abgeleitet werden: Bei Texten werden hierzu häufig computerlinguistische Methoden eingesetzt, aber auch komplexere automatische oder manuelle Erschließungsverfahren können zur Anwendung kommen. Repräsentationen besitzen ferner eine bestimmte Struktur. Ein Dokument wird meist als Menge oder Multimenge von Termen aufgefasst, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Diese Dokumentrepräsentation wird wiederum auf eine sogenannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oder 1) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Analog dazu gibt es eine Fragerepräsentation; legt man eine natürlichsprachige Anfrage zugrunde, so kann man die o. g. Verfahren für Dokumenttexte anwenden. Alternativ werden auch grafische oder formale Anfragesprachen verwendet, wobei aus Sicht der Modelle insbesondere deren logische Struktur (etwa beim Booleschen Retrieval) relevant ist. Die Fragerepräsentation wird dann in eine Fragebeschreibung überführt.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Couvreur, T.R.; Benzel, R.N.; Miller, S.F.; Zeitler, D.N.; Lee, D.L.; Singhal, M.; Shivaratri, N.; Wong, W.Y.P.: ¬An analysis of performance and cost factors in searching large text databases using parallel search systems (1994)
0.01
0.011535604 = product of:
0.046142414 = sum of:
0.046142414 = weight(_text_:journal in 7656) [ClassicSimilarity], result of:
0.046142414 = score(doc=7656,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.21672799 = fieldWeight in 7656, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0546875 = fieldNorm(doc=7656)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science. 45(1994) no.7, S.443-464