-
Lanvent, A.: Know-how - Suchverfahren : Intelligente Suchmaschinen erzielen mit assoziativen und linguistischen Verfahren beste Ergebnisse. (2004)
0.05
0.05145663 = product of:
0.10291326 = sum of:
0.060392912 = weight(_text_:und in 3988) [ClassicSimilarity], result of:
0.060392912 = score(doc=3988,freq=20.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.38745102 = fieldWeight in 3988, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3988)
0.04252035 = weight(_text_:how in 3988) [ClassicSimilarity], result of:
0.04252035 = score(doc=3988,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.18281938 = fieldWeight in 3988, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0390625 = fieldNorm(doc=3988)
0.5 = coord(2/4)
- Content
- "Die einfachste Form der Volltextsuche ist die Phrasensuche. Hierbei gilt es, den eingegebenen Text in der exakten Schreibweise in sämtlichen relevanten Dokumenten zu finden. Anhand von Joker-Zeichen wie Stern und Fragezeichen kann der Anwender diese Art der Suche erweitern. Boole'sche Parameter verknüpfen einen, zwei oder mehrere Begriffe zu einem Suchstring. Die häufigsten Parameter lauten UND, ODER und NICHT. So lassen sich auch komplexe Anfragen starten, etwa sollen alle Dokumente gefunden werden, die die Begriffe »Schröder« oder »Schroeder«, aber nicht »Bundeskanzler« enthalten. Kennt der Anwender nicht die exakte Schreibweise oder kommen unterschiedliche Ausprägungen eines Wortes in den gesuchten Dokumenten vor, wie Deklinationen, muss er auf fehlertolerante oder linguistische Verfahren zurückgreifen. Einige Tools wie etwa Dt Search und Findword arbeiten mit Wörterbüchern, die auch Flexionen enthalten. Sucht der Nutzer etwa nach »Baum«, findet das Tool auch »Bäume« oder etwa »Baumstamm«. Bei der phonetischen Suche setzen Programme wie Documind Pro und Findword auf einen Algorithmus, der nach dem ähnlichen Klang der Wörter recherchiert. Solche Verfahren sind demnach sprachenabhängig. Sie nehmen den Suchstring »Meier« zum Anlass, auch »Mayer« oder »Meier« nachzuschlagen. Fuzzy Logic ist ein verwandtes Verfahren, das alternative Schreibweisen oder Tippfehler verzeiht. Dieses Verfahren berücksichtigt auch Abweichungen und stellt dabei fest, dass ein bestimmter Begriff zu einem Wortstamm gehört. Eine solche Methode liefert eine größere Trefferliste und findet bei Eingabe von »Microsoft« auch Dokumente mit »Mircosoft« und »Microaoft«. Die Königsdisziplin ist die Assoziative Suche, die die Recherche nach Eingabe eines beliebigen Satzes in der natürlichen Sprache startet. Das Suchkommando »Die Meistertitel von Borussia Mönchengladbach« findet im Idealfall Texte zu den Themen Fußball, Bundesliga und Netzer."
-
Lanvent, A.: Licht im Daten Chaos (2004)
0.03
0.034089833 = product of:
0.06817967 = sum of:
0.03416339 = weight(_text_:und in 3806) [ClassicSimilarity], result of:
0.03416339 = score(doc=3806,freq=10.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.2191754 = fieldWeight in 3806, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3806)
0.03401628 = weight(_text_:how in 3806) [ClassicSimilarity], result of:
0.03401628 = score(doc=3806,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.14625551 = fieldWeight in 3806, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.03125 = fieldNorm(doc=3806)
0.5 = coord(2/4)
- Content
- "Bitte suchen Sie alle Unterlagen, die im PC zum Ibelshäuser-Vertrag in Sprockhövel gespeichert sind. Finden Sie alles, was wir haben - Dokumente, Tabellen, Präsentationen, Scans, E-Mails. Und erledigen Sie das gleich! « Wer diese Aufgabe an das Windows-eigene Suchmodul vergibt, wird zwangsläufig enttäuscht. Denn das Betriebssystem beherrscht weder die formatübergreifende Recherche noch die Kontextsuche, die für solche komplexen Aufträge nötig sind. Professionelle Desktop-Suchmaschinen erledigen Aufgaben dieser Art jedoch im Handumdrehen - genauer gesagt in einer einzigen Sekunde. Spitzenprogramme wie Global Brain benötigen dafür nicht einmal umfangreiche Abfrageformulare. Es genügt, einen Satz im Eingabefeld zu formulieren, der das Thema der gewünschten Dokumente eingrenzt. Dabei suchen die Programme über alle Laufwerke, die sich auf dem System einbinden lassen - also auch im Netzwerk-Ordner (Shared Folder), sofern dieser freigegeben wurde. Allen Testkandidaten - mit Ausnahme von Search 32 - gemeinsam ist, dass sie weitaus bessere Rechercheergebnisse abliefern als Windows, deutlich schneller arbeiten und meist auch in den Online-Postfächern stöbern. Wer schon öfter vergeblich über die Windows-Suche nach wichtigen Dokumenten gefahndet hat, kommt angesichts der Qualität der Search-Engines kaum mehr um die Anschaffung eines Desktop-Suchtools herum. Aber Microsoft will nachbessern. Für den Windows-XP-Nachfolger Longhorn wirbt der Hersteller vor allem mit dem Hinweis auf das neue Dateisystem WinFS, das sämtliche Files auf der Festplatte über Meta-Tags indiziert und dem Anwender damit lange Suchläufe erspart. So sollen sich anders als bei Windows XP alle Dateien zu bestimmten Themen in wenigen Sekunden auflisten lassen - unabhängig vom Format und vom physikalischen Speicherort der Files. Für die Recherche selbst ist dann weder der Dateiname noch das Erstelldatum ausschlaggebend. Anhand der kontextsensitiven Suche von WinFS kann der Anwender einfach einen Suchbefehl wie »Vertragsabschluss mit Firma XYZ, Neunkirchen/Saar« eingeben, der dann ohne Umwege zum Ziel führt."
- Footnote
- Darin auch 2 Teilbeiträge: (1) Know-how - Suchverfahren; (2) Praxis - Windows-Suche und Indexdienst
-
Chang, R.: ¬The development of indexing technology (1993)
0.02
0.024053143 = product of:
0.09621257 = sum of:
0.09621257 = weight(_text_:how in 7023) [ClassicSimilarity], result of:
0.09621257 = score(doc=7023,freq=4.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.41367304 = fieldWeight in 7023, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0625 = fieldNorm(doc=7023)
0.25 = coord(1/4)
- Abstract
- Reviews the basic techniques of computerized indexing, including various file accessing methods such as: Sequential Access Method (SAM); Direct Access Method (DAM); Indexed Sequential Access Method (ISAM), and Virtual Indexed Sequential Access Method (VSAM); and various B-tree (balanced tree)structures. Illustrates how records are stored and accessed, and how B-trees are used to for improving the operations of information retrieval and maintenance
-
Chang, R.: Keyword searching and indexing (1993)
0.02
0.024053143 = product of:
0.09621257 = sum of:
0.09621257 = weight(_text_:how in 7222) [ClassicSimilarity], result of:
0.09621257 = score(doc=7222,freq=4.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.41367304 = fieldWeight in 7222, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0625 = fieldNorm(doc=7222)
0.25 = coord(1/4)
- Abstract
- Explains how a computer indexing system works. Reviews fundamentals of how data are stored and retrieved by computers. Describes B-Tree and B+-Tree indexing structures. Gives basic keyword searching techniques that the user must apply to make use of the indexing programs. The demand for keyword retrieval is increasing and librarians should expect to see the keyword-indexing feature become commonly available
-
Lewandowski, D.: How can library materials be ranked in the OPAC? (2009)
0.02
0.023769598 = product of:
0.095078394 = sum of:
0.095078394 = weight(_text_:how in 3810) [ClassicSimilarity], result of:
0.095078394 = score(doc=3810,freq=10.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.40879655 = fieldWeight in 3810, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0390625 = fieldNorm(doc=3810)
0.25 = coord(1/4)
- Abstract
- Some Online Public Access Catalogues offer a ranking component. However, ranking there is merely text-based and is doomed to fail due to limited text in bibliographic data. The main assumption for the talk is that we are in a situation where the appropriate ranking factors for OPACs should be defined, while the implementation is no major problem. We must define what we want, and not so much focus on the technical work. Some deep thinking is necessary on the "perfect results set" and how we can achieve it through ranking. The talk presents a set of potential ranking factors and clustering possibilities for further discussion. A look at commercial Web search engines could provide us with ideas how ranking can be improved with additional factors. Search engines are way beyond pure text-based ranking and apply ranking factors in the groups like popularity, freshness, personalisation, etc. The talk describes the main factors used in search engines and how derivatives of these could be used for libraries' purposes. The goal of ranking is to provide the user with the best-suitable results on top of the results list. How can this goal be achieved with the library catalogue and also concerning the library's different collections and databases? The assumption is that ranking of such materials is a complex problem and is yet nowhere near solved. Libraries should focus on ranking to improve user experience.
-
Bauckhage, C.: Marginalizing over the PageRank damping factor (2014)
0.02
0.021260176 = product of:
0.0850407 = sum of:
0.0850407 = weight(_text_:how in 927) [ClassicSimilarity], result of:
0.0850407 = score(doc=927,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.36563876 = fieldWeight in 927, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.078125 = fieldNorm(doc=927)
0.25 = coord(1/4)
- Abstract
- In this note, we show how to marginalize over the damping parameter of the PageRank equation so as to obtain a parameter-free version known as TotalRank. Our discussion is meant as a reference and intended to provide a guided tour towards an interesting result that has applications in information retrieval and classification.
-
Quint, B.: Check out the new RANK command on DIALOG (1993)
0.02
0.021260176 = product of:
0.0850407 = sum of:
0.0850407 = weight(_text_:how in 6639) [ClassicSimilarity], result of:
0.0850407 = score(doc=6639,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.36563876 = fieldWeight in 6639, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.078125 = fieldNorm(doc=6639)
0.25 = coord(1/4)
- Abstract
- Describes the RANK command on DIALOG online information service. RANK conducts statistical analysis on an existing set of search results for fields specified by searchers. Details how to use RANK and applications. Points out drawbacks to its use
-
Sparck Jones, K.: IDF term weighting and IR research lessons (2004)
0.02
0.021260176 = product of:
0.0850407 = sum of:
0.0850407 = weight(_text_:how in 5422) [ClassicSimilarity], result of:
0.0850407 = score(doc=5422,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.36563876 = fieldWeight in 5422, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.078125 = fieldNorm(doc=5422)
0.25 = coord(1/4)
- Abstract
- Robertson comments on the theoretical status of IDF term weighting. Its history illustrates how ideas develop in a specific research context, in theory/experiment interaction, and in operational practice.
-
Lalmas, M.; Ruthven, I.: Representing and retrieving structured documents using the Dempster-Shafer theory of evidence : modelling and evaluation (1998)
0.02
0.0210465 = product of:
0.084186 = sum of:
0.084186 = weight(_text_:how in 2076) [ClassicSimilarity], result of:
0.084186 = score(doc=2076,freq=4.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.36196393 = fieldWeight in 2076, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0546875 = fieldNorm(doc=2076)
0.25 = coord(1/4)
- Abstract
- Reports on a theoretical model of structured document indexing and retrieval based on the Dempster-Schafer Theory of Evidence. Includes a description of the model of structured document retrieval, the representation of structured documents, the representation of individual components, how components are combined, details of the combination process, and how relevance is captured within the model. Also presents a detailed account of an implementation of the model, and an evaluation scheme designed to test the effectiveness of the model
-
Mandl, T.: Web- und Multimedia-Dokumente : Neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen (2003)
0.02
0.018712059 = product of:
0.074848235 = sum of:
0.074848235 = weight(_text_:und in 2734) [ClassicSimilarity], result of:
0.074848235 = score(doc=2734,freq=12.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.48018923 = fieldWeight in 2734, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2734)
0.25 = coord(1/4)
- Abstract
- Die Menge an Daten im Internet steigt weiter rapide an. Damit wächst auch der Bedarf an qualitativ hochwertigen Information Retrieval Diensten zur Orientierung und problemorientierten Suche. Die Entscheidung für die Benutzung oder Beschaffung von Information Retrieval Software erfordert aussagekräftige Evaluierungsergebnisse. Dieser Beitrag stellt neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen vor und zeigt den Trend zu Spezialisierung und Diversifizierung von Evaluierungsstudien, die den Realitätsgrad derErgebnisse erhöhen. DerSchwerpunkt liegt auf dem Retrieval von Fachtexten, Internet-Seiten und Multimedia-Objekten.
- Source
- Information - Wissenschaft und Praxis. 54(2003) H.4, S.203-210
-
Purpura, A.; Silvello, G.; Susto, G.A.: Learning to rank from relevance judgments distributions (2022)
0.02
0.018411852 = product of:
0.07364741 = sum of:
0.07364741 = weight(_text_:how in 1646) [ClassicSimilarity], result of:
0.07364741 = score(doc=1646,freq=6.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.31665248 = fieldWeight in 1646, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0390625 = fieldNorm(doc=1646)
0.25 = coord(1/4)
- Abstract
- LEarning TO Rank (LETOR) algorithms are usually trained on annotated corpora where a single relevance label is assigned to each available document-topic pair. Within the Cranfield framework, relevance labels result from merging either multiple expertly curated or crowdsourced human assessments. In this paper, we explore how to train LETOR models with relevance judgments distributions (either real or synthetically generated) assigned to document-topic pairs instead of single-valued relevance labels. We propose five new probabilistic loss functions to deal with the higher expressive power provided by relevance judgments distributions and show how they can be applied both to neural and gradient boosting machine (GBM) architectures. Moreover, we show how training a LETOR model on a sampled version of the relevance judgments from certain probability distributions can improve its performance when relying either on traditional or probabilistic loss functions. Finally, we validate our hypothesis on real-world crowdsourced relevance judgments distributions. Overall, we observe that relying on relevance judgments distributions to train different LETOR models can boost their performance and even outperform strong baselines such as LambdaMART on several test collections.
-
Nagelschmidt, M.: Verfahren zur Anfragemodifikation im Information Retrieval (2008)
0.02
0.018117873 = product of:
0.07247149 = sum of:
0.07247149 = weight(_text_:und in 3774) [ClassicSimilarity], result of:
0.07247149 = score(doc=3774,freq=20.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.4649412 = fieldWeight in 3774, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3774)
0.25 = coord(1/4)
- Abstract
- Für das Modifizieren von Suchanfragen kennt das Information Retrieval vielfältige Möglichkeiten. Nach einer einleitenden Darstellung der Wechselwirkung zwischen Informationsbedarf und Suchanfrage wird eine konzeptuelle und typologische Annäherung an Verfahren zur Anfragemodifikation gegeben. Im Anschluss an eine kurze Charakterisierung des Fakten- und des Information Retrieval, sowie des Vektorraum- und des probabilistischen Modells, werden intellektuelle, automatische und interaktive Modifikationsverfahren vorgestellt. Neben klassischen intellektuellen Verfahren, wie der Blockstrategie und der "Citation Pearl Growing"-Strategie, umfasst die Darstellung der automatischen und interaktiven Verfahren Modifikationsmöglichkeiten auf den Ebenen der Morphologie, der Syntax und der Semantik von Suchtermen. Darüber hinaus werden das Relevance Feedback, der Nutzen informetrischer Analysen und die Idee eines assoziativen Retrievals auf der Basis von Clustering- und terminologischen Techniken, sowie zitationsanalytischen Verfahren verfolgt. Ein Eindruck für die praktischen Gestaltungsmöglichkeiten der behandelten Verfahren soll abschließend durch fünf Anwendungsbeispiele vermittelt werden.
-
French, J.C.; Powell, A.L.; Schulman, E.: Using clustering strategies for creating authority files (2000)
0.02
0.018039858 = product of:
0.07215943 = sum of:
0.07215943 = weight(_text_:how in 5811) [ClassicSimilarity], result of:
0.07215943 = score(doc=5811,freq=4.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.31025478 = fieldWeight in 5811, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.046875 = fieldNorm(doc=5811)
0.25 = coord(1/4)
- Abstract
- As more online databases are integrated into digital libraries, the issue of quality control of the data becomes increasingly important, especially as it relates to the effective retrieval of information. Authority work, the need to discover and reconcile variant forms of strings in bibliographical entries, will become more critical in the future. Spelling variants, misspellings, and transliteration differences will all increase the difficulty of retrieving information. We investigate a number of approximate string matching techniques that have traditionally been used to help with this problem. We then introduce the notion of approximate word matching and show how it can be used to improve detection and categorization of variant forms. We demonstrate the utility of these approaches using data from the Astrophysics Data System and show how we can reduce the human effort involved in the creation of authority files
-
White, R.W.; Jose, J.M.; Ruthven, I.: ¬An implicit feedback approach for interactive information retrieval (2006)
0.02
0.018039858 = product of:
0.07215943 = sum of:
0.07215943 = weight(_text_:how in 1964) [ClassicSimilarity], result of:
0.07215943 = score(doc=1964,freq=4.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.31025478 = fieldWeight in 1964, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.046875 = fieldNorm(doc=1964)
0.25 = coord(1/4)
- Abstract
- Searchers can face problems finding the information they seek. One reason for this is that they may have difficulty devising queries to express their information needs. In this article, we describe an approach that uses unobtrusive monitoring of interaction to proactively support searchers. The approach chooses terms to better represent information needs by monitoring searcher interaction with different representations of top-ranked documents. Information needs are dynamic and can change as a searcher views information. The approach we propose gathers evidence on potential changes in these needs and uses this evidence to choose new retrieval strategies. We present an evaluation of how well our technique estimates information needs, how well it estimates changes in these needs and the appropriateness of the interface support it offers. The results are presented and the avenues for future research identified.
-
Fuhr, N.: Zur Überwindung der Diskrepanz zwischen Retrievalforschung und -praxis (1990)
0.02
0.017081695 = product of:
0.06832678 = sum of:
0.06832678 = weight(_text_:und in 6624) [ClassicSimilarity], result of:
0.06832678 = score(doc=6624,freq=10.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.4383508 = fieldWeight in 6624, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6624)
0.25 = coord(1/4)
- Abstract
- In diesem Beitrag werden einige Forschungsergebnisse des Information Retrieval vorgestellt, die unmittelbar zur Verbesserung der Retrievalqualität für bereits existierende Datenbanken eingesetzt werden können: Linguistische Algorithmen zur Grund- und Stammformreduktion unterstützen die Suche nach Flexions- und Derivationsformen von Suchtermen. Rankingalgorithmen, die Frage- und Dokumentterme gewichten, führen zu signifikant besseren Retrievalergebnissen als beim Booleschen Retrieval. Durch Relevance Feedback können die Retrievalqualität weiter gesteigert und außerdem der Benutzer bei der sukzessiven Modifikation seiner Frageformulierung unterstützt werden. Es wird eine benutzerfreundliche Bedienungsoberfläche für ein System vorgestellt, das auf diesen Konzepten basiert.
-
Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014)
0.02
0.017081695 = product of:
0.06832678 = sum of:
0.06832678 = weight(_text_:und in 2484) [ClassicSimilarity], result of:
0.06832678 = score(doc=2484,freq=10.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.4383508 = fieldWeight in 2484, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2484)
0.25 = coord(1/4)
- Abstract
- Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
-
Behnert, C.; Borst, T.: Neue Formen der Relevanz-Sortierung in bibliothekarischen Informationssystemen : das DFG-Projekt LibRank (2015)
0.02
0.017081695 = product of:
0.06832678 = sum of:
0.06832678 = weight(_text_:und in 392) [ClassicSimilarity], result of:
0.06832678 = score(doc=392,freq=10.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.4383508 = fieldWeight in 392, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=392)
0.25 = coord(1/4)
- Abstract
- Das von der DFG geförderte Projekt LibRank erforscht neue Rankingverfahren für bibliothekarische Informationssysteme, die aufbauend auf Erkenntnissen aus dem Bereich Websuche qualitätsinduzierende Faktoren wie z. B. Aktualität, Popularität und Verfügbarkeit von einzelnen Medien berücksichtigen. Die konzipierten Verfahren werden im Kontext eines in den Wirtschaftswissenschaften häufig genutzten Rechercheportals (EconBiz) entwickelt und in einem Testsystem systematisch evaluiert. Es werden Rankingfaktoren, die für den Bibliotheksbereich von besonderem Interesse sind, vorgestellt und exemplarisch Probleme und Herausforderungen aufgezeigt.
- Source
- Bibliothek: Forschung und Praxis. 39(2015) H.3, S.384-393
-
Frants, V.I.; Shapiro, J.: Control and feedback in a documentary information retrieval system (1991)
0.02
0.01700814 = product of:
0.06803256 = sum of:
0.06803256 = weight(_text_:how in 415) [ClassicSimilarity], result of:
0.06803256 = score(doc=415,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.29251102 = fieldWeight in 415, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0625 = fieldNorm(doc=415)
0.25 = coord(1/4)
- Abstract
- Addresses the problem of control in documentary information retrieval systems is analysed and it is shown why an IR system has to be looked at as an adaptive system. The algorithms of feedback are proposed and it is shown how they depend on the type of the collection of documents: static (no change in the collection between searches) and dynamic (when the change occurs between searches). The proposed algorithms are the basis for the development of the fully automated information retrieval systems
-
Tenopir, C.: Online databases : natural language searching with WIN (1993)
0.02
0.01700814 = product of:
0.06803256 = sum of:
0.06803256 = weight(_text_:how in 7037) [ClassicSimilarity], result of:
0.06803256 = score(doc=7037,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.29251102 = fieldWeight in 7037, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0625 = fieldNorm(doc=7037)
0.25 = coord(1/4)
- Abstract
- WESTLAW is one of the first major commercial online systems to embrace both natural language input and partial match searching. Provides a backgroud to WESTLAW. Explains how the WESTLAW Is Natural (WIN) search engine works. Some searchers find that when searching with commands and Boolean logic, results differ drastically from those produces by searching with WIN. Discusses exact match Boolean logic search engines
-
Ojala, M.: Decisions, decisions, RANK decisions (1994)
0.02
0.01700814 = product of:
0.06803256 = sum of:
0.06803256 = weight(_text_:how in 8225) [ClassicSimilarity], result of:
0.06803256 = score(doc=8225,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.29251102 = fieldWeight in 8225, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0625 = fieldNorm(doc=8225)
0.25 = coord(1/4)
- Abstract
- Describes the RANK command which enables searchers of DIALOG databases do statistical analysis online. Describes the basic features of the ranking command. The fields to which this command can be applied run into the thousands. Shows how RANK can be used for content analysis. Details the limitations of the command and compares it with the SORT command. Offers advice on ranking results without using this command