Search (60 results, page 1 of 3)

  • × theme_ss:"Retrievalalgorithmen"
  1. Elsweiler, D.; Kruschwitz, U.: Interaktives Information Retrieval (2023) 0.08
    0.077978365 = product of:
      0.15595673 = sum of:
        0.06043074 = weight(_text_:und in 1798) [ClassicSimilarity], result of:
          0.06043074 = score(doc=1798,freq=8.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.39207286 = fieldWeight in 1798, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1798)
        0.09552599 = weight(_text_:https in 1798) [ClassicSimilarity], result of:
          0.09552599 = score(doc=1798,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.34856486 = fieldWeight in 1798, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0625 = fieldNorm(doc=1798)
      0.5 = coord(2/4)
    
    Abstract
    Interaktives Information Retrieval (IIR) zielt darauf ab, die komplexen Interaktionen zwischen Nutzer*innen und Systemen im IR zu verstehen. Es gibt umfangreiche Literatur zu Themen wie der formalen Modellierung des Suchverhaltens, der Simulation der Interaktion, den interaktiven Funktionen zur Unterstützung des Suchprozesses und der Evaluierung interaktiver Suchsysteme. Dabei ist die interaktive Unterstützung nicht allein auf die Suche beschränkt, sondern hat ebenso die Hilfe bei Navigation und Exploration zum Ziel.
    Footnote
    Vgl.: https://doi.org/10.1515/9783110769043.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  2. Hora, M.: Methoden für das Ranking in Discovery-Systemen (2018) 0.07
    0.06823107 = product of:
      0.13646214 = sum of:
        0.052876893 = weight(_text_:und in 968) [ClassicSimilarity], result of:
          0.052876893 = score(doc=968,freq=8.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.34306374 = fieldWeight in 968, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=968)
        0.08358524 = weight(_text_:https in 968) [ClassicSimilarity], result of:
          0.08358524 = score(doc=968,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=968)
      0.5 = coord(2/4)
    
    Abstract
    Discovery-Systeme bieten meist als Standardeinstellung eine Sortierung nach Relevanz an. Wie die Relevanz ermittelt wird, ist häufig intransparent. Dabei wären Kenntnisse darüber aus Nutzersicht ein wichtiger Faktor in der Informationskompetenz, während Bibliotheken sicherstellen sollten, dass das Ranking zum eigenen Bestand und Publikum passt. In diesem Aufsatz wird dargestellt, wie Discovery-Systeme Treffer auswählen und bewerten. Dazu gehören Indexierung, Prozessierung, Text-Matching und weitere Relevanzkriterien, z. B. Popularität oder Verfügbarkeit. Schließlich müssen alle betrachteten Kriterien zu einem zentralen Score zusammengefasst werden. Ein besonderer Fokus wird auf das Ranking von EBSCO Discovery Service, Primo und Summon gelegt.
    Content
    Vgl.: https://journals.ub.uni-heidelberg.de/index.php/bibliothek/article/view/57797. Vgl. auch: URN (PDF): http://nbn-resolving.de/urn:nbn:de:bsz:16-pb-577977.
  3. Behnert, C.; Plassmeier, K.; Borst, T.; Lewandowski, D.: Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme (2019) 0.07
    0.06823107 = product of:
      0.13646214 = sum of:
        0.052876893 = weight(_text_:und in 23) [ClassicSimilarity], result of:
          0.052876893 = score(doc=23,freq=8.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.34306374 = fieldWeight in 23, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=23)
        0.08358524 = weight(_text_:https in 23) [ClassicSimilarity], result of:
          0.08358524 = score(doc=23,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 23, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=23)
      0.5 = coord(2/4)
    
    Abstract
    Dieser Beitrag beschreibt eine Studie zur Entwicklung und Evaluierung von Rankingverfahren für bibliothekarische Informationssysteme. Dazu wurden mögliche Faktoren für das Relevanzranking ausgehend von den Verfahren in Websuchmaschinen identifiziert, auf den Bibliothekskontext übertragen und systematisch evaluiert. Mithilfe eines Testsystems, das auf dem ZBW-Informationsportal EconBiz und einer web-basierten Software zur Evaluierung von Suchsystemen aufsetzt, wurden verschiedene Relevanzfaktoren (z. B. Popularität in Verbindung mit Aktualität) getestet. Obwohl die getesteten Rankingverfahren auf einer theoretischen Ebene divers sind, konnten keine einheitlichen Verbesserungen gegenüber den Baseline-Rankings gemessen werden. Die Ergebnisse deuten darauf hin, dass eine Adaptierung des Rankings auf individuelle Nutzer bzw. Nutzungskontexte notwendig sein könnte, um eine höhere Performance zu erzielen.
    Content
    Vgl.: https://doi.org/10.1515/iwp-2019-0004.
    Source
    Information - Wissenschaft und Praxis. 70(2019) H.1, S.14-23
  4. Reimer, U.: Empfehlungssysteme (2023) 0.06
    0.060487427 = product of:
      0.12097485 = sum of:
        0.037389614 = weight(_text_:und in 1520) [ClassicSimilarity], result of:
          0.037389614 = score(doc=1520,freq=4.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.24258271 = fieldWeight in 1520, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1520)
        0.08358524 = weight(_text_:https in 1520) [ClassicSimilarity], result of:
          0.08358524 = score(doc=1520,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 1520, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1520)
      0.5 = coord(2/4)
    
    Abstract
    Mit der wachsenden Informationsflut steigen die Anforderungen an Informationssysteme, aus der Menge potenziell relevanter Information die in einem bestimmten Kontext relevanteste zu selektieren. Empfehlungssysteme spielen hier eine besondere Rolle, da sie personalisiert - d. h. kontextspezifisch und benutzerindividuell - relevante Information herausfiltern können. Definition: Ein Empfehlungssystem empfiehlt einem Benutzer bzw. einer Benutzerin in einem definierten Kontext aus einer gegebenen Menge von Empfehlungsobjekten eine Teilmenge als relevant. Empfehlungssysteme machen Benutzer auf Objekte aufmerksam, die sie möglicherweise nie gefunden hätten, weil sie nicht danach gesucht hätten oder sie in der schieren Menge an insgesamt relevanter Information untergegangen wären.
    Footnote
    Vgl.: https://doi.org/10.1515/9783110769043.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  5. Walz, J.: Analyse der Übertragbarkeit allgemeiner Rankingfaktoren von Web-Suchmaschinen auf Discovery-Systeme (2018) 0.06
    0.058483772 = product of:
      0.116967544 = sum of:
        0.04532305 = weight(_text_:und in 744) [ClassicSimilarity], result of:
          0.04532305 = score(doc=744,freq=8.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.29405463 = fieldWeight in 744, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=744)
        0.07164449 = weight(_text_:https in 744) [ClassicSimilarity], result of:
          0.07164449 = score(doc=744,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.26142365 = fieldWeight in 744, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.046875 = fieldNorm(doc=744)
      0.5 = coord(2/4)
    
    Abstract
    Ziel: Ziel dieser Bachelorarbeit war es, die Übertragbarkeit der allgemeinen Rankingfaktoren, wie sie von Web-Suchmaschinen verwendet werden, auf Discovery-Systeme zu analysieren. Dadurch könnte das bisher hauptsächlich auf dem textuellen Abgleich zwischen Suchanfrage und Dokumenten basierende bibliothekarische Ranking verbessert werden. Methode: Hierfür wurden Faktoren aus den Gruppen Popularität, Aktualität, Lokalität, Technische Faktoren, sowie dem personalisierten Ranking diskutiert. Die entsprechenden Rankingfaktoren wurden nach ihrer Vorkommenshäufigkeit in der analysierten Literatur und der daraus abgeleiteten Wichtigkeit, ausgewählt. Ergebnis: Von den 23 untersuchten Rankingfaktoren sind 14 (61 %) direkt vom Ranking der Web-Suchmaschinen auf das Ranking der Discovery-Systeme übertragbar. Zu diesen zählen unter anderem das Klickverhalten, das Erstellungsdatum, der Nutzerstandort, sowie die Sprache. Sechs (26%) der untersuchten Faktoren sind dagegen nicht übertragbar (z.B. Aktualisierungsfrequenz und Ladegeschwindigkeit). Die Linktopologie, die Nutzungshäufigkeit, sowie die Aktualisierungsfrequenz sind mit entsprechenden Modifikationen übertragbar.
    Content
    Vgl.: https://publiscologne.th-koeln.de/frontdoor/index/index/searchtype/authorsearch/author/Julia+Walz/docId/1169/start/0/rows/10.
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
  6. Fuhr, N.: Modelle im Information Retrieval (2023) 0.05
    0.050965503 = product of:
      0.101931006 = sum of:
        0.04222726 = weight(_text_:und in 1801) [ClassicSimilarity], result of:
          0.04222726 = score(doc=1801,freq=10.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.27396923 = fieldWeight in 1801, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1801)
        0.05970374 = weight(_text_:https in 1801) [ClassicSimilarity], result of:
          0.05970374 = score(doc=1801,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.21785304 = fieldWeight in 1801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1801)
      0.5 = coord(2/4)
    
    Abstract
    Information-Retrieval-Modelle -(IR-Modelle) spezifizieren, wie zu einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Ausgangsbasis jedes Modells sind dabei zunächst bestimmte Annahmen über die Wissensrepräsentation (s. Teil B Methoden und Systeme der Inhaltserschließung) von Fragen und Dokumenten. Hier bezeichnen wir die Elemente dieser Repräsentationen als Terme, wobei es aus der Sicht des Modells egal ist, wie diese Terme aus dem Dokument (und analog aus der von Benutzenden eingegebenen Anfrage) abgeleitet werden: Bei Texten werden hierzu häufig computerlinguistische Methoden eingesetzt, aber auch komplexere automatische oder manuelle Erschließungsverfahren können zur Anwendung kommen. Repräsentationen besitzen ferner eine bestimmte Struktur. Ein Dokument wird meist als Menge oder Multimenge von Termen aufgefasst, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Diese Dokumentrepräsentation wird wiederum auf eine sogenannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oder 1) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Analog dazu gibt es eine Fragerepräsentation; legt man eine natürlichsprachige Anfrage zugrunde, so kann man die o. g. Verfahren für Dokumenttexte anwenden. Alternativ werden auch grafische oder formale Anfragesprachen verwendet, wobei aus Sicht der Modelle insbesondere deren logische Struktur (etwa beim Booleschen Retrieval) relevant ist. Die Fragerepräsentation wird dann in eine Fragebeschreibung überführt.
    Footnote
    Vgl.: https://doi.org/10.1515/9783110769043.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  7. Qi, Q.; Hessen, D.J.; Heijden, P.G.M. van der: Improving information retrieval through correspondenceanalysis instead of latent semantic analysis (2023) 0.03
    0.025330152 = product of:
      0.10132061 = sum of:
        0.10132061 = weight(_text_:https in 2047) [ClassicSimilarity], result of:
          0.10132061 = score(doc=2047,freq=4.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.36970887 = fieldWeight in 2047, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.046875 = fieldNorm(doc=2047)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://www.researchgate.net/publication/373808290_Improving_information_retrieval_through_correspondence_analysis_instead_of_latent_semantic_analysis.
    Source
    Journal of intelligent information systems [https://doi.org/10.1007/s10844-023-00815-y]
  8. Purpura, A.; Silvello, G.; Susto, G.A.: Learning to rank from relevance judgments distributions (2022) 0.02
    0.02110846 = product of:
      0.08443384 = sum of:
        0.08443384 = weight(_text_:https in 1646) [ClassicSimilarity], result of:
          0.08443384 = score(doc=1646,freq=4.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30809072 = fieldWeight in 1646, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1646)
      0.25 = coord(1/4)
    
    Content
    https://asistdl.onlinelibrary.wiley.com/doi/10.1002/asi.24629. Vgl.: https://doi.org/10.1002/asi.24629.
  9. Wiggers, G.; Verberne, S.; Loon, W. van; Zwenne, G.-J.: Bibliometric-enhanced legal information retrieval : combining usage and citations as flavors of impact relevance (2023) 0.02
    0.02110846 = product of:
      0.08443384 = sum of:
        0.08443384 = weight(_text_:https in 2024) [ClassicSimilarity], result of:
          0.08443384 = score(doc=2024,freq=4.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30809072 = fieldWeight in 2024, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2024)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://asistdl.onlinelibrary.wiley.com/toc/23301643/current. https://doi.org/10.1002/asi.24799.
  10. Moffat, A.; Mackenzie, J.: How much freedom does an effectiveness metric really have? (2024) 0.02
    0.02110846 = product of:
      0.08443384 = sum of:
        0.08443384 = weight(_text_:https in 2289) [ClassicSimilarity], result of:
          0.08443384 = score(doc=2289,freq=4.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30809072 = fieldWeight in 2289, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2289)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://asistdl.onlinelibrary.wiley.com/doi/10.1002/asi.24874. https://doi.org/10.1002/asi.24874.
  11. Ghali, M.-K.; Farrag, A.; Won, D.; Jin, Y.: Enhancing knowledge retrieval with in-context learning and semantic search through Generative AI (2024) 0.02
    0.02110846 = product of:
      0.08443384 = sum of:
        0.08443384 = weight(_text_:https in 2367) [ClassicSimilarity], result of:
          0.08443384 = score(doc=2367,freq=4.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30809072 = fieldWeight in 2367, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2367)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://www.researchgate.net/publication/381471078_Enhancing_Knowledge_Retrieval_with_In-Context_Learning_and_Semantic_Search_through_Generative_AI.
    Source
    https://arxiv.org/abs/2406.09621 [DOI: 10.48550/arXiv.2406.09621]
  12. Abdelkareem, M.A.A.: In terms of publication index, what indicator is the best for researchers indexing, Google Scholar, Scopus, Clarivate or others? (2018) 0.02
    0.02089631 = product of:
      0.08358524 = sum of:
        0.08358524 = weight(_text_:https in 548) [ClassicSimilarity], result of:
          0.08358524 = score(doc=548,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=548)
      0.25 = coord(1/4)
    
    Source
    https://www.researchgate.net/post/In_terms_of_publication_index_what_indicator_is_the_best_for_researchers_indexing_Google_Scholar_Scopus_Clarivate_or_others
  13. Dang, E.K.F.; Luk, R.W.P.; Allan, J.: ¬A retrieval model family based on the probability ranking principle for ad hoc retrieval (2022) 0.02
    0.02089631 = product of:
      0.08358524 = sum of:
        0.08358524 = weight(_text_:https in 1639) [ClassicSimilarity], result of:
          0.08358524 = score(doc=1639,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 1639, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1639)
      0.25 = coord(1/4)
    
    Content
    https://asistdl.onlinelibrary.wiley.com/doi/10.1002/asi.24619.
  14. Mandl, T.: Web- und Multimedia-Dokumente : Neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen (2003) 0.02
    0.018503059 = product of:
      0.074012235 = sum of:
        0.074012235 = weight(_text_:und in 2734) [ClassicSimilarity], result of:
          0.074012235 = score(doc=2734,freq=12.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.48018923 = fieldWeight in 2734, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2734)
      0.25 = coord(1/4)
    
    Abstract
    Die Menge an Daten im Internet steigt weiter rapide an. Damit wächst auch der Bedarf an qualitativ hochwertigen Information Retrieval Diensten zur Orientierung und problemorientierten Suche. Die Entscheidung für die Benutzung oder Beschaffung von Information Retrieval Software erfordert aussagekräftige Evaluierungsergebnisse. Dieser Beitrag stellt neuere Entwicklungen bei der Evaluierung von Information Retrieval Systemen vor und zeigt den Trend zu Spezialisierung und Diversifizierung von Evaluierungsstudien, die den Realitätsgrad derErgebnisse erhöhen. DerSchwerpunkt liegt auf dem Retrieval von Fachtexten, Internet-Seiten und Multimedia-Objekten.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.4, S.203-210
  15. Nagelschmidt, M.: Verfahren zur Anfragemodifikation im Information Retrieval (2008) 0.02
    0.01791551 = product of:
      0.07166204 = sum of:
        0.07166204 = weight(_text_:und in 3774) [ClassicSimilarity], result of:
          0.07166204 = score(doc=3774,freq=20.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.4649412 = fieldWeight in 3774, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3774)
      0.25 = coord(1/4)
    
    Abstract
    Für das Modifizieren von Suchanfragen kennt das Information Retrieval vielfältige Möglichkeiten. Nach einer einleitenden Darstellung der Wechselwirkung zwischen Informationsbedarf und Suchanfrage wird eine konzeptuelle und typologische Annäherung an Verfahren zur Anfragemodifikation gegeben. Im Anschluss an eine kurze Charakterisierung des Fakten- und des Information Retrieval, sowie des Vektorraum- und des probabilistischen Modells, werden intellektuelle, automatische und interaktive Modifikationsverfahren vorgestellt. Neben klassischen intellektuellen Verfahren, wie der Blockstrategie und der "Citation Pearl Growing"-Strategie, umfasst die Darstellung der automatischen und interaktiven Verfahren Modifikationsmöglichkeiten auf den Ebenen der Morphologie, der Syntax und der Semantik von Suchtermen. Darüber hinaus werden das Relevance Feedback, der Nutzen informetrischer Analysen und die Idee eines assoziativen Retrievals auf der Basis von Clustering- und terminologischen Techniken, sowie zitationsanalytischen Verfahren verfolgt. Ein Eindruck für die praktischen Gestaltungsmöglichkeiten der behandelten Verfahren soll abschließend durch fünf Anwendungsbeispiele vermittelt werden.
  16. Li, H.; Wu, H.; Li, D.; Lin, S.; Su, Z.; Luo, X.: PSI: A probabilistic semantic interpretable framework for fine-grained image ranking (2018) 0.02
    0.017911123 = product of:
      0.07164449 = sum of:
        0.07164449 = weight(_text_:https in 577) [ClassicSimilarity], result of:
          0.07164449 = score(doc=577,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.26142365 = fieldWeight in 577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.046875 = fieldNorm(doc=577)
      0.25 = coord(1/4)
    
    Content
    https://onlinelibrary.wiley.com/doi/10.1002/asi.24068.
  17. Liu, J.; Liu, C.: Personalization in text information retrieval : a survey (2020) 0.02
    0.017911123 = product of:
      0.07164449 = sum of:
        0.07164449 = weight(_text_:https in 761) [ClassicSimilarity], result of:
          0.07164449 = score(doc=761,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.26142365 = fieldWeight in 761, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.046875 = fieldNorm(doc=761)
      0.25 = coord(1/4)
    
    Content
    https://asistdl.onlinelibrary.wiley.com/doi/10.1002/asi.24234.
  18. Fuhr, N.: Zur Überwindung der Diskrepanz zwischen Retrievalforschung und -praxis (1990) 0.02
    0.016890906 = product of:
      0.06756362 = sum of:
        0.06756362 = weight(_text_:und in 6624) [ClassicSimilarity], result of:
          0.06756362 = score(doc=6624,freq=10.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.4383508 = fieldWeight in 6624, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6624)
      0.25 = coord(1/4)
    
    Abstract
    In diesem Beitrag werden einige Forschungsergebnisse des Information Retrieval vorgestellt, die unmittelbar zur Verbesserung der Retrievalqualität für bereits existierende Datenbanken eingesetzt werden können: Linguistische Algorithmen zur Grund- und Stammformreduktion unterstützen die Suche nach Flexions- und Derivationsformen von Suchtermen. Rankingalgorithmen, die Frage- und Dokumentterme gewichten, führen zu signifikant besseren Retrievalergebnissen als beim Booleschen Retrieval. Durch Relevance Feedback können die Retrievalqualität weiter gesteigert und außerdem der Benutzer bei der sukzessiven Modifikation seiner Frageformulierung unterstützt werden. Es wird eine benutzerfreundliche Bedienungsoberfläche für ein System vorgestellt, das auf diesen Konzepten basiert.
  19. Tober, M.; Hennig, L.; Furch, D.: SEO Ranking-Faktoren und Rang-Korrelationen 2014 : Google Deutschland (2014) 0.02
    0.016890906 = product of:
      0.06756362 = sum of:
        0.06756362 = weight(_text_:und in 2484) [ClassicSimilarity], result of:
          0.06756362 = score(doc=2484,freq=10.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.4383508 = fieldWeight in 2484, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2484)
      0.25 = coord(1/4)
    
    Abstract
    Dieses Whitepaper beschäftigt sich mit der Definition und Bewertung von Faktoren, die eine hohe Rangkorrelation-Koeffizienz mit organischen Suchergebnissen aufweisen und dient dem Zweck der tieferen Analyse von Suchmaschinen-Algorithmen. Die Datenerhebung samt Auswertung bezieht sich auf Ranking-Faktoren für Google-Deutschland im Jahr 2014. Zusätzlich wurden die Korrelationen und Faktoren unter anderem anhand von Durchschnitts- und Medianwerten sowie Entwicklungstendenzen zu den Vorjahren hinsichtlich ihrer Relevanz für vordere Suchergebnis-Positionen interpretiert.
  20. Behnert, C.; Borst, T.: Neue Formen der Relevanz-Sortierung in bibliothekarischen Informationssystemen : das DFG-Projekt LibRank (2015) 0.02
    0.016890906 = product of:
      0.06756362 = sum of:
        0.06756362 = weight(_text_:und in 392) [ClassicSimilarity], result of:
          0.06756362 = score(doc=392,freq=10.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.4383508 = fieldWeight in 392, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=392)
      0.25 = coord(1/4)
    
    Abstract
    Das von der DFG geförderte Projekt LibRank erforscht neue Rankingverfahren für bibliothekarische Informationssysteme, die aufbauend auf Erkenntnissen aus dem Bereich Websuche qualitätsinduzierende Faktoren wie z. B. Aktualität, Popularität und Verfügbarkeit von einzelnen Medien berücksichtigen. Die konzipierten Verfahren werden im Kontext eines in den Wirtschaftswissenschaften häufig genutzten Rechercheportals (EconBiz) entwickelt und in einem Testsystem systematisch evaluiert. Es werden Rankingfaktoren, die für den Bibliotheksbereich von besonderem Interesse sind, vorgestellt und exemplarisch Probleme und Herausforderungen aufgezeigt.
    Source
    Bibliothek: Forschung und Praxis. 39(2015) H.3, S.384-393

Years

Languages

  • d 36
  • e 23
  • m 1
  • More… Less…

Types

  • a 46
  • x 7
  • el 3
  • m 3
  • r 2
  • p 1
  • s 1
  • More… Less…