Search (11767 results, page 1 of 589)

  • × language_ss:"d"
  1. IAC übernimmt Ask Jeeves : Neuer weltweiter Player? (2005) 0.49
    0.49393967 = product of:
      0.98787934 = sum of:
        0.95301646 = weight(_text_:jeeves in 4373) [ClassicSimilarity], result of:
          0.95301646 = score(doc=4373,freq=6.0), product of:
            0.5652034 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06414678 = queryNorm
            1.6861477 = fieldWeight in 4373, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.078125 = fieldNorm(doc=4373)
        0.034862895 = weight(_text_:und in 4373) [ClassicSimilarity], result of:
          0.034862895 = score(doc=4373,freq=2.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.24504554 = fieldWeight in 4373, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4373)
      0.5 = coord(2/4)
    
    Abstract
    Die InterActiveCorp. (IAC) übernimmt die Suchmaschine AskJeeves (www.ask.com) für 1,85 Milliarden US-Dollar in Aktien. Sowohl die Technologie als auch die Marke Ask Jeeves sollen weiterentwickelt werden. Informationen von IAC-Angeboten wie Expedia.com und Ticketmaster werden per vertikaler Integration bei Ask Jeeves angezeigt werden.
  2. Hoffmann, U.: Jeeves und die schlaue Nuss finden (fast) alles! (2002) 0.29
    0.29254356 = product of:
      0.5850871 = sum of:
        0.55022424 = weight(_text_:jeeves in 1955) [ClassicSimilarity], result of:
          0.55022424 = score(doc=1955,freq=2.0), product of:
            0.5652034 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06414678 = queryNorm
            0.97349775 = fieldWeight in 1955, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.078125 = fieldNorm(doc=1955)
        0.034862895 = weight(_text_:und in 1955) [ClassicSimilarity], result of:
          0.034862895 = score(doc=1955,freq=2.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.24504554 = fieldWeight in 1955, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1955)
      0.5 = coord(2/4)
    
  3. Faller, H.: David gegen Google : Wie ein Mathematiker aus New Jersey die größte Suchmaschine der Welt übertrumpfen will: Eine Reise ins Reich der Algorithmen (2004) 0.22
    0.22472581 = product of:
      0.44945163 = sum of:
        0.38906732 = weight(_text_:jeeves in 3870) [ClassicSimilarity], result of:
          0.38906732 = score(doc=3870,freq=4.0), product of:
            0.5652034 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06414678 = queryNorm
            0.6883669 = fieldWeight in 3870, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3870)
        0.060384307 = weight(_text_:und in 3870) [ClassicSimilarity], result of:
          0.060384307 = score(doc=3870,freq=24.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.42443132 = fieldWeight in 3870, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3870)
      0.5 = coord(2/4)
    
    Abstract
    Apostolos Gerasoulis ist Mathematiker und eigentlich mit Problemen beschäftigt, auf deren Lösung die Welt noch warten kann. Doch neuerdings befällt ihn manchmal, abends, wenn er mit seiner Frau vor dem Fernseher sitzt, eine kleine Unruhe. Dann entschuldigt er sich für ein paar Minuten. Aber seine Frau weiß, dass es länger dauern wird, wenn er sich so spät in sein Wohnzimmer verzieht, wenn er im Schein seines Dell-Inspiron-Laptops sitzt, weil er dann nachsieht, was der Welt an diesem Tag durch den Kopf gegangen ist. Apostolos Gerasoulis ist der Erfinder der viertgrößten amerikanischen Internet-Suchmaschine Ask Jeeves. Zehn Millionen Suchbegriffe werden jeden Tag dort eingegeben, das sind zehn Millionen Fragen und Wünsche, nach Nachrichten und Produkten, nach Diagnosen und Namen und natürlich nach nackten Frauen und Pornos und Strippern und Orgien und Pam-Anderson-Videos. Und auch nach dem Sinn des Lebens wird gefragt, nach Gott und dem Teufel, die aber beide sehr weit hinter Britney Spears zurückliegen, die sich als einzige Weltberühmtheit seit Jahren ganz oben hält und von deren Namen Apostolos Hunderte Schreibweisen gesehen hat. . . . Mitte Juli war es so weit. Barry Diller hat Ask Jeeves für 2,3 Milliarden Dollar gekauft. Apostolos Gerasoulis lächelt noch etwas glücklicher als sonst, als er erzählt, dass Diller versprochen hat, ihn demnächst in New York City auf eine große Party mitzunehmen.
  4. cid: Google & Co. : In die Welt der Suchmaschinen kommt Bewegung (2004) 0.13
    0.12976629 = product of:
      0.25953257 = sum of:
        0.22008972 = weight(_text_:jeeves in 3809) [ClassicSimilarity], result of:
          0.22008972 = score(doc=3809,freq=2.0), product of:
            0.5652034 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06414678 = queryNorm
            0.3893991 = fieldWeight in 3809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.03125 = fieldNorm(doc=3809)
        0.039442863 = weight(_text_:und in 3809) [ClassicSimilarity], result of:
          0.039442863 = score(doc=3809,freq=16.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.2772374 = fieldWeight in 3809, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3809)
      0.5 = coord(2/4)
    
    Abstract
    Wer im Internet etwas sucht, sucht meist mit Google. Doch die Nummer eins unter den Suchmaschinen .muss aufpassen. Die Konkurrenz schläft nicht und hat vor allem neue Ideen.
    Content
    "Da ist zum Beispiel Seekport aus Martinsried bei München (www. seekport.de). Die Maschine arbeitet mit einer Suchtechnologie, die gegenüber den Wettbewerbern gleich zwei Vorteile bietet: Zum einen greift sie auf den größten deutschsprachigen Gesamtindex zurück, der derzeit von Suchmaschinen angeboten wird. Zum anderen wird dieser Index im Gegensatz zu anderen Suchtools von einem einheimischen Index-Team gepflegt. Die Suche ist nach acht Kernbereichen strukturiert. Gibt man beispielsweise das Stichwort "Lexikon" im Themenbereich "Gesundheit" ein, findet man medizinische Lexika, im Themengebiet "Computer und Technik" dagegen IT Lexika. Bei der Suche werden das gesamte Dokument beziehungsweise die Inhalte der Webseite analysiert und einem Themenbereich zugewiesen. Die Betreibender Suchmaschine Ask Jeeves (www.ask.com) haben ein neuartiges, so genanntes Preview-Tool angekündigt, das die Suche effektiver gestalten soll. Es heißt "Binoculars" (zu deutsch: Fernglas) und erlaubt es dem Nutzer, sich einen Eindruck von einer bestimmten Website zu machen, ohne sie selbst anzuklicken. "Binoculars" wird aktiviert, sobald der Cursor über ein Fernglas-Symbol bewegt wird, das neben den Suchergebnissen auftaucht. Dadurch werden automatisch generierte Schnappschüsse der gefundenen Webseite eingeblendet. Das ermöglicht eine schnelle Beurteilung, sodass man sich das lästige An- und Zurückklicken sparen kann. Auch das große deutschsprachige Intemetverzeichnis Web.de hat sich um die Verbesserung seiner Suchmaschine gekümmert. Bei der Entwicklung von "Smartsearch" ging es darum, die erdrückende Masse an Suchergebnissen zu reduzieren, mit der die Surfer nach jeder Suche konfrontiert sind. "Smartsearch" zeigt deshalb Kontext bezogene Themenbäume rund um das gesuchte Stichwort, an. So bekommt der Surfer eimen Überblick über sämtliche angebotenen Informationen und vermag Dinge zu entdecken, die ihm sonst vielleicht verborgen geblieben wären. Eine gedruckte Suchmaschine hat Data Becker veröffentlicht. Das Buch heißt "Die besten Internet-Adressen 2005", kostet 15,95 Euro und kommentiert die für bemerkenswert befundenen Webseiten, die kultigsten Underground-Adressen und bewährte Anlaufstellen zu fast allen Themenbereichen im, Netz nach Informationsgehalt oder Design sortiert."
  5. Neubauer, R.: Google ist auch eine weltweite Werbefläche : 100 000 Firmen bezahlen die Suchmaschine für zielgerichtete Reklame / Konkurrent Yahoo geht mit Overture in die Offensive (2003) 0.12
    0.118286744 = product of:
      0.23657349 = sum of:
        0.19257851 = weight(_text_:jeeves in 1843) [ClassicSimilarity], result of:
          0.19257851 = score(doc=1843,freq=2.0), product of:
            0.5652034 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06414678 = queryNorm
            0.34072423 = fieldWeight in 1843, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1843)
        0.043994986 = weight(_text_:und in 1843) [ClassicSimilarity], result of:
          0.043994986 = score(doc=1843,freq=26.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.3092335 = fieldWeight in 1843, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1843)
      0.5 = coord(2/4)
    
    Content
    "Gary Weiner's Schuhhandel mit Namen Shoedini ist kaum ein Markenname in den USA. Und Ge'Lena Vavra auch nicht. Beides sind kleine Unternehmen, deren Kundenstamm bis vor wenigen Jahren reichlich begrenzt war und deren Website einer Stecknadel im berühmten Heuhaufen, sprich World Wide Web, glich. Berühmt sind beide auch heute nicht. Doch die Geschäfte laufen flotter denn je - dank Google. Denn Weiner und Vavra, ein Anbieter italienischer Anzüge, entschieden sich für bezahlte Links auf der Suchmaschine. Sie zahlen Google zwischen 21 Cent und 1,50 Dollar, sobald ihr kommerzieller Link angeklickt wird. Und das Geschäft boomt, behauptet Vavra, die den Absatz von zehn Anzügen im Monat auf 120 steigerte. Auch Weiner ist zufrieden und gibt inzwischen 40 Prozent seines Werbebudgets für Links, so genannte Adwords oder Keywords bei Google aus. Sie gehören zu einem wachsenden Heer von mehr als 100 000 Unternehmen, die die Suchmaschine als Werbefläche nutzen. Das ist verständlich: Nicht nur mauserte sich Google, gegründet 1998 von zwei Studenten der Stanford University, zur beliebtesten Suchmaschine der Welt mit 200 Millionen Anfragen pro Tag. Sie stieg auch ganz nebenbei zu einer riesigen weltweiten Werbefläche im Internet auf. Und das, obwohl die Gründer beim Start von Google Werbung auf ihrer Website naiverweise als "heimtückisch" abgelehnt hatten. Doch einige hundert Millionen Dollar an Umsätzen später (Experten schätzen, dass Google dieses Jahr etwa 700 Millionen Dollar einnimmt), ist davon längst nicht mehr die Rede. Im Gegenteil: Google hat eine sprudelnde Geldquelle angezapft. Zwei Milliarden des zehn Milliarden Dollar schweren Werbemarktes in den USA werden inzwischen im Internet umgesetzt - Tendenz steigend. Und Google hat aus einer InternetSuchmaschine ein Geschäft mit Zukunft gemacht, vielleicht sogar den nächsten Goldrausch im Web initiiert. Denn anders als die nervige Bannerwerbung oder die Popups, die das Surfen zur Qual machen, ist die Werbung bei Google kontextabhängig und zielgerichtet. Nur wer "Hugo Boss" eintippt, sieht Vavras Anzeige für Anzüge. Nicht jedoch derjenige, der nach einem Tauchshop Ausschau hält. Dass die Konkurrenz diesem Erfolg nicht tatenlos zusehen würde, versteht sich. Vor allem Yahoo und der MicrosoftOnlinedienst MSN, ebenfalls Größen in der lnternet-Werbung, wappneten sich. in den vergangenen Monaten gegen die Vormachtstellung von Google, dessen Umsätze nur von dem Internet-Werbedienstleister Overture übertroffen werden. "Google hat einen Standard gesetzt, dem nun alle anderen nacheifern", meint der Branchenexperte Safa Rashtchy. So überraschte es nicht, als Yahoo kürzlich die Übernahme von Overture für 1,6 Milliarden Dollar ankündigte, nachdem der Online-Pionier in diesem Jahr bereits den Suchtechnik-Spezialisten Inktomi gekauft hatte. Mit dem neuen Deal verhindert er nicht nur, dass sich Microsoft die Firma unter den Nagel reißt, Yahoo stärkt auch die eigene Position im Kampf um die Web-Vorherrschaft. Denn Overture ist einer der führenden Anbieter bezahlter Suchergebnisse, die üblicherweise an vielfrequentierte Drittanbieter geliefert werden. Mit der Overture-Transaktion will Yahoo Google in die Schranken weisen und die Erweiterung des Modells auf ausländische Märkte - vor allem in Europa und Asien - ermöglichen. Zugleich dürfte der Deal zu einer weiteren Konsolidierung in der Branche führen. So wird spekuliert, dass Microsoft gezwungen wird, seine Position mit dem Zukauf kleinerer Firmen zu stärken. Ask Jeeves ist ebenso im Gespräch wie Looksmart. Microsoft, so eine fantasiereichere Variante, könnte aber auch leicht fünf Milliarden Dollar für den Erwerb von Google lockermachen. Eine Idee, die die Wagniskapitalgeber und die Gründer von Google jedoch als unrealistisch vom Tisch wischen."
  6. Schnelling, H.M.: Shakespeare im Schlagwortkatalog : Vergleichende Untersuchungen anglo-amerikanischer und deutscher Praxis verbaler Sacherschließung (1983) 0.11
    0.11491653 = product of:
      0.22983307 = sum of:
        0.029582147 = weight(_text_:und in 1216) [ClassicSimilarity], result of:
          0.029582147 = score(doc=1216,freq=4.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.20792803 = fieldWeight in 1216, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1216)
        0.20025092 = weight(_text_:headings in 1216) [ClassicSimilarity], result of:
          0.20025092 = score(doc=1216,freq=8.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.64334357 = fieldWeight in 1216, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1216)
      0.5 = coord(2/4)
    
    Content
    Teilw. zugl.: Köln, Fachhochschule für Bibliotheks- und Dokumentationswesen, Hausarbeit zur Laufbahnprüfung für den Höheren Bibliotheksdienst
    LCSH
    Subject headings / Literature
    Subject headings / Shakespeare, William, 1564 / 1616
    Subject
    Subject headings / Literature
    Subject headings / Shakespeare, William, 1564 / 1616
  7. Lewandowski, D.: Zusammenarbeit von Google, Yahoo und Microsoft (2005) 0.11
    0.11354551 = product of:
      0.22709101 = sum of:
        0.19257851 = weight(_text_:jeeves in 4378) [ClassicSimilarity], result of:
          0.19257851 = score(doc=4378,freq=2.0), product of:
            0.5652034 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06414678 = queryNorm
            0.34072423 = fieldWeight in 4378, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4378)
        0.034512505 = weight(_text_:und in 4378) [ClassicSimilarity], result of:
          0.034512505 = score(doc=4378,freq=16.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.24258271 = fieldWeight in 4378, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4378)
      0.5 = coord(2/4)
    
    Abstract
    Im Kampf gegen die Vermüllung ihrer Trefferlisten haben sich die Konkurrenten Google, Microsoft und Yahoo darauf geeinigt, ein neues Attribut für die Verlinkung von Webseiten auszuwerten. Dies könnte ein erster Schritt zu weniger Spam und einer weiteren Zusammenarbeit dergroßen Suchmaschinen sein.
    Content
    "Alle drei Suchmaschinen werden künftig das neue "Nofollow"-Attribut unterstützen. Dieses kennzeichnet, dass der damit ausgezeichnete Link nicht von Suchmaschinen verfolgt werden soll. Der Hintergrund dafür ist die automatisierte Vermüllung von Gästebüchern, Foren und Weblogs. Bisher werden solche Links ebenso in das Ranking mit einberechnet wie jeder andere Link auch. Die Links sind für die Suchmaschinen von großer Bedeutung, da sie als eine Stimme für eine Seite gezählt werden, d.h. es wird angenommen, dass ein Link eine Empfehlung für diejenige Seite ist, auf die verlinkt wird. Vereinfacht bedeutet dies, dass Suchmaschinen oftverlinkte Seiten auf höheren Rangplätzen zeigen als weniger verlinkte Seiten. Diese Berechnung wird durch automatisch erzeugte Links ad absurdum geführt. Um die Anzahl der Links auf ihre Seiten zu erhöhen, greifen Spammer immer mehr Foren, Gästebücher und Weblogs an und hinterlassen in diesen Hinweise auf ihre Seiten. Mit dem neuen Attribut ist es möglich, sämtliche Links beispielsweise in einem Gästebuch so auszuzeichnen, dass sie von den Suchmaschinen nicht mehr beachtet werden. Die Nicht-Beachtung äußert sich auf mehreren Ebenen: - Die Links werden von den Suchmaschinen nicht mehr verfolgt. Dies bedeutet, dass diejenigen Seiten, auf die verlinkt wird, unter Umständen nicht mehr in den Index der Suchmaschinen aufgenommen werden. Allerdings dürfte dieser Fall in der Praxis nur selten auftauchen, da von nahezu allen Seiten angenommen werden kann, dass sie auch auf konventionelle Weise verlinkt sind. - Die entsprechend ausgezeichneten Links werden nicht in die Kalkulation des Rankings mit einbezogen. Dadurch soll verhindert werden, dass die entsprechend verlinkten Seiten aufgrund ihrer vermeintlichen Popularität auf den vorderen Plätzen der Trefferlisten auftauchen. - Auch die Ankertexte, also der in den meisten Web-Browsern blau unterstrichene Text, wird bei diesen Links nicht ausgewertet Die Ankertexte dienen den Suchmaschinen, den Text der indexierten Dokumente durch weitere Wörter anzureichern, die das Dokument beschreiben, aber nur in externen Dokumenten vorkommen. Letztlich bedeutet das Setzen eines "Nofollow"-Attributs also nicht, dass die Zielseite schlecht beurteilt wird. Zumindest sehen dies die Suchmaschinen-Betreiber nicht vor. Um Links mit dem "Nofollow"-Attribut anzulegen, muss folgende Syntax verwendetwerden: <a href="http://www. server.de/seite.html" rel="nofollow">Ankertext</a>. Gegenüber anderen Links unterscheiden sich diese nur durch das hier hervorgehobene Attribut. Es erscheint wenig sinnvoll, manuell solche Links anzulegen. Sobald man aber den Besuchern einer Website erlaubt, selbst Inhalte mit Links anzulegen, ist der (automatisierte) Einsatz sinnvoll. Auch diese neue Initiative der großen Suchmaschinen wird die Spam-Flut in den Trefferlisten nicht verhindern, wohl aber ein wenig mindern. Bemerkenswert ist die Tatsache, dass die drei großen Suchmaschinen diesmal an einem Strang ziehen: Dies könnte als ein erster Schritt gesehen werden, dass die Suchmaschinen sich tatsächlich als Branche begreifen und die Notwendigkeit erkannt haben, gemeinsame Regeln und Standards zu schaffen. Bleibt die Frage, wieso die vierte der größeren (US-)Suchmaschinen, Ask Jeeves, nicht mit dabei ist. Diese lässt knapp verlauten, dass man in der eigenen Suchmaschine das Problem nicht in dem Maße hätte wie Google oder Yahoo. Man werde ein anderes Verfahren einsetzen, um die Wertigkeit von Links zu berechnen."
  8. Schneider, K.: Über den Musik-Thesaurus und die inhaltliche Erschliessung von Musik (1996) 0.11
    0.10834435 = product of:
      0.2166887 = sum of:
        0.027890315 = weight(_text_:und in 3558) [ClassicSimilarity], result of:
          0.027890315 = score(doc=3558,freq=2.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.19603643 = fieldWeight in 3558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3558)
        0.18879838 = weight(_text_:headings in 3558) [ClassicSimilarity], result of:
          0.18879838 = score(doc=3558,freq=4.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.60655016 = fieldWeight in 3558, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=3558)
      0.5 = coord(2/4)
    
    Abstract
    Lecture given at the AIBM conference, Karlsruhe, Sep 95. The thesaurus appeared 1st in 1982, produced according to DIN standard 1463. This standard is largely adhered to, with 2 deviations: the controlled vocabulary is rather universal, covering more than 1 musical field, and descriptors are used as systematic collection points, with non-decriptors as subordinate headings. The 1994 edition has widened its contents range. There are still problems with ambiguity of headings and titles
  9. Oberhauser, O.: Inhaltliche Erschließung im Verbund : Die aktuelle Situation in Österreich (2013) 0.10
    0.09793264 = product of:
      0.19586527 = sum of:
        0.062364645 = weight(_text_:und in 2092) [ClassicSimilarity], result of:
          0.062364645 = score(doc=2092,freq=10.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.4383508 = fieldWeight in 2092, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2092)
        0.13350062 = weight(_text_:headings in 2092) [ClassicSimilarity], result of:
          0.13350062 = score(doc=2092,freq=2.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.4288957 = fieldWeight in 2092, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=2092)
      0.5 = coord(2/4)
    
    Abstract
    Der Beitrag zeichnet ein aktuelles Bild der inhaltlichen Erschließung im Österreichischen Verbundkatalog, insbesondere in quantitativer Hinsicht. Um den Entwicklungsverlauf zu illustrieren, werden dazu Daten von 2005 bis 2013 präsentiert. Im Detail geht es um die verbale Sacherschließung durch RSWKbasierte Schlagwortfolgen und englischsprachige Subject Headings, sowie die klassifikatorische Erschließung mittels Basisklassifikation, Dewey Dezimalklassifikation und Regensburger Verbundklassifikation. Im Zusammenhang mit der Basisklassifikation wird auch von Anreicherungsprojekten mittels Konkordanzen und Datenübernahmen berichtet. Ausserdem werden Neuerungen bei der Suche und Anzeige klassifikatorischer Sacherschließungselemente in den Rechercheinstrumenten des Verbundes dargestellt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 66(2013) H.2, S.231-249
  10. Scharmann, U.: Anwendung der Regeln für den Schlagwortkatalog (RSWK) in öffentlichen Bibliotheken. Abschlußbericht zum dbi-Projekt 11.35 (1989) 0.09
    0.08559047 = product of:
      0.17118093 = sum of:
        0.029582147 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.029582147 = score(doc=1203,freq=4.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.20792803 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
        0.14159879 = weight(_text_:headings in 1203) [ClassicSimilarity], result of:
          0.14159879 = score(doc=1203,freq=4.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.4549126 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
      0.5 = coord(2/4)
    
    Classification
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    LCSH
    Subject headings, German
    RVK
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    Subject
    Subject headings, German
  11. Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009) 0.08
    0.08458523 = product of:
      0.16917045 = sum of:
        0.02465179 = weight(_text_:und in 26) [ClassicSimilarity], result of:
          0.02465179 = score(doc=26,freq=4.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.17327337 = fieldWeight in 26, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
        0.14451866 = weight(_text_:headings in 26) [ClassicSimilarity], result of:
          0.14451866 = score(doc=26,freq=6.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.46429324 = fieldWeight in 26, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
      0.5 = coord(2/4)
    
    Abstract
    Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
  12. Berg-Schorn, E.: MeSH 2006: Deutsche Version lieferbar (2006) 0.08
    0.08034857 = product of:
      0.16069715 = sum of:
        0.042698152 = weight(_text_:und in 959) [ClassicSimilarity], result of:
          0.042698152 = score(doc=959,freq=12.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.30011827 = fieldWeight in 959, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
        0.117998995 = weight(_text_:headings in 959) [ClassicSimilarity], result of:
          0.117998995 = score(doc=959,freq=4.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.37909386 = fieldWeight in 959, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
      0.5 = coord(2/4)
    
    Abstract
    Beim DIMDI erhalten Sie ab sofort die aktuelle deutsche Übersetzung des Thesaurus Medical Subject Headings (MeSH) 2006 der National Library of Medicine (NLM). Auf Anfrage liefern wir die neue Version 11.0 (Stand 2006) als kostenpflichtige XML-Datei auf CD-ROM. Gegenüber 2005 enthält derThesaurus 933 neue Deskriptoren. Andere wurden nach der aktuellen Terminologie umbenannt, obsolete Benennungen entfielen ganz. Da jede Deskriptorklasse in Konzepte und Unterkonzepte mit zugehörigen Begriffen unterteilt ist, beträgt die tatsächliche Zahl neuer Bezeichnungen etwa das Fünffache. Der laufend weiterentwickelte Thesaurus umfasst jetzt 23.880 Hauptschlagwörter (Main Headings). Zum Vergleich: vor zehn Jahren gab die NLM erst 18.436 Deskriptoren an. Zuwachs verzeichnet vor allem die Kategorie Chemische Substanzen, Drogen und Arzneimittel mit 684 neuen Schlagwörtern. Zahlreiche neue Begriffe enthalten auch die Kategorien Organismen, Krankheiten, Biowissenschaften, Anatomie sowie Analytische, diagnostische und therapeutische Verfahren und Geräte. Neue Deskriptoren sind beispielsweise Kalziumaktivierte Kaliumkanäle mit großer Leitfähigkeit, Tritonia-Meeresschnecke, Mesangiumzellen oder Bariatrische Chirurgie. Das DIMDI übersetzt den MeSH in enger Anlehnung an die amerikanische Vorlage und ist offizieller Herausgeber der deutschen Version (inkl. Urheberrechte). Der Thesaurus ist Bestandteil des UMLS (Unified Medical Language System) der NLM. Übersetzungen liegen auch in Finnisch, Französisch, Italienisch, Portugiesisch, Russisch und Spanisch vor.
  13. Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007) 0.08
    0.07773429 = product of:
      0.15546858 = sum of:
        0.05534313 = weight(_text_:und in 1557) [ClassicSimilarity], result of:
          0.05534313 = score(doc=1557,freq=14.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.38899773 = fieldWeight in 1557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
        0.10012546 = weight(_text_:headings in 1557) [ClassicSimilarity], result of:
          0.10012546 = score(doc=1557,freq=2.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.32167178 = fieldWeight in 1557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
      0.5 = coord(2/4)
    
    Abstract
    Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  14. Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003) 0.08
    0.077654794 = product of:
      0.15530959 = sum of:
        0.071871705 = weight(_text_:und in 5524) [ClassicSimilarity], result of:
          0.071871705 = score(doc=5524,freq=34.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.50517434 = fieldWeight in 5524, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
        0.08343788 = weight(_text_:headings in 5524) [ClassicSimilarity], result of:
          0.08343788 = score(doc=5524,freq=2.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.26805982 = fieldWeight in 5524, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
      0.5 = coord(2/4)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Daten-, Literatur- und Faktendokumentation enthält neben zahlreichen Übungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit Antworten. Das Buch ist von zentraler Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Das Thema gewinnt aber auch an Bedeutung für Wissenschaftler aller Fachrichtungen. Das Buch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden vierten Auflage werden insbesondere Entwicklungen im Bereich des Internets und der Informationssysteme berücksichtigt.
    Content
    Zweck und Grundzüge der Dokumentation.- Begriff und Wesen der Information.- Dateien und Informationsspeicher.Referate.- Ordnungsprinzip Klassifikation.- Hierarchische Begriffsstrukturen.- Alphabetisches Sortieren und systematisches Anordnen.- Die Klassfikationen ICD-10 und ICPM.- Ordnungsprinzip Register.- Beispiel einer Dokumentation mit Registern.- Ordnungsprinzip Fassettenklassifikation.- Ordnungsprinzip Begriffskombination.- Struktur eines Ordnungssystems.Beispielthesaurus Gebäude.- Ordnungssystem Medical Subject Headings (MeSH).- Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren.- Dokumenten-Deskriptoren-Matrix.Relevanz- und Vollzähligkeitsrate.- Recherchieren und Suchstrategien.- Dokumentations- und Retrievalsysteme.Aktive Informationsdienste.- Revision eines Ordnungssystems.
  15. Jungk, S.: ¬Die Erschließung der Belletristik und Kinder- und Jugendliteratur im Sachkatalog der Deutschen Nationalbibliothek Leipzig (2008) 0.08
    0.07566278 = product of:
      0.15132555 = sum of:
        0.034512505 = weight(_text_:und in 3173) [ClassicSimilarity], result of:
          0.034512505 = score(doc=3173,freq=4.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.24258271 = fieldWeight in 3173, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3173)
        0.11681304 = weight(_text_:headings in 3173) [ClassicSimilarity], result of:
          0.11681304 = score(doc=3173,freq=2.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.37528375 = fieldWeight in 3173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3173)
      0.5 = coord(2/4)
    
    Abstract
    In its overall function as the archive of all German-language publications, the German National Library also collects and catalogues German-language literary works. Belles-lettres as well as children's and youth literature form a considerable part of the library's collection. From 1913 until 1990, the titles were assigned subject headings, were filed in the library's card subject catalogue according to genres and languages and (within these categories) were further divided into formal aspects, themes and motifs. The subject indexing of belles-lettres and children's and youth literature is unique in its scope and depth.
  16. Lewandowski, D.: Web Information Retrieval : Technologien zur Informationssuche im Internet (2005) 0.07
    0.07279909 = product of:
      0.14559817 = sum of:
        0.11004486 = weight(_text_:jeeves in 622) [ClassicSimilarity], result of:
          0.11004486 = score(doc=622,freq=2.0), product of:
            0.5652034 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06414678 = queryNorm
            0.19469956 = fieldWeight in 622, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.015625 = fieldNorm(doc=622)
        0.035553318 = weight(_text_:und in 622) [ClassicSimilarity], result of:
          0.035553318 = score(doc=622,freq=52.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.2498984 = fieldWeight in 622, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=622)
      0.5 = coord(2/4)
    
    Abstract
    Verfahren des Information Retrieval haben in den letzten Jahren eine enorme Bedeutung erlangt. Während diese Verfahren jahrzehntelang nur Einsatz in spezialisierten Datenbanken fanden, haben sie durch das Aufkommen von Suchmaschinen im World Wide Web mittlerweile eine zentrale Bedeutung in der Informationsversorgung eingenommen. Verfahren des Web Information Retrieval entscheiden darüber, welche Informationen von Nutzern gefunden werden; man spricht auch von einer "Gatekeeper"-Funktion der Suchmaschinen. Diese sind zum bedeutendsten Rechercheinstrument sowohl im privaten, beruflichen als auch wissenschaftlichen Bereich avanciert. Google, die berühmteste der "Information-Retrieval-Firmen", ist fast täglich in den Schlagzeilen zu finden. Immer neue Innovationen (nicht nur dieses Anbieters) zeigen die Web-Suche als dynamisches Feld. Vor allem wird durch die zahlreichen Neuerungen der letzten Jahre, teilweise erst der letzten Monate, deutlich, dass die Suche im Web trotz ihrer mittlerweile fast zehnjährigen Geschichte erst am Anfang steht. Dass dem Web Information Retrieval eine hohe Bedeutung zugemessen wird, zeigt sich auch im wachsenden Interesse kommerzieller Unternehmen an diesem Thema. Ein Blick auf die Sponsorenliste der letztjährigen Konferenz der ACM Special Interest Group on Information Retrieval mag dies verdeutlichen: Neben den wichtigen Suchmaschinen-Anbietern Google, Microsoft, Yahoo und Ask Jeeves finden sich auch Großunternehmen wie IBM, Canon und Sharp. Auch in der gesellschaftlichen Diskussion sind die Suchmaschinen angekommen: Es findet gegenwärtig eine Diskussion um die "Google-Gesellschaft" statt, wobei gefragt wird, inwieweit ein einzelner Anbieter bzw. wenige Anbieter darüber entscheiden sollten, welche Informationen beim Nutzer angelangen. In dieser Hinsicht befassen sich inzwischen auch politische Parteien mit dem Thema. So publizierte etwa die Gründe Bundestagsfraktion ein Diskussionspapier unter dem Titel "Suchmaschinen: Tore zum Netz", in welchem unter anderem die Rolle der Suchmaschinen beim Zugang zu Informationen und Probleme des Datenschutzes bei der Suchmaschinennutzung angesprochen werden.
    Die vorliegende Arbeit setzt auf einer eher technischen Ebene an und bietet die Grundlagen für das Verständnis der Funktionsweise und der Defizite von Web-Suchmaschinen. Während zum klassischen Information Retrieval eine breite Auswahl an Literatur vorliegt, gibt es bisher kein Werk, welches eine umfassende Darstellung des Web Information Retrieval mit seinen Unterscheidungen und Besonderheiten gegenüber dem "klassischen" Information Retrieval bietet. Monographien zum Thema Suchmaschinen behandeln vor allem deren Suchfunktionen oder konzentrieren sich allein auf algorithmische Aspekte des Web Information Retrieval. Die Forschungslitertaur liegt zum überwältigenden Teil nur in englischer Sprache vor; die Forschung selbst findet zu einem großen Teil in den USA statt. Aus diesem Grund werden Spezifika anderer Sprachen als des Englischen sowie Besonderheiten auf nationaler oder gar kontinentaler Ebene vernachlässigt. Die Konsequenzen, die sich aus den Besonderheiten des Web Information Re¬trieval ergeben, wurden bisher nur unzureichend erkannt. Suchmaschinen orientieren sich noch stark am klassischen Information Retrieval, wenn auch teils eigene Rankingkriterien gefunden wurden, vor allem die Ergänzung der klassischen Faktoren durch eine Art der Qualitätsbewertung der indexierten Dokumente. Die Arbeit soll aufzeigen, welche Schritte nötig sind, um Web Information Retrieval vor allem auch in Hinblick auf die Charakteristika der Suchmaschinen-Nutzer effektiv zu gestalten. Die Verfahren des klassischen Information Retrieval versagen hier, da sie einerseits von einer gepflegten Dokumentenkollektion, andererseits von einem geschulten Nutzer ausgehen. Suchmaschinen haben mit Problemen des sog. Index-Spamming zu kämpfen: Hierbei werden (oft in kommerziellem Interesse) inhaltlich wertlose Dokumente erstellt, die in den Trefferlisten der Suchmaschinen auf den vorderen Rängen angezeigt werden sollen, um Nutzer auf eine bestimmte Webseite zu lenken. Zwar existieren Verfahren, die ein solches Spamming verhindern sollen, allerdings können auch diese das Problem lediglich eindämmen, nicht aber verhindern. Das Problem ließe sich wenigstens zum Teil durch die Nutzer lösen, wenn diese gezielte Suchanfragen stellen würden, die solche irrelevanten Treffer ausschließen würden. Allerdings zeigt die Nutzerforschung einheitlich, dass das Wissen der Nutzer über die von ihnen verwendeten Suchmaschinen ausgesprochen gering ist; dies gilt sowohl für ihre Kenntnisse der Funktionsweise der Suchmaschinen als auch die Kenntnis der Suchfunktionen.
    Die Arbeit konzentriert sich neben der Darstellung des Forschungsstands im Bereich des Web Information Retrieval auf einen nutzerzentrierten Ansatz des Aufbaus von Suchmaschinen, der sich aus dem Retrieval in klassischen Datenbanken herleitet. Als zentral für eine erfolgreiche Recherche wird dabei die Möglichkeit der gezielten Beschränkung der Recherche durch den Nutzer gesehen; die wichtigsten Faktoren sind hierbei die Einschränkung nach Aktualität, Qualität und die verbesserte Dokumentauswahl aufgrund einer erweiterten Dokumentrepräsentation. Alle drei Möglichkeiten sind in bisher verfügbaren Suchmaschinen nicht zufrieden stellend implementiert. Ein Problem bei der Bearbeitung des Themas ergab sich aus der Tatsache, dass die Forschung im Bereich Web Information Retrieval zu einem großen Teil bei den Anbietern selbst stattfindet, die darauf bedacht sind, ihre Erkenntnisse nicht zu veröffentlichen und damit der Konkurrenz zu überlassen. Viele Forschungsergebnisse können daher nur anhand der fertiggestellten Anwendungen rekonstruiert werden; hilfreich waren in manchen Fällen auch die von den Suchmaschinenbetreibern angemeldeten Patente, die für die vorliegende Arbeit ausgewertet wurden. Insgesamt zeigt sich, dass eine neue Form des Information Retrieval entstanden ist. Ziele des klassischen Information Retrieval wie die Vollständigkeit der Treffermenge verlieren ob der schieren Masse der zurückgegebenen Treffer an Bedeutung; dafür werden Faktoren der Qualitätsbewertung der Dokumente immer wichtiger. Das Web Information Retrieval setzt auf dem klassischen Information Retrieval auf und erweitert dieses wo nötig. Das Ziel bleibt aber weitgehend das gleiche: Dem Nutzer die für die Befriedigung seines Informationsbedürfnisses besten Ergebnisse zu liefern. Neben der Informationswissenschaft findet die Information-Retrieval-Forschung hauptsächlich in der Informatik statt. Der informationswissenschaftlichen Forschung kommt die Aufgabe zu, den stark technik-zentrierten Ansatz der Informatik um einen "Blick fürs Ganze" zu erweitern und insbesondere die Bedürfnisse der Nutzer in ihren Ansatz einzubinden. Aufgrund der enormen Bedeutung des Web Information Retrieval, welches in den klassischen informationswissenschaftlichen Bereich fällt, ergibt sich für die Informationswissenschaft auch die Chance, sich in diesem Thema gegenüber anderen Disziplinen zu profilieren. Zum Aufbau der Arbeit Die Arbeit lässt sich grob in zwei Hauptteile gliedern: Der erste Teil (Kap. 2-10) beschreibt den Bereich Web Information Retrieval mit allen seinen Besonderheiten in Abgrenzung zum klassischen Information Retrieval; der zweite Teil (Kap. 11-13) stellt anhand der Ergebnisse des ersten Teils einen nutzerzentrierten Ansatz der Rechercheverfeinerung in mehreren Schritten vor.
    Content
    Inhalt: 1 Einleitung 2 Forschungsumfeld 2.1 Suchmaschinen-Markt 2.2 Formen der Suche im WWW 2.3 Aufbau algorithmischer Suchmaschinen 2.4 Abfragesprachen 2.5 Arten von Suchanfragen 2.6 Nutzerstudien 2.7 Forschungsbereiche 3 Die Größe des Web und seine Abdeckung durch Suchmaschinen 3.1 Die Größe des indexierbaren Web 3.2 Die Struktur des Web 3.3 Crawling 3.4 Aktualität der Suchmaschinen 3.5 Das Invisible Web 4 Strukturinformationen 4.1 Strukturierungsgrad von Dokumenten 4.2 Strukturinformationen in den im Web gängigen Dokumenten 4.3 Trennung von Navigation, Layout und Inhalt 4.4 Repräsentation der Dokumente in den Datenbanken der Suchmaschinen 5 Klassische Verfahren des Information Retrieval und ihre Anwendung bei WWW-Suchmaschinen 5.1 Unterschiede zwischen klassischem Information Retrieval und Web Information Retrieval 5.2 Kontrolliertes Vokabular 5.3 Kriterien für die Aufnahme in den Datenbestand 5.4 Modelle des Information Retrieval 6 Ranking 6.1 Rankingfaktoren 6.2 Messbarkeit von Relevanz 6.3 Grundsätzliche Probleme des Relevance Ranking in Suchmaschinen
    7 Informationsstatistische und informationslinguistische Verfahren 7.1 Textstatistische Verfahren 7.2 Nutzungsstatistische Verfahren 7.3 Informationslinguistische Verfahren 8 Linktopologische Rankingverfahren 8.1 Grundlagen linktopologischer Rankingverfahren: Science Citation Indexing 8.2 PageRank 8.3 Kleinbergs HITS 8.4 Hilltop 8.5 Evaluierung linktopologischer Verfahren 8.6 Problembereiche linktopologischer Rankingverfahren 8.7 Fazit linktopologische Verfahren 9 Retrievaltests 9.1 Aufbau und Nutzen von Retrievaltests 9.2 Aufbau und Ergebnisse ausgewählter Retrievaltests 9.3 Kritik an Retrievaltests 10 Verfahren der intuitiven Benutzerführung 10.1 Relevance Feedback 10.2 Vorschläge zur Erweiterung und Einschränkung der Suchanfrage 10.3 Klassifikation und Thesaurus 10.4 Clusterbildung 11 Aktualität 11.1 Bedeutung der Beschränkung nach der Aktualität der Dokumente 11.2 Funktionsfähigkeit der Datumsbeschränkung in Suchmaschinen 11.3 Möglichkeiten der Ermittlung von Datumsangaben in Web-Dokumenten 11.4 Aktualitätsfaktoren im Ranking 11.5 Spezialisierte Suchmaschinen für Nachrichten 11.6 Auswahl der gewünschten Aktualität durch den Nutzer 12 Qualität 12.1 Bedeutung der Beschränkung nach der Qualität der Dokumente 12.2 Qualitätsbeschränkungen bei der Recherche in Datenbank-Hosts 12.3 Identifizierung von Top-Quellen im WWW 12.4 Manuelle Einbindung von Top-Quellen 12.5 Automatisierte Einbindung von Invisible-Web-Quellen 12.6 Einbindung von Web-Verzeichnissen in Suchmaschinen 13 Verbesserung der Dokumentrepräsentation 13.1 Beschränkung auf den Inhaltsteil der Dokumente 13.2 Erweiterungen der Dokumentrepräsentation 13.3 Ersatz für die Nicht-Verwendbarkeit generischer Top-Level-Domains 13.4 Aufbereitung der Suchergebnisse in den Trefferlisten 14 Fazit und Ausblick 15 Literaturverzeichnis
    Footnote
    Zugl. Diss. Univ. Düsseldorf, Inst. für Sprache und Information, Abt. Informationswissenschaft
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.393-394 (J. Griesbaum): "... , das Buch wird seinem Titel und dem formulierten Anspruch sehr gut gerecht. Die 248 Seiten umfängliche Publikation leistet eine umfassende und, für den deutschsprachigen Raum, einzigartige State-of-the-Art-Analyse der Verfahren und auch der Defizite von Suchmaschinen im Internet. Dabei beschränkt sich Lewandowski nicht auf eine technikzentrierte Beschreibung aktueller Retrievalansätze, sondern akzentuiert ebenso deutlich auch die Problemfelder bei der Nutzung von Suchmaschinen. Dieser nutzerzentrierte Ansatz kommt vor allem im konzeptionellen Teil der Arbeit zum Tragen, der das Ziel verfolgt, Suchmaschinennutzern verbesserte Rechercheoptionen zu verschaffen. Angesichts der nur in geringem Maße vorhandenen Recherchekenntnisse der Nutzer liegt die Herausforderung vor allem darin, solche verbesserten Recherchemöglichkeiten derart auszugestalten, dass sie sich in realen Suchkontexten auch tatsächlich auswirken und nicht etwa wie die meist als "Erweitere Suche" bezeichneten Anfragemasken ein kaum beachtetes Dasein fristen. Der Verfasser konzipiert in diesem wichtigen Forschungsfeld neue Ansätze, um die Oualität des Information Retrievals zu verbessern. ... "
  17. Gesell, J.: Neuauflage der Internationalen Patentklassifikation : incompatibility issues of library classification systems and subject headings in subject cataloguing (1986) 0.07
    0.07098047 = product of:
      0.14196093 = sum of:
        0.041835472 = weight(_text_:und in 3644) [ClassicSimilarity], result of:
          0.041835472 = score(doc=3644,freq=8.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.29405463 = fieldWeight in 3644, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3644)
        0.10012546 = weight(_text_:headings in 3644) [ClassicSimilarity], result of:
          0.10012546 = score(doc=3644,freq=2.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.32167178 = fieldWeight in 3644, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=3644)
      0.5 = coord(2/4)
    
    Abstract
    Die internationale Patentklassifikation (IPC) ist mit ihrer 4. Aufl. in Englisch, Französisch und Deutsch erschienen. Sie trat am 1.1.1985 weltweit für 5 Jahre in Kraft und ersetzt seitdem die seit 1980 geltende IPC3. Die Zahl der Verzweigungen und Symbole stieg mit der letzten Auflage auf nun rund 58.500 Gruppen. Die Einführung der sog. Hybrid-Systeme mit Index-Symbolen ist sicherlich die gravierendste Neuerung in IPC4. Bisher war die IPC monohierarchisch aufgebaut, d.h. für jeden technischen Sachverhalt gab es nur eine passende Stelle im ganzen Einteilungssystem. Der erste Schritt ist nun zu einem multihierarchischen Aufbau getan. Auf bestimmten Sachgebieten ist es möglich, die mit obligatorischen Klassifikationssymbolen erfaßten Informationen mit zusätzlichen, nicht-obligatorischen Symbolen zu verknüpfen
    Source
    Die Klassifikation und ihr Umfeld: Proc. 10. Jahrestagung der Gesellschaft für Klassifikation, Münster, 18.-21.6.1986. Hrsg.: P.O. Degens
  18. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.07
    0.06786611 = product of:
      0.13573222 = sum of:
        0.05229434 = weight(_text_:und in 4206) [ClassicSimilarity], result of:
          0.05229434 = score(doc=4206,freq=18.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.36756828 = fieldWeight in 4206, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
        0.08343788 = weight(_text_:headings in 4206) [ClassicSimilarity], result of:
          0.08343788 = score(doc=4206,freq=2.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.26805982 = fieldWeight in 4206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
      0.5 = coord(2/4)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
    Content
    Editorial zu einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl-: http://0277.ch/ojs/index.php/cdrs_0277/article/view/159/349.
  19. Ostrzinski, U.: Deutscher MeSH : ZB MED veröffentlicht aktuelle Jahresversion 2022 - freier Zugang und FAIRe Dateiformate (2022) 0.07
    0.066921026 = product of:
      0.13384205 = sum of:
        0.039442863 = weight(_text_:und in 1626) [ClassicSimilarity], result of:
          0.039442863 = score(doc=1626,freq=16.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.2772374 = fieldWeight in 1626, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1626)
        0.09439919 = weight(_text_:headings in 1626) [ClassicSimilarity], result of:
          0.09439919 = score(doc=1626,freq=4.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.30327508 = fieldWeight in 1626, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=1626)
      0.5 = coord(2/4)
    
    Abstract
    Die aktuelle Ausgabe 2022 der deutschen Ausgabe der Medical Subject Headings (MeSH) steht ab sofort zum Download in verschiedenen FAIRen Dateiformaten sowie als XML- und CSV-Datei unter der CC BY 4.0-Lizenz bereit. Zu den semantisch FAIRen Formaten, die ZB MED anbietet, zählen beispielsweise RDF/XML oder JSON-LD. Sie ermöglichen es etwa Software-Lösungen zur Datenanalyse - auch mit künstlicher Intelligenz -, die Daten direkt zu nutzen. Sie müssen nicht zusätzlich konvertiert und aufbereitet werden.
    Content
    "ZB MED bietet für die deutschsprachigen MeSH-Begriffe einen Internationalized Resource Identifier (IRI) an. Der IRI-Service stellt auf einer HTML-Seite alle Informationen für einen deutschen MeSH-Term bereit und ermöglicht so die Versionierung. Die Sichtbarkeit veralteter, aber in der Vergangenheit genutzter Terme ist im Sinne der FAIR-Prinzipien dadurch weiterhin gewährleistet. Für die Übersetzung der Medical Subject Headings nutzt ZB MED den eigens entwickelten TermCurator. Das semiautomatische Übersetzungstool bietet unter anderem einen integrierten mehrstufigen Kuratierungsprozess. Der MeSH-Thesaurus als polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Darüber hinaus ist er eine der wichtigsten Quellen für ein kontrolliertes biomedizinisches Fachvokabular - beispielsweise für die Kategorisierung und Analyse von Literatur- und Datenquellen.
    Der MeSH ist ein polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Er wird jährlich aktualisiert von der U. S. National Library of Medicine herausgegeben. Für die deutschsprachige Fassung übersetzt ZB MED dann die jeweils neu hinzugekommenen Terme und ergänzt sie um zusätzliche Synonyme. Erstmalig erstellte ZB MED den Deutschen MeSH im Jahr 2020. Vorher lag die Verantwortung beim Deutschen Institut für Medizinische Dokumentation und Information (DIMDI/BfArM)."
  20. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2005) 0.07
    0.06681447 = product of:
      0.13362893 = sum of:
        0.06687863 = weight(_text_:und in 1679) [ClassicSimilarity], result of:
          0.06687863 = score(doc=1679,freq=46.0), product of:
            0.14227109 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06414678 = queryNorm
            0.47007886 = fieldWeight in 1679, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1679)
        0.06675031 = weight(_text_:headings in 1679) [ClassicSimilarity], result of:
          0.06675031 = score(doc=1679,freq=2.0), product of:
            0.31126592 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06414678 = queryNorm
            0.21444786 = fieldWeight in 1679, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=1679)
      0.5 = coord(2/4)
    
    Abstract
    Dokumentation und Information Retrieval, also das gezielte Wiederauffinden von Informationen zu thematisch-inhaltlichen Fragestellungen sind wichtiger als je zuvor. Die hier vorliegende theoretisch fundierte und praxisorientierte Darstellung der Literatur-, Daten- und Faktendokumentation enthält viele instruktive Beispiele und praktische Übungen sowie einen umfassenden Beispielthesaurus und behandelt ausführlich Ordnungs- und Retrievalsysteme. Jedes Thema wird mit zahlreichen Prüfungsfragen abgeschlossen. Die detaillierten Antworten zu den insgesamt 195 Fragen umfassen alleine etwa 60 Seiten, Dieses Lehrbuch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. Die fünfte Auflage ist aktualisiert und erweitert worden.
    Classification
    AN 93200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Ordnungslehre, Systematik
    AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis
    Content
    Aus dem Inhalt: - Zweck und Grundzüge der Dokumentation - Begriff und Wesen der Information - Dateien und Informationsspeicher - Referate - Ordnungsprinzip Klassifikation - Hierarchische Begriffsstrukturen - Alphabetisches Sortieren und systematisches Anordnen - Die Klassifikationen ICD-10 und ICPM - Ordnungsprinzip Register - Beispiel einer Dokumentation mit Registern - Ordnungsprinzip Fassettenklassifikation - Ordnungsprinzip Begriffskombination - Struktur eines Ordnungssystems - Beispielthesaurus Gebäude - Ordnungssystem Medical Subject Headings (MeSH) - Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren - Dokumenten-Deskriptoren-Matrix - Relevanz- und Vollzähligkeitsrate - Recherchieren und Suchstrategien - Dokumentations- und Retrievalsysteme - Aktive Informationsdienste - Revision eines Ordnungssystems.
    RVK
    AN 93200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Ordnungslehre, Systematik
    AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis

Authors

Languages

  • e 32
  • m 3

Types

  • a 8488
  • m 1865
  • el 889
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications