Search (525 results, page 1 of 27)

  • × theme_ss:"Suchmaschinen"
  1. Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003) 0.16
    0.15570247 = product of:
      0.20760329 = sum of:
        0.1114965 = weight(_text_:java in 55) [ClassicSimilarity], result of:
          0.1114965 = score(doc=55,freq=2.0), product of:
            0.47730878 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06772732 = queryNorm
            0.23359407 = fieldWeight in 55, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
        0.036624365 = weight(_text_:und in 55) [ClassicSimilarity], result of:
          0.036624365 = score(doc=55,freq=22.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.24381724 = fieldWeight in 55, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
        0.059482425 = weight(_text_:html in 55) [ClassicSimilarity], result of:
          0.059482425 = score(doc=55,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.17061827 = fieldWeight in 55, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
      0.75 = coord(3/4)
    
    Content
    "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
    Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
  2. Lischka, K.; Kremp, M.: Was der Google-Gegner weiß - und was nicht (2009) 0.13
    0.12516518 = product of:
      0.25033036 = sum of:
        0.052055605 = weight(_text_:und in 5443) [ClassicSimilarity], result of:
          0.052055605 = score(doc=5443,freq=4.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.34654674 = fieldWeight in 5443, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=5443)
        0.19827475 = weight(_text_:html in 5443) [ClassicSimilarity], result of:
          0.19827475 = score(doc=5443,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.56872755 = fieldWeight in 5443, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.078125 = fieldNorm(doc=5443)
      0.5 = coord(2/4)
    
    Abstract
    Clevere Präsentation, schwache Datenbasis: Die Suchmaschine Wolfram Alpha wurde vorab schon als "Google Killer" gehandelt - jetzt hat SPIEGEL ONLINE eine erste Version getestet. Sie weiß viel über Aspirin, versagt bei Kultur - und hält die CDU für einen Regionalflughafen.
    Source
    http://www.spiegel.de/netzwelt/web/0,1518,623122,00.html
  3. Fichtner, M.: Im Land der Raketenwürmer (1997) 0.11
    0.10875699 = product of:
      0.21751398 = sum of:
        0.05889419 = weight(_text_:und in 6530) [ClassicSimilarity], result of:
          0.05889419 = score(doc=6530,freq=8.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.39207286 = fieldWeight in 6530, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6530)
        0.15861979 = weight(_text_:html in 6530) [ClassicSimilarity], result of:
          0.15861979 = score(doc=6530,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.45498204 = fieldWeight in 6530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0625 = fieldNorm(doc=6530)
      0.5 = coord(2/4)
    
    Abstract
    Sie rasen wie gestört durchs Netz, klicken aus alles, was sich bewegt, merken sich jeden noch so unwichtigen Blödsinn - und sind damit zum wichtigsten und zugleich umstrittensten Stückchen Software im Internet geworden: die sog. Crawlers, Robots, Spiders, Worms und Ants
    Content
    Beitrag zu den verschiedenen search engines des Internet mit Erläuterung der 'META-Tags' im HEAD-Bereich von HTML-Dokumenten: <META name="description" content="..."> ("..." nicht länger als 200 Zeichen) und <META name="keywords" content="..."> ("..." als Komma separierte Stichwortliste, die nicht länger als 1000 Zeichen sein soll)
  4. Google findet Office-Dateien (2001) 0.11
    0.10875699 = product of:
      0.21751398 = sum of:
        0.05889419 = weight(_text_:und in 5530) [ClassicSimilarity], result of:
          0.05889419 = score(doc=5530,freq=8.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.39207286 = fieldWeight in 5530, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=5530)
        0.15861979 = weight(_text_:html in 5530) [ClassicSimilarity], result of:
          0.15861979 = score(doc=5530,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.45498204 = fieldWeight in 5530, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0625 = fieldNorm(doc=5530)
      0.5 = coord(2/4)
    
    Abstract
    Die Suchmaschine Google nimmt sich nun auch Office-Dokumente vor: Auf Anweisung in den erweiterten Einstellungen erkennt sie Microsoft Word, Powerpoint und Excel-Dateien sowie Texte in RTF und Postscript. Google kann die Fundstücke in das HTML-Format übersetzen und im Web-Browser anzeigen. Das erspart die Installation der Anwendungen und schützt vor Macro-Viren. Allerdings bereiten die Umlaute noch Probleme
  5. Schaat, S.: Von der automatisierten Manipulation zur Manipulation der Automatisierung (2019) 0.10
    0.10481183 = product of:
      0.20962366 = sum of:
        0.051003866 = weight(_text_:und in 996) [ClassicSimilarity], result of:
          0.051003866 = score(doc=996,freq=6.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.33954507 = fieldWeight in 996, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=996)
        0.15861979 = weight(_text_:html in 996) [ClassicSimilarity], result of:
          0.15861979 = score(doc=996,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.45498204 = fieldWeight in 996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0625 = fieldNorm(doc=996)
      0.5 = coord(2/4)
    
    Abstract
    Die Teilblindheit unseres Lebens und unserer Bedürfniserfüllung dient als Tor unbewusster Einflussnahme.
    Content
    "Wir kennen das bereits von Google, Facebook und Amazon: Unser Internet-Verhalten wird automatisch erfasst, damit uns angepasste Inhalte präsentiert werden können. Ob uns diese Inhalte gefallen oder nicht, melden wir direkt oder indirekt zurück (Kauf, Klick etc.). Durch diese Feedbackschleife lernen solche Systeme immer besser, was sie uns präsentieren müssen, um unsere Bedürfnisse anzusprechen, und wissen implizit dadurch auch immer besser, wie sie unsere Bedürfniserfüllung - zur Konsumtion - manipulieren können."
    Source
    https://www.heise.de/tp/features/Von-der-automatisierten-Manipulation-zur-Manipulation-der-Automatisierung-4296557.html?wt_mc=nl.tp-aktuell.woechentlich
  6. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.09
    0.09197992 = product of:
      0.36791968 = sum of:
        0.36791968 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
          0.36791968 = score(doc=2673,freq=4.0), product of:
            0.47730878 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06772732 = queryNorm
            0.7708211 = fieldWeight in 2673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2673)
      0.25 = coord(1/4)
    
    Abstract
    The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
  7. Weiß, E.-M.: ChatGPT soll es richten : Microsoft baut KI in Suchmaschine Bing ein (2023) 0.09
    0.087615624 = product of:
      0.17523125 = sum of:
        0.036438923 = weight(_text_:und in 1867) [ClassicSimilarity], result of:
          0.036438923 = score(doc=1867,freq=4.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.24258271 = fieldWeight in 1867, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1867)
        0.13879232 = weight(_text_:html in 1867) [ClassicSimilarity], result of:
          0.13879232 = score(doc=1867,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.3981093 = fieldWeight in 1867, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1867)
      0.5 = coord(2/4)
    
    Abstract
    ChatGPT, die künstliche Intelligenz der Stunde, ist von OpenAI entwickelt worden. Und OpenAI ist in der Vergangenheit nicht unerheblich von Microsoft unterstützt worden. Nun geht es ums Profitieren: Die KI soll in die Suchmaschine Bing eingebaut werden, was eine direkte Konkurrenz zu Googles Suchalgorithmen und Intelligenzen bedeutet. Bing war da bislang nicht sonderlich erfolgreich. Wie "The Information" mit Verweis auf zwei Insider berichtet, plant Microsoft, ChatGPT in seine Suchmaschine Bing einzubauen. Bereits im März könnte die neue, intelligente Suche verfügbar sein. Microsoft hatte zuvor auf der hauseigenen Messe Ignite zunächst die Integration des Bildgenerators DALL·E 2 in seine Suchmaschine angekündigt - ohne konkretes Startdatum jedoch. Fragt man ChatGPT selbst, bestätigt der Chatbot seine künftige Aufgabe noch nicht. Weiß aber um potentielle Vorteile.
    Source
    https://www.heise.de/news/ChatGPT-soll-es-richten-Microsoft-baut-KI-in-Suchmaschine-Bing-ein-7447837.html
  8. Barlow, L.: ¬The spider's apprentice : how to use Web search engines (1997) 0.08
    0.079309896 = product of:
      0.31723958 = sum of:
        0.31723958 = weight(_text_:html in 7533) [ClassicSimilarity], result of:
          0.31723958 = score(doc=7533,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.9099641 = fieldWeight in 7533, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.125 = fieldNorm(doc=7533)
      0.25 = coord(1/4)
    
    Source
    http://www.monash.com/spidap4.html
  9. Smith, A.G.: Search features of digital libraries (2000) 0.07
    0.07052509 = product of:
      0.14105017 = sum of:
        0.02208532 = weight(_text_:und in 1940) [ClassicSimilarity], result of:
          0.02208532 = score(doc=1940,freq=2.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.14702731 = fieldWeight in 1940, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1940)
        0.11896485 = weight(_text_:html in 1940) [ClassicSimilarity], result of:
          0.11896485 = score(doc=1940,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.34123653 = fieldWeight in 1940, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.046875 = fieldNorm(doc=1940)
      0.5 = coord(2/4)
    
    Content
    Enthält eine Zusammenstellung der Werkzeuge und Hilfsmittel des Information Retrieval
    Footnote
    Auch unter: http://www.shef.ac.uk/~is/publications/infres/paper73.html.
  10. Jörn, F.: Wie Google für uns nach der ominösen Gluonenkraft stöbert : Software-Krabbler machen sich vor der Anfrage auf die Suche - Das Netz ist etwa fünfhundertmal größer als alles Durchforschte (2001) 0.07
    0.07036339 = product of:
      0.14072677 = sum of:
        0.052055605 = weight(_text_:und in 671) [ClassicSimilarity], result of:
          0.052055605 = score(doc=671,freq=100.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.34654674 = fieldWeight in 671, product of:
              10.0 = tf(freq=100.0), with freq of:
                100.0 = termFreq=100.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=671)
        0.08867117 = weight(_text_:html in 671) [ClassicSimilarity], result of:
          0.08867117 = score(doc=671,freq=10.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.2543427 = fieldWeight in 671, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.015625 = fieldNorm(doc=671)
      0.5 = coord(2/4)
    
    Abstract
    Ohne das Internet ist heute das Wissen der Welt kaum mehr vorstellbar - und ohne Suchmaschinen wäre es nicht auffindbar. Freilich steht nicht alles Wissen im Word Wide Web. Und erst recht nicht ist es dort zu finden, nicht einmal von dieser) technischen Wunderwerken, den Suchmaschinen, die uns dabei helfen. In den sechziger Jahren entstand Hypertext als eine einheitliche Darstellung und Verknüpfung von elektronischen Dokumenten. Im Jahr 1980 empfahl Tim Berners-Lee dem Genfer Kernforschungszentrum Cern einheitliche Verweise zwischen Dokumenten, sogenannte Links. Zu Weihnachten 1990 schrieb er dort den ersten Browser und erfindet damit das World Wide Web. Am 15. Dezember 1995 ging Altavista in Palo Alto ans Netz. Als wir hier einige Monate später über diese Suchmaschine berichteten, schätzten wir damals 30 Millionen Seiten im Interne. Inzwischen mag es da 300 Milliarden Dateien geben, wie viele, weiß keiner, nicht einmal die größte Suchmaschine. Die Technik der Suchmaschinen ist gleich geblieben. Sie suchen die Inhalte vorher, vor der Abfrage, mit Software, den "Krabblern", einer Erfindung des Franzosen Louis Monier. Die machen eine Liste aller vorkommenden Wörter und krabbeln dann, Link um Link, zu weiteren Seiten, von Datei zu Datei, von Domane zu Domäne, von Kontinent zu Kontinent. Wie genau die invertierten Dateien aussehen, die sie erzeugen, wie groß sie sind, wie dort Worthäufigkeit oder Stellung des Treffers auf der durchforschten Seite gespeichert ist - wichtig beim Sortieren der Ergebnisse -, wie daraus später geschlossene Wortgruppen herausgeholt werden, bleibt ein Betriebsgeheimnis. Einen kleinen Einblick gab uns Guido Adam, Technikchef der deutschen Suchmaschine Infoseek. In dieser Auskunftei mit 35 festen und noch einmal so vielen freien Mitarbeitern sind neun für den Katalog tätig. Die Rechner stehen in Darmstadt. In 19-Zoll-Gestellen laufen hinter Plexiglas sechs Krabbler-PCs mit 3 bis 8 Gigabyte (GB) Ram-Speicher und je hundert Krabbelprogrammen. Sie sind mit 640 Megabit je Sekunde ans Internet angeschlossen. Ihr Ziel: Wenigstens einmal mönatlich 30 Millionen deutsche Dateien besuchen. Erkennen sie häufig wechselnde Inhalte, kommen sie öfter vorbei; für ganz Aktuelles wie Zeitungsberichte gibt es Sondersucher, die notfalls stündlich nachlesen. Zwei weitere Maschinen bauen immerfort neue Indizes und legen die Ergebnisse in einem Speicher-Server mit brutto 5 Terabyte (5 mal 10**12 Byte) ab. Der Index - jeweils rund 350 GB - wird fünffach gehalten, damit Anfragen blitzschnell - in etwa einer Sekunde - von drei weiteren Maschinen beantwortet werden können. Index-"Instanz" Nummer vier ist Reserve und die fünfte im Aufbau.
    Der weitere Speicher wird für die URL-Adreßdatenbank gebraucht, welche die Krabbler steuert, und als Zwischenspeicher für frisch aufgesuchte Dokumente, die dort ihrer Indizierung harren. An Anfragen kommen bei Infoseek, die T-Online und andere bedienen, täglich zwei Millionen herein; Hauptsuchzeit ist abends 20 bis 23 Uhr. Ja, Spitzenreiter der Suchbegriffe ist immer noch Sex. Gehen wir auf die Suche nach Seltenem. Im internationalen Wettstreit um die weitreichendste Netzausforschung hat zur Zeit die Suchmaschine Google (www.Google.com, "search 1.346.966.000 web pages") mit über 700 Millionen indizierten, teils sogar gespeicherten Seiten die Nase vorn, zumal sie dank ihrer Linktechnik weitere fast 700 Millionen Seiten kennt. Täglich bekommt Google 70 Millionen Anfragen. An zweiter Stelle mit knapp 600 Millionen Seiten folgt Fast, als "Alltheweb" bekannt (www.alltheweb.com), danach etwa gleichrangig mit über 500 Millionen Seiten der Oldtimer Altavista (www.altavista.com), Inktomi und Webtop (www.webtop.com). Inktomi liefert seine Ergebnisse an andere, erst an Hotbot, dann an Microsoft (www.msn.com), bis zum Juli 2000 auch an Yahoo (www.yahoo.com). Yahoo, geboren 1994, ist die älteste und immer noch eine sehr beliebte Suchmaschine, nicht, weil sie Exotika wie "Gluonenkraft" liefern könnte-, sondern weil sich dort rund 150 Katalogisierer Menschen! - um Stichwörter kümmern. Nur wenn die nichts fanden, werden fremde Ergebnisse zugespielt, inzwischen von Google. Ähnlich ist das bei Look Smart (www.looksmart.com), die von Inktomi unterversorgt wird. In hartnäckigen Fällen nutze man Übersuchmaschinen, sogenannte Meta-Crawler wie www.ixquick.com oder hier www.metager.de, die den eingegebenen Begriff automatisch in mehreren Suchmaschinen aufzuspüren versuchen (nicht in Google). Bei den meisten Suchen geht es jedoch nicht um seltene Begriffe. Von den 75 Millionen Ausdrücken, die Altavista einst zählte, werden üblicherweise triviale gesucht. Die Datenbankgröße der Suchmaschine ist dann belanglos. Zudem stehen viele Inhalte mehrfach im Netz, und der Suchende will nicht fünfmal dasselbe vorgespielt bekommen. Bei den meist viel zu vielen Treffern ist die wirkliche Frage deren Anzeigereihenfolge. Da wird versucht, nach Häufigkeit des Wortes im Text zu sortieren oder danach, ob es im Titel und näher am Textanfang vorkommt. Die Suchmaschinen erklären selbst ein wenig davon, zugleich als Aufforderung an WebDesigner, einfache Seiten zu machen, sich kurz und möglichst rahmenlos zu fassen. Speziell für die Suchmaschinen haben die meisten Webseiten im Kopfeintrag Stichwörter, im Quelltext der Seite von jedermann zu sehen. Webseiten können sich "Roboter" sogar verbitten. In den Suchmaschinen-Redaktionen wird für viele Begriffe die Ausgabe manuell festgelegt - wobei zuweilen bereits ein gutes "Placement" bezahlt wird, was sicher bedenklich ist. Für den Neuankömmling Google haben sich 1998 Sergey Brin und Larry Page etwas Besonderes ausgedacht: Die Seiten werden nach Beliebtheit bewertet, und die hängt davon ab, wie viele (beliebte) Seiten zur jeweiligen Seite einen Link hin haben. Das ist gut für klassische Inhalte. Neuigkeiten, auf die noch niemand deutet, werden so nicht gefunden. Für allgemeine Fragen kommt die Lösung nicht von großen Automaten, sondern von spezialisierten Auskunfteien, die rubriziert nach Sachgebieten vorgehen.
    Da gibt es Spezialisten für alles, etwa Webbrain (www.webbrain.com), wo zur Sache gegangen werden kann bis hinunter zu Dürrenmatt, es gibt Sammlungen für Universitäten und Ausbildung (www.searchedu.com) und deutsche für Technik (www.fiz-technik.de), für Juristisches, Medizinisches und, von den Mormonen gesponsert, für Ahnenforschung (www.familysearch.com); Suche nach vermißten Kindern (www.fredi.org) ist genauso möglich wie nach Gratisgeschenken (www.kostenlos.de) oder in Bücherkatalogen samt Verkauf (www.amazon.de). Nur die deutsche Telefonbuchsuche wird immer schlechter. Es gibt Maschinen, die freies Fragen zulassen - und dann erstaunliche Ergebnisse bringen, etwa Northern Light (www.northernlight.com) auf die deutsch gestellte Frage: "Wie alt wurde Cäsar?" Wird dasselbe dagegen von Julius Cäsar" erfragt, ist man zwei Klicks später beim Ergebnis. Hier muß maschinelle Intelligenz noch üben. Erfahrungsgemäß denkt man sich besser selbst eine Reihe von Begriffen aus, die das zu findende Dokument enthalten könnte, und variiert, bis die Treffer näherkommen, so auch bei Xipolis (www.xipolis.net), das sich Wissensbibliothek nennt, Cäsars Geburtsjahr aber aus dem 24bändigen Brockhaus nur gegen Gebühr herausrücken will. Wissen.de gibt's frank und frei, und die berühmte Encyclopedia Britannica (www.Britannica.com) ist inzwischen auch schon offen! Kepnt man ein paar Worte des genauen Wortlauts, sagen wir, "zu Mantua in Banden", so setze man sie in Anführungszeichen und lasse nur nach dieser Folge suchen. Google hält durchsuchte Seiten (bis zu rund 100 Kilobyte) - sozusagen das ganze Netz, unvorstellbar! - in Kopie vor und kann selbst dann aus seinem Archiv dienen, wenn das Original schlecht oder nicht mehr erreichbar ist. Sie schnell anzUklicken hat den Zusatzvorteil, daß die Suchbegriffe farbig hervorgehoben werden. Und man sieht, wie die Seite vielleicht vor zwei Monaten beim letzten Google-Besuch ausgesehen hat. Insgesamt hat Google stets über hundert Indizes mit jeweils mehreren Terabyte Daten am Netz; Googles Legebatterie von über 8000 billigen Linux-PC-Servern grast in mehr a s einem Petabyte eigenem Speicher (1011 Byte). Dennoch: Die größte Sorge aller Netzfreunde ist das "unsichtbare Netz", das schätzungsweise fünfhundertmal umfangreicher ist als das mit Suchmaschinen Durchforschbare.
    Es gibt riesige Inseln nach außen nicht verlinkter Dateien, es gibt Formate, die dem HTML-Standard nicht entsprechen und von Suchmaschinen nicht oder ungern gelesen werden, von Word-Dokumenten bis zu PDF-Dateien (Google durchkämmt sie und speichert sie zum schnellen Uberblick und vorteilhaft kopierbar als Textdateien!), Tabellen und Folienvorträge, Gedcom-Stammbäume, vor allem aber Bilder, Filme, Musik, die sich nur schwer elektronisch katalogisieren lassen. Haben Suchmaschinen Zeit, mit künstlicher Intelligenz herauszufinden, ob auf einem Bild eine Person ist? Und wenn, wer mag es sein? Infoseek bemüht sich in einer eigenen Bildersuche darum, kann allerdings auch kein Konterfei von Luis Trenker oder Toni Sailer herbeizaubern, wogegen "Luis Trenker Bild", besonders bei Google, zum Foto führt. "Britney Spears" strahlt einem gleich entgegen! Wenn Bilder beliebig benannt werden, bleiben sie unauffindbar. MP3-Dateien enthalten oft maschinenlesbar den Titel in der Musikdatei - eine große Hilfe für Suchmaschinen. Neue Webformate wie Macromedia Flash, dem Internet-Veteranen ohnehin ein Graus, vernebeln das in ihrem Troß Folgende. Und bietet eine Internetseite eine eigene Datenbanksuche an, dann bleibt diese Datenbank vor Suchmaschinen verborgen, von Telefonnummern und Zügen bis zu Artikeln dieser Zeitung. Zuvorkommender ist es, die Inhalte in Hypertext ins Netz zu stellen - für die Suchmaschinen und zusätzlich manuell darin suchen zu lassen. Suchmaschinen wie Freefind oder Atomz bieten das kostenlos an. Grundsätzlich können Suchmaschinen kostenpflichtige Inhalte nicht durchkämmen. So wie sich die olympische Idee inzwischen den Profis gebeugt hat, besteht auch im Internet die Gefahr, daß es immer kommerzieller zugeht. Ein Musterbeispiel sind WapInhalte für mobile Betrachter, die im Gegensatz zu HTML-Seiten nicht systematisch von einem Domänennamen her über Links erreichbar sind. Wap-Suchmaschinen weisen also nur angemeldete Seiten nach und spielen eine untergeordnete Rolle. Viel lieber schleusen die Mobilfunkanbieter ihre Kunden über Portale. Zollund Zahlgrenzen, Partikularismus zerstören das Netz. Beim japanischen Imode, mit HTML kompatibel, ist das anders; selbst Google bietet über www.google.com/imode Suche an, hat dann aber Mühe, Imode-Inhalte (in cHTML, compact HTML) von HTML zu unterscheiden. Grundsätzlich ist die Rivalität zwischen Internet-Portalen mit ihrer Zugangsführung und Suchmaschinen für Quereinsteiger noch nicht ausgefochten. Noch aus der Vor-Web-Zeit stammen Diskussionsforen. Dort werden zu bestimmten Themen Meinungen ausgetauscht, - moderiert oder wildwachsend.
    Die Beiträge, eine Art E-Mails mit gestrengen Usancen, finden sich dann auf vielen kooperierenden Servern, auf uralten nichtkommerziellen Fido- oder Zerberus-Boxen und bei großen Internet-Anbietern à la T-Online, die die Eintrage wie kommunizierende Röhren untereinander austauschen. Die mit Newsreader-Zusatzsoftware zu lesenden, zuweilen ruppigen Beiträge dieser Zehntausenden von Newsgroups im "Usenet" sind ein wahres Dorado für Tips und Meinungen, für praktische Hilfe und unermüdliche Kollegialität - oft zum Ärger der Produkthersteller, gelegentlich zur Entlastung von deren Kundendiensten. Frage-und-Antwort-Fäden (Threads) verästeln sich zu einem Baum der Meinungen und des Wissens. Einen Überblick gibt etwa Tile.net oder groups.google.com, versuchsweise mag man als Sprachfreund bei http://faql.de einsteigen. Über www.deja.com konnte man überall browsergeführt mitdiskutieren und seinen Senf dazugeben. Ende 2000 ging es damit bergab, am 12. Februar stellte Deja seinen Dienst ein. Domänenname und Datenbank (mehr als ein Terabyte mit über 500 Millionen Beiträgen seit 1995) wurden von Altavista an Google verkauft und sind unter der alten Adresse lebendig. Nur neue Beiträge kann man dort nicht mehr loswerden und muß sich dazu schon direkt zum jeweiligen Forum bemühen. Manche Suchmaschinen bieten maschinelle Übersetzungen. Die Ergebnisse helfen Amerikanern, uns zu verstehen, mit Phantasie und gutem Willen, Auf seiner sehenswerten englischen Suchseite bietet dies Google an, so wie seit längerem Altavista - vom selben Übersetzer. Gefundenen Text bekommt man ins Englische übersetzt; klickt man weiter, so auch die weiteren Seiten. Man sollte sich nicht darüber lustig machen, selbst wenn eines Dichters Werk als "its factory" erscheint und die Stadt Essen als "meal". Die Wunscheinstellungen (speicherbar, wenn man Cookies zuläßt) bei Google lassen übrigens zu, daß die gefundenen Seiten, ob original, ob übersetzt, in einem neuen Browserfenster aufscheinen.'Alle anderen machen das auch wenn man die Shift-Taste beim Klicken drückt. Hoffen wir, daß uns diese offene Wunderwelt des Internet mit ihren Suchmaschinen noch lange erhalten bleibt und daß kommende Multimedia-Inhalte nicht in einem Wust von Formaten untergehen. Das Netz muß Schranken überwinden können, für Maschinen, letztlich aber von Mensch zu Mensch
  11. Palm, G.: ¬Der Zeitgeist in der Suchmaschine : Unser alltäglicher "Google-Hupf" und seine Spuren (2002) 0.07
    0.07014547 = product of:
      0.14029095 = sum of:
        0.041153565 = weight(_text_:und in 2226) [ClassicSimilarity], result of:
          0.041153565 = score(doc=2226,freq=10.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.27396923 = fieldWeight in 2226, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2226)
        0.09913737 = weight(_text_:html in 2226) [ClassicSimilarity], result of:
          0.09913737 = score(doc=2226,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.28436378 = fieldWeight in 2226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2226)
      0.5 = coord(2/4)
    
    Abstract
    Zeitmaschinen gibt es schon länger, spätestens seit H. G. Wells, aber eine Zeitgeistmaschine existiert erst seit 1998: Google. Trend-Gurus und ihre Trend-Büros gehören demnächst der Vergangenheit an. Eine weitere Ironie des Netzes, das heute bereits verabschiedet, was doch für morgen bestimmt war. Google macht die ohnehin so anfechtbare Zunft der Seher tendenziell arbeitslos, weil die Suchmaschine der Suchmaschinen sich nicht auf Nostradamus oder Horoskop, Kassandra oder Kaffeesatz, sondern auf Suchanfragen verlässt. Was die Welt umtreibt, was mega-in oder mega-out ist, bildet sich in Googles Zeitgeistfeature ab. Das komplexe Wunder von Google ist der Vokal "o", der bekanntlich erstaunlich dehnbar ist, wenn die Welt auf der Suche nach sich selbst ist. Google führt sich auf ein Wortspiel mit dem mathematischen Begriff "googol" zurück, eine 1 mit 100 Nullen. Rechnet man Googles Partnerschaften mit Yahoo und anderen dazu, wird pro Tag ca. 150 Millionen mal gegoogelt - Tendenz selbstverständlich steigend. Nach Google-Mitgründer Larry Page besteht der Anspruch der perfekten Suchmaschine darin, dass sie genau versteht, was der Suchende will und ihn exakt bedient. Doch das ist nur die längst nicht erreichte Sonnenseite der blitzschnell generierten Suchantworten der digitalen Wissensgesellschaft. Die vielen Fragen der Wissbegierigen sind selbst Antworten - Antworten auf die Frage nach den Interessen, Wünschen und Begierden der Netzgesellschaft.
    Source
    http://www.telepolis.de/tp/deutsch/special/auf/13760/1.html
  12. Hillenbrand, T.: Googles Zehn Gebote (2005) 0.07
    0.06816937 = product of:
      0.13633874 = sum of:
        0.06694257 = weight(_text_:und in 5314) [ClassicSimilarity], result of:
          0.06694257 = score(doc=5314,freq=54.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.44565287 = fieldWeight in 5314, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5314)
        0.06939616 = weight(_text_:html in 5314) [ClassicSimilarity], result of:
          0.06939616 = score(doc=5314,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.19905464 = fieldWeight in 5314, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5314)
      0.5 = coord(2/4)
    
    Content
    "Und Mo der User irrte einsam durch die kalte Betonwüste und er wusste nicht wo Norden noch Süden war. "Weh mir", rief er, "ausgezogen war ich, den Tempel des Heiligen Saturn zu finden, auf dass mir seine Hohepriester einige jener kleinen Silberscheiben verkauften, zu wohlfeilen Preisen. Doch nun bin ich ganz verloren und weiß nicht, wohin ich meine Schritte lenken soll." Es begab sich aber, dass Mo an einer Taverne vorbeikam. "Preiset den Herrn", rief er aus, "diese bescheidene Tränke vermag mir nicht nur ein wohlschmeckend Heißgebräu mit Vanillearoma zu bereiten. Vermittels ihrer vermag ich auch die Götter des Internet um Rat anzuflehen." Und so öffnete er sein Ränzel, entnahm sein gesegnetes iBuch von Antiochia und klinkte sich in den Hotspot des Kaffeehökers ein. Alsdann betete Mo zu Google. Und er rief: "O allwissender Google. Ich suche den Tempel des edlen Saturn oder des erhabenen Conrad, auf dass ich einige Silberlinge zur Archivierung meiner Schriften erwerben könnte." Und so tippte Mo die Wörter "DVD Berlin" in sein magisches Büchlein. Und als er die Return-Taste betätigte, da vernahm er in der Ferne ein Donnergrollen und der Himmel verfinsterte sich. Und ein Blitz zuckte vom Himmel und fuhr in Mos treues iBuch und der Akku fing Feuer. Und es war viel Wehklagen und Geschrei in der Taverne. Diese Zeichen des Herrn trieben die Furcht in Mos Herz und er fiel vor dem brennenden Zauberbüchlein auf die Knie. Und plötzlich wurde er in den lodernden Flammen des mächtigen Google Antlitz' gewahr. Und jener sprach: "Mo, du Idiot! Du willst der Prophet der Suchmaschinen sein, aber du weißt ja nicht mal, wie man eine vernünftige Abfrage formuliert!" Mo warf sich zu Boden: "Allmächtiger, ich - ...". "Klappe, Mo!", zischte das iBuch. "Täglich wollen die Adepten Antworten von mir, doch kaum einer ist in der Lage, seine Fragen richtig zu stellen. Das nervt höllisch. Empfange nunmehr meine zehn Gebote der Internet-Suche. Und künde den anderen Usern davon immerdar." Und er sprach: Und Mo hob die Hände zum Himmel und rief: "Hosianna! Lob und Ehre sei Dir, O mächtiger und preisenswerter Gott der Suche. Umgehend will ich Deine Gebote meißeln in feinsten Marmor, auf dass ein jeder sie schaue!" Und ein weiteres grollendes Seufzen erschütterte die Taverne. "Marmor? Du hast es wahrlich nicht mit Löffeln gefressen, Mo. Poste es irgendwo im Netz, das geht viel schneller." Und so geschah es."
    Footnote
    Die 10 Google-Gebote: Du sollst ... 1. ... nie weniger als drei Begriffe eingeben 2. ... Artikel und Hilfsverben ächten 3. ... Nomen bevorzugen 4. ... "Phrasen in Anführungszeichen" setzen 5. ... Wörter gebrauchen, die du in deinen Ergebnissen zu finden erwartest 6. ... die Syntax des Heiligen Boole in Ehren halten 7. ... alles andere klein schreiben 8. ... auch die ehrwürdigen Verzeichnisse befragen 9. ... andere Suchmaschinen haben neben mir 10. ... auch der Auskunft und dem Telefon huldigen
    Source
    http://www.spiegel.de/netzwelt/technologie/0,1518,380214,00.html
  13. Handbuch Internet-Suchmaschinen [1] : Nutzerorientierung in Wissenschaft und Praxis (2009) 0.07
    0.06816937 = product of:
      0.13633874 = sum of:
        0.06694257 = weight(_text_:und in 1329) [ClassicSimilarity], result of:
          0.06694257 = score(doc=1329,freq=54.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.44565287 = fieldWeight in 1329, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1329)
        0.06939616 = weight(_text_:html in 1329) [ClassicSimilarity], result of:
          0.06939616 = score(doc=1329,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.19905464 = fieldWeight in 1329, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1329)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Handbuch steht die Nutzerorientierung im Vordergrund. Namhafte Autoren aus Wissenschaft und Praxis beschäftigen sich in 16 Kapiteln mit Web-Suchmaschinen, die die Vorreiter hinsichtlich des sich verändernden Nutzerverhaltens sind. Das bei Google und Co. erlernte Verhalten wird auf andere Suchsysteme übertragen: die Website-Suche, die Intranet-Suche und die Suche in Spezialsuchmaschinen und Fachdatenbanken. Für alle Anbieter von Informationssystemen wird es zunehmend wichtig, einerseits die Arbeitsweise von Suchmaschinen zu kennen, andererseits mit dem Verhalten Ihrer Nutzer vertraut zu sein. Auf der Seite der Wissenschaftler werden Informatiker, Informationswissenschaftler, Medienwissenschaftler und Bibliothekswissenschaftler angesprochen. Für Entwickler bietet dieses Handbuch einen Überblick über Möglichkeiten für Suchsysteme, gibt Anregungen für Umsetzung und zeigt anhand von bestehenden Lösungen, wie eine Umsetzung aussehen kann. Für Entscheider, Rechercheure und Informationsvermittler bietet das Buch lesbare Überblicksartikel zu relevanten Themenbereichen, auf deren Basis eine Strategie für individuelle Suchlösungen erarbeitet werden kann. Als dritte Praktiker gruppe sind u.a. Berater, Lehrer, Journalisten und Politiker zu nennen, die sich zu den wichtigsten Themen rund um die Suche informieren möchten.
    Content
    I. Suchmaschinenlandschaft Der Markt für Internet-Suchmaschinen - Christian Maaß, Andre Skusa, Andreas Heß und Gotthard Pietsch Typologie der Suchdienste im Internet - Joachim Griesbaum, Bernard Bekavac und Marc Rittberger Spezialsuchmaschinen - Dirk Lewandowski Suchmaschinenmarketing - Carsten D. Schultz II. Suchmaschinentechnologie Ranking-Verfahren für Web-Suchmaschinen - Philipp Dopichaj Programmierschnittstellen der kommerziellen Suchmaschinen - Fabio Tosques und Philipp Mayr Personalisierung der Internetsuche - Lösungstechniken und Marktüberblick - Kai Riemer und Fabian Brüggemann III. Nutzeraspekte Methoden der Erhebung von Nutzerdaten und ihre Anwendung in der Suchmaschinenforschung - Nadine Höchstötter Standards der Ergebnispräsentation - Dirk Lewandowski und Nadine Höchstötter Universal Search - Kontextuelle Einbindung von Ergebnissen unterschiedlicher Quellen und Auswirkungen auf das User Interface - Sonja Quirmbach Visualisierungen bei Internetsuchdiensten - Thomas Weinhold, Bernard Bekavac, Sonja Hierl, Sonja Öttl und Josef Herget IV. Recht und Ethik Datenschutz bei Suchmaschinen - Thilo Weichert Moral und Suchmaschinen - Karsten Weber V. Vertikale Suche Enterprise Search - Suchmaschinen für Inhalte im Unternehmen - Julian Bahrs Wissenschaftliche Dokumente in Suchmaschinen - Dirk Pieper und Sebastian Wolf Suchmaschinen für Kinder - Maria Zens, Friederike Silier und Otto Vollmers
    Footnote
    Vgl. auch: http://www.bui.haw-hamburg.de/164.html (Elektronische Ressource) Rez. in: IWP 60(2009) H.3, S.177-178 (L. Weisel): "Mit dem vorliegenden Handbuch will der Herausgeber, Prof. Dr. Dirk Lewandowksi von der Hochschule für Angewandte Wissenschaften Hamburg, nach eigenen Worten eine Lücke füllen. Er hat renommierte Autoren aus unterschiedlichen Fachcommunities aufgerufen, zu dem Thema "Suchmaschinen im Internet" ihre unterschiedlichen Perspektiven in Form von Übersichtsartikeln zusammenzuführen. So möchte er mit diesem Band den Austausch zwischen den Communities sowie zwischen Wissenschaftlern und Praktikern fördern. . . . Empfehlung Dem Handbuch "Internet-Suchmaschinen" wird eine breite Leserschaft aus Wissenschaft und Praxis des Suchens und Findens im Web gewünscht, es sollte bei allen Einrichtungen für die Ausbildung des Fachnachwuchses zum Repertoire gehören, um diesen kritisch an die Thematik heranzuführen. Das gedruckte Werk wird der Aktualität und dem Wandel in diesem sehr dynamischen Fachgebiet Tribut zollen müssen. Statt einer zeitnahen Zweitausgabe sei dem Herausgeber und dem Verlag hier der Weg der kontinuierlichen Ergänzung empfohlen: um die oben genannten fehlenden Beiträge, aber auch sich neu ententwickelnde Inhalte - in Form eines lebendigen Lehrbuches -auf der geeigneten elektronischen Plattform."
  14. Schulzki-Haddouti, C.: Mit Google durchs WWW : Was die immer populärer werdende Suchmaschine vom Rest der Welt unterscheidet (2001) 0.07
    0.06797312 = product of:
      0.13594624 = sum of:
        0.03680887 = weight(_text_:und in 1529) [ClassicSimilarity], result of:
          0.03680887 = score(doc=1529,freq=8.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.24504554 = fieldWeight in 1529, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1529)
        0.09913737 = weight(_text_:html in 1529) [ClassicSimilarity], result of:
          0.09913737 = score(doc=1529,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.28436378 = fieldWeight in 1529, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1529)
      0.5 = coord(2/4)
    
    Abstract
    Eine kleine, unscheinbare Suchmaschine hat sich in wenigen Monaten vom Geheimtipp zum Renner entwickelt: Google. Mitte Februar landete Google einen Coup: Es übernahm das Usenet-Archiv von Deja.com. Nicht erst damit ist Google die größte und intelligenteste Suchmaschine. Bis auf das Eingabefeld und das Google-Logo ist nichts zu sehen. Keine Kataloge, keine Nachrichten, kein Übersetzungsdienst, keine Werbung - kein Portal. Google kennt nur eins: Das Suchen von Informationen. Erstaunlich für den Erstnutzer: Oft stehen die relevanten Ergebnisse an erster Stelle. Google arbeitet mit einer ganzen Reihe von Tricks, um seine Nutzer nicht zu frustrieren. Sein Haupttrick: Es bewertet die Webseiten als wichtig, auf die viele andere Webseiten verweisen. Die Seite, auf die am häufigsten verwiesen wird, steht ganz oben. Auf diese Weise macht Google auch Nachbarschaften aus: Als "ähnliche Seite" von Telepolis findet man zum Beispiel c'theory. In der Nachbarschaft des Handelsblatts hingegen findet man andere Wirtschaftszeitungen und -magazine. Entwickelt wurde Google vom Computeringenieur Lawrence Page und dem Mathematiker Sergey Brin. Sie lernten sich an der Stanford University kennen, wo sie "einen Prototypen für eine umfassende Suchmaschine" entwickelten. Der Prototyp mit 24 Millionen Seiten samt Hyperlink-Datenbank war 1997 zunächst auf einem Server der Stanford-Universität zu bewundern. Heute ist Google eine florierende Firma. Rund 40 der 200 Mitarbeiter von Google haben einen Doktortitel, die Hälfte ist im Software-Engineering tätig
    Source
    http://www.heise.de/tp/deutsch/inhalt/on/3600/1.html
  15. Hosbach, W.: Suche: Nadel : Desktop-Suchmaschinen (2006) 0.06
    0.06499389 = product of:
      0.12998778 = sum of:
        0.044132285 = weight(_text_:und in 5730) [ClassicSimilarity], result of:
          0.044132285 = score(doc=5730,freq=46.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.29379928 = fieldWeight in 5730, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5730)
        0.08585549 = weight(_text_:html in 5730) [ClassicSimilarity], result of:
          0.08585549 = score(doc=5730,freq=6.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.24626628 = fieldWeight in 5730, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5730)
      0.5 = coord(2/4)
    
    Content
    "Manche Menschen halten auf ihrer Festplatte penibel Ordnung. Bei anderen sieht es so aus: E-Mails, Text-Dokumente, Bilder und Musik-Stücke wabern in verschiedenen Formaten zwischen den Ordnern und Festplatten hin und her. Da gibt es E-Mails in Outlook, News und Blogs in Thunderbird, Briefe in Word, Berichte in PDF, Adressen in den Kontakten und weitere in einer Excel-Tabelle. Die Musik liegt teilweise auf einer externen Festplatte, andere Stücke befinden sich noch im Tauschordner. Bilder sehen im TWAIN-Ordner dem ewigen Vergessen entgegen. Manche Informationen wurden nie aus den Anhängen der Mails gelöscht, andere verschickt und dann gelöscht. Wenn Ihre Festplatte diesen Zustand erreicht, hilft Ihnen nur noch eine Suchmaschine für den Desktop. Dann können Sie sich das schlechte Gewissen, weil Sie nicht aufgeräumt haben, künftig schenken. Das bekannteste Tool dieser Art ist Google Desktop. Doch unser Test zeigt, dass es einige weitaus bessere gibt, die ebenfalls kostenlos sind. Ein gutes Tool sollte Folgendes können: so viele Formate wie möglich erkennen und durchsuchen; einen Index anlegen, der das Suchen beschleunigt; Ergebnisse ansprechend präsentieren; und merken, wenn etwas Neues hinzukommt. Schon bei den unterstützten Formaten gibt es erhebliche Unterschiede. Thunderbird-Freunde finden in Copernic das beste Tool, da es auch dessen News- und Blogordner indiziert. Für Outlook-Freaks hingegen ist X1 die beste Wahl, denn es findet alle PST-Archive auf der Platte, auch die, die nicht mehr im OutlookOrdnerbaum hängen. Der Hersteller von X1 bietet auch eine Notes-Version, die wir nicht getestet haben.
    Komplett vermisst in allen Tools haben wir die Unterstützung von Access. Ein Sprecher von X1 beteuerte, das Tool verstehe Access bis zur Version 2. Das haben wir nicht nachgeprüft (nur Access 2003). Oft stellten wir Probleme mit Umlauten fest. Blinkx verzichtet komplett auf alles, was nicht Englisch ist. Früher gab es eine deutsche Version, und eine Sprecherin versicherte, es soll bald eine internationale folgen, die auch Deutsch beherrscht. Die vorliegende 3.5 ist hierzulande jedenfalls nicht zu verwenden. Copernic versteht keine Umlaute in HTML-Seiten, da diese als &xyz; vorliegen: K&uuml; statt Küche. Auch hier soll die nächste Version Abhilfe schaffen. In unserem letzten Test hatte Google ähnliche Probleme, das ist aber nicht mehr der Fall. Dafür filtert es HTML-Tags nicht richtig: z.B. Fe<b>tt<lb> findet es nicht als Fett sondern F ett. Der Anwender sollte sich genau klar machen und prüfen, in welchen Formaten seine Daten vorliegen. Das Suchtool sollte alle unterstützen. In den Index Nach der Installation stellt derAnwenderbei den meisten Tools ein, welche Ordner und Mail-Programme es in den Index einbeziehen soll. Dann beginnt der Indexer mit derArbeit, was je nach Größe einige Stunden dauern kann. Der fertige Index ist sozusagen eine Karte der Daten. Erenthält alle suchbaren Begriffe und den zugehörigen Dateinamen, wie ein Register der Festplatte. In diesem findet sich ein Suchbegriff viel schneller, als wenn das Tool jede Datei öffnen müsste. Google macht es sich besonders einfach: Es bricht die Indizierung bei etwa lOOk ab. Das konnten wir bei mehreren Dateiformaten (RTF, DOC, HTML) feststellen. Die erste Hälfte ist suchbar, die zweite nicht. Dieses Verhalten macht im Web sicher Sinn, den die ersten Seiten eines Dokuments geben Aufschluss über den Inhalt, nach dem der Anwender später sucht. Auf seinem Desktop sucht der An wender oft aber anders. Er hat eine ganz bestimmte Info, deren Ort erfin den möchte. Dazu müssen die Dokumente im Indexvollständig abgebildet sein. Google gab keine Stellungnahme dazu ab.
    Die Aktualisierung des Indexes geschieht meist in Echtzeit. Sobald eine Datei oder Mail geöffnet und geändert wird, registriert dies das Tool. Google und Copernic sind hier sehr sicher. Damit die Aktualisierung auch in Echtzeit stattfindet, muss das Tool mit einer gewissen Priorität arbeiten, was man bei den meisten regeln kann. Sonst registriert es zwar die Änderung, bringt sie aber erst in den Index ein, wenn der Rechner im Leerlauf ist. Damit ist es jedoch nicht getan. In regelmäßigen Abständen muss ein Suchtool den gesamten index prüfen, falls sich Änderungen ergeben haben, die es nicht mitbekommen hat (z.B. Kopien über das Netzwerk). Günstig ist es, wenn derAnwender das Intervall selbst einstellen kann. X1 verzichtet komplett auf eine automatische Anpassung. Bei Copernic funktioniert sie nur mit Outlook, nicht hingegen mit Thunderbird. In diesen Fällen sollte der Anwender das Intervall entsprechend kurz hatten. Meist kann man auch mit einem Befehl den Index sofort komplett neu einlesen. Das ist nach größeren Kopierund Löschmaßnahmen sinnvoll. Zur Suche Nach dem Start des Programms öffnet sich das Suchfenster. Am schnellsten kommt der Suchende mit einer inkrementellen Suche zum Ergebnis. Ergibt den ersten Buchstaben ein, und sofort erscheinen Ergebnisse - erst einmal zu viele. Aber nach dem zweiten oder dritten Buchstaben wird die Ergebnisliste oft schon so kurz, dass das Gesuchte dabei ist. Copernic und X1 beherrschen das perfekt. Die Suchtools mit einer benutzerfreundlichen Oberfläche berücksichtigen in der Such- und Ergebnismaske die verschiedenen Dateiformate. Bei der Suche nach einer Mail sucht der Anwender nach einem Absender, fahndet er hingegen nach einem Musikstück, so ist der Interpret wichtig. Das Tool sollte daher die MP3-Metadaten auslesen können. Viele Tools heben noch Favoriten, Verlauf oder Kontakte hervor. Eine Suchmaske, die die einfachen Operatoren nicht beherrschtsei es +/- oderAND/NOT- wird schnell ärgerlich (z.B. Superior Search in der Indexsuche). MSN bietet als einziges Toot die Möglichkeit, das Ende eines Wortes zu finden: *oskana. Bei der Präsentation erwarten wir ein Vorschaufenster, das die Suchbegriffe hervorhebt und gleich zur ersten Fundstelle springt. Auch hierbei ist Google Desktop unterlegen. Denn es zeigt die Ergebnisse in einer Websei te - ä la Google eben. Doch damit gibt es wenige Möglichkeiten, die Suche thematisch einzuschränken und dateispezifische Angaben zu machen. Ferner fehlt eine Vorschau komplett, nur bei E-Mails öffnet sich ein eigenes Fenster. Deutlich überlegen sind da eigenständige Tools. Absolut spitze in der Darstellung ist Copernic. Es gruppiert die Ergebnisse z.B. nach Datum: heute, gestern, vor zwei Wochen, letztes Jahr... X1 und MSN bleiben bei strengen Tabellen, die sich nach allen Spalten sortieren lassen und dafür eine Vielzahl an Informationen beinhalten. MSN verzichtet leider auf die inkrementelte Suche und auf ein Vorschaufenster, das den ersten Suchbegriff anspringt. Ordnung ist eine Frage des Aufräumens. Auf dem Desktop aber reicht es aus, wenn ein Tool diese Ordnung aufrecht hält, zumindest in seinem Index. Dann ist Wiederfinden auch ohne Aufräumen möglich. Schade, dass das auf dem Schreibtisch nicht funktioniert ... oder im Kinderzimmer..."
  16. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.06
    0.06486131 = product of:
      0.12972263 = sum of:
        0.092913754 = weight(_text_:java in 134) [ClassicSimilarity], result of:
          0.092913754 = score(doc=134,freq=2.0), product of:
            0.47730878 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06772732 = queryNorm
            0.19466174 = fieldWeight in 134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
        0.03680887 = weight(_text_:und in 134) [ClassicSimilarity], result of:
          0.03680887 = score(doc=134,freq=32.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.24504554 = fieldWeight in 134, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
    Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
  17. mho: Google erweitert Suchfunktion um Informationsdatenbank (2012) 0.06
    0.06293492 = product of:
      0.12586984 = sum of:
        0.046559945 = weight(_text_:und in 1136) [ClassicSimilarity], result of:
          0.046559945 = score(doc=1136,freq=20.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.3099608 = fieldWeight in 1136, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1136)
        0.079309896 = weight(_text_:html in 1136) [ClassicSimilarity], result of:
          0.079309896 = score(doc=1136,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.22749102 = fieldWeight in 1136, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.03125 = fieldNorm(doc=1136)
      0.5 = coord(2/4)
    
    Content
    "Google hat seine Suchmaschine um eine Datenbank erweitert, die die Suchergebnisse um Fakten zu verschiedensten Objekten und Personen ergänzt. Diese semantische Suchfunktion, die vorerst nur Nutzern in den USA zur Verfügung steht, soll Suchbegriffe inhaltlich erkennen und Zusammenhänge zu anderen Themen herstellen. Damit soll Google noch besser erkennen, wonach die Nutzer suchen und möglichst auch gleich weitere Fragen beantworten. In einem Blogeintrag [http://googleblog.blogspot.de/2012/05/introducing-knowledge-graph-things-not.html] erläutert Google-Manager Amit Singhal die neue Funktion, die unter der Bezeichnung "Knowledge Graph" [http://www.google.com/insidesearch/features/search/knowledge.html] firmiert und in einem Video [http://www.youtube.com/watch?v=mmQl6VGvX-c] vorgestellt wird. Dabei handele es sich um eine große Informationsdatenbank, die derzeit über 500 Millionen Objekte und mehr als 3,5 Milliarden Informationen über die Beziehungen zwischen ihnen enthalte. Darunter fänden sich Sehenswürdigkeiten, berühmte Personen, Städte, Sportmannschaften, Gebäude, Orte, Filme, Himmelsobjekte, Kunstwerke oder Ähnliches. Anhand der Suchanfragen und der Ergebnisse wird die Datenbank immer weiter verbessert, verspricht Google. Dank dieser Neuerung verspricht Google seinen Nutzern drei merkliche Verbesserungen. So könne die Suchmaschine nun besser erkennen, wonach genau gesucht werde, beispielsweise das Gebäude Taj Mahal oder der US-Musiker mit gleichem Namen. Weiterhin könne Google durch den Knowledge Graph wichtige Inhalte besser zusammenfassen, beispielsweise die Lebensdaten einer berühmten Person und ihre Leistungen. Auch bereits getätigte Suchen andere Nutzer könnten künftige Suchergebnisse dadurch beeinflussen. So sei für für Suchende etwa von Interesse, welche Bücher Charles Dickens geschrieben habe. Bei dem Architekten Frank Lloyd Wright sei jedoch weniger die Literatur interessant, als die von ihm gestalteten Gebäude.
    Zu guter Letzt kündigt Google seinen Nutzern dank der neuen Informationsdatenbank überraschende Erkenntnisse an: Verantwortlich dafür seien Verbindungen, an die Nutzer nicht gedacht hätten. Beispielsweise würde die Anzeige der Namen der engsten Verwandten von Matt Groening ganz neue Einblicke in die Inspiration für seine Simpsons liefern. Außerdem könne Google nun öfter bereits die nächste Frage beantworten, die ein Nutzer der Suchmaschine stellen würde. Eine Suche nach Tom Cruise könne dank des Knowledge Graph beispielsweise jede dritte der danach gestellten Fragen bereits beantworten. Die neue Funktion wurde auch für die Suche auf Smartphones und Tablets angepasst, wie Junyoung Lee in einem eigenen Blogeintrag [http://insidesearch.blogspot.de/2012/05/knowledge-graph-for-mobile-and-tablet.html] erläutert. Integriert werde sie hier in die Browsersuche und in die Apps, sowohl auf Android als auch iOS. Eingeführt wird die neue Funktion derzeit schrittweise für englischsprachige Nutzer in den USA, wie Amit Singhal mitteilt. Zu anderen Sprachen und Ländern macht er keine Angabe."
    Source
    http://www.heise.de/newsticker/meldung/Google-erweitert-Suchfunktion-um-Informationsdatenbank-1578499.html
  18. Turner, T.P.; Brackbill, L.: Rising to the top : evaluating the use of HTML META tag to improve retrieval of World Wide Web documents through Internet search engines (1998) 0.06
    0.059482425 = product of:
      0.2379297 = sum of:
        0.2379297 = weight(_text_:html in 6230) [ClassicSimilarity], result of:
          0.2379297 = score(doc=6230,freq=8.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.68247306 = fieldWeight in 6230, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.046875 = fieldNorm(doc=6230)
      0.25 = coord(1/4)
    
    Abstract
    Reports results of a study to evaluate the effectiveness of using the HTML META tag to improve retrieval of World Wide Web documents through Internet search engines. 20 documents were created in 5 subject areas: agricultural trade; farm business statistics; poultry statistics; vegetable statistics; and cotton statistics. 4 pages were created in each subject area: one with no META tags, one with a META tag using the keywords attribute, one with a META tag using the description attribute, and one with META tags using both the keywords and description attributes. Searches were performed in Alta Vista and Infoseek to find terms common to all pages as well as for each keyword term contained in the META tag. Analysis of the searches suggests that use of the keywords attribute in a META tag substantially improves accessibility while use of the description attribute alone does not. Concludes that HTML document authors should consider using keywords attribute META tags and suggests that more search engines index the META tag to improve resource discovery
    Object
    HTML
  19. Patalong, F.: Life after Google : II. Hilfreiche Geister (2002) 0.06
    0.05895842 = product of:
      0.11791684 = sum of:
        0.047816124 = weight(_text_:und in 2163) [ClassicSimilarity], result of:
          0.047816124 = score(doc=2163,freq=54.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.3183235 = fieldWeight in 2163, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2163)
        0.07010071 = weight(_text_:html in 2163) [ClassicSimilarity], result of:
          0.07010071 = score(doc=2163,freq=4.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.20107555 = fieldWeight in 2163, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2163)
      0.5 = coord(2/4)
    
    Content
    "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
    Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
    Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
    Source
    URL: http://www.spiegel.de/netzwelt/technologie/0,1518,222770,00.html
  20. Machill, M.; Neuberger, C.; Schweiger, W.; Wirth, W.: Wegweiser im Netz : Qualität und Nutzung von Suchmaschinen (2004) 0.06
    0.057687536 = product of:
      0.11537507 = sum of:
        0.03606518 = weight(_text_:und in 5093) [ClassicSimilarity], result of:
          0.03606518 = score(doc=5093,freq=12.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.24009462 = fieldWeight in 5093, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5093)
        0.079309896 = weight(_text_:html in 5093) [ClassicSimilarity], result of:
          0.079309896 = score(doc=5093,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.22749102 = fieldWeight in 5093, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.03125 = fieldNorm(doc=5093)
      0.5 = coord(2/4)
    
    Abstract
    Das Internet ist ein Kosmos an Informationen aller Art. Zwar sind die Antworten auf Abermillionen Fragen vorhanden, doch stehen Nutzer vor der Aufgabe, diese auch zu finden. Eine zentrale Rolle spielen dabei Suchmaschinen. Beim Wiederauffinden von Informationen, dem so genannten Information Retrieval, handelt es sich um ein relativ gut erforschtes Feld. Die Forschung konzentrierte sich allerdings lange auf die Frage nach dem Wiederauffinden von Informationen in gut strukturierten Datenbanken. Bis zum Aufkommen des World Wide Web war kaum an eine große Datenkollektion zu denken, die höchst unterschiedlich strukturierte Dokumente enthielt. Hinsichtlich ihrer Strukturierung lassen sich Dokumente in drei Klassen ordnen: strukturiert, unstrukturiert und schwach strukturiert. Im Bereich der professionellen Datenbanken liegen die Informationen in strukturierter Form vor: Dokumente sind in Felder geteilt, die sich gezielt durchsuchen lassen. Zusätzliche Felder enthalten in der Regel Informationen über das Dokument wie beispielsweise den Namen des Autors, das Publikationsdatum oder die Namen von im Text behandelten Personen. So lässt sich beispielsweise die Anfrage nach allen Artikeln eines bestimmten Autors in einer Zeitungsdatenbank einfach und klar beantworten. Bei Web-Dokumenten kann die Suche nicht klar eingeschränkt werden, da nicht unterschieden werden kann, ob es sich bei dem Vorkommen des eingegebenen Namens um den Autor oder eine im Text behandelte Person handelt. Bei unstrukturierten Dokumenten handelt es sich schlicht um Fließtext, dessen formale Gestaltung keinerlei Rückschlüsse auf Meta-Informationen oder Textstellen von besonderer Bedeutung zulässt.
    Bei HTML-Dokumenten im World Wide Web handelt es sich um schwach strukturierte Dokumente. Zwar findet keine Trennung in Feldinhalte statt, jedoch lassen sich aus Struktur- und Gestaltungsinformationen, die dem Dokument mittels der HTMLTags beigegeben werden, Rückschlüsse auf bedeutende und weniger bedeutende Textstellen ziehen. Eine zweite Herausforderung an die Information-RetrievalForschung ist schilicht die Größe des World Wide Web. Im Umfeld der professionellen Informationsvermittlung ist es von besonderem Interesse, die Informationen eines bestimmten Bereichs in einer Datenbank zu kumulieren. Natürlich wachsen diese themenbezogenen Datenbanken auch stetig an, das Volumen bleibt jedoch bei einigen Millionen Dokumenten noch »überschaubar«. Im Gegensatz dazu steht das World Wide Web. Zwar kann seine Größe nicht genau ermittelt werden, Schätzungen gehen jedoch inklusive der Invisible-Web-Inhalte von etwa zwölf Milliarden Dokumenten bis 550 Milliarden Dokumenten aus (vgl. Bergman 2001). Der dritte wichtige Punkt, der Information Retrieval in Datenbanken von dem im Internet unterscheidet, ist die Frage nach der Zuverlässigkeit der angebotenen Informationen. Während bei Datenbanken die Auswahl der aufgenommenen Informationen oft noch durch einen menschlichen Indexierer erfolgt, nehmen Suchmaschinen potenziell alle von ihnen aufgefundenen Dokumente in ihren Datenbestand auf.
    Source
    Wegweiser im Netz: Qualität und Nutzung von Suchmaschinen. 3. Aufl. Hrsg.: M. Machill u. C. Welp

Years

Languages

  • d 467
  • e 58
  • nl 1
  • More… Less…

Types

  • a 414
  • el 64
  • m 56
  • x 13
  • s 10
  • r 2
  • p 1
  • More… Less…

Subjects

Classifications