-
Sünkler, S.; Kerkmann, F.: How to do ... ? : Konzeption einer Spezialsuchmaschine für Tutorials (2016)
0.01
0.007197059 = product of:
0.028788237 = sum of:
0.028788237 = weight(_text_:und in 3570) [ClassicSimilarity], result of:
0.028788237 = score(doc=3570,freq=2.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.19603643 = fieldWeight in 3570, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3570)
0.25 = coord(1/4)
- Abstract
- Das übergeordnete Ziel des Projektes bestand darin, eine hochschuleigene Suchmaschine zu konzipie ren und diese ausgehend von einer Ideenskizze über ein theoretisches Konzept hin zu einem lauffähigen Alpha Prototyp umzusetzen, der die theoretischen Überlegungen in Ansätzen praktisch nutzbar machen sollte.
-
Option für Metager als Standardsuchmaschine, Suchmaschine nach dem Peer-to-Peer-Prinzip (2021)
0.01
0.007197059 = product of:
0.028788237 = sum of:
0.028788237 = weight(_text_:und in 1432) [ClassicSimilarity], result of:
0.028788237 = score(doc=1432,freq=8.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.19603643 = fieldWeight in 1432, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1432)
0.25 = coord(1/4)
- Content
- "Option für Metager als Standardsuchmaschine. Google wurde von der EU verordnet, auf Android-Smartphones bei Neukonfiguration eine Auswahl an Suchmaschinen anzubieten, die als Standardsuchmaschine eingerichtet werden können. Suchmaschinen konnten sich im Rahmen einer Auktion bewerben. Auch wir hatten am Auktionsverfahren teilgenommen, jedoch rein formell mit einem Gebot von null Euro. Nun wurde Google von der EU angewiesen, auf das wettbewerbsverzerrende Auktionsverfahren zu verzichten und alle angemeldeten Suchmaschinen als Option anzubieten. Auf Android ist es nun optional möglich, MetaGer als Standardsuchmaschine für den Bereich D/A/CH auszuwählen. Zwar werden nicht immer alle Suchmaschinen zur Auswahl angezeigt, aber das Zufallsprinzip sorgt immerhin dafür, dass jede Suchmaschine mit einer gewissen Wahrscheinlichkeit in der Liste zu finden ist.
Auch auf dem Volla-Phone ist es bald möglich, MetaGer als Standardsuchmaschine zu wählen. Das Volla Phone ist ein Produkt von "Hallo Welt Systeme UG" in Remscheid. Die Entwickler des Smartphones verfolgen den Ansatz, möglichst wenig von der Aufmerksamkeit des Nutzers zu beanspruchen. Technik soll nicht ablenken und sich in der Vordergrund spielen, sondern als bloßes Werkzeug im Hintergrund bleiben. Durch Möglichkeiten wie detaillierter Datenschutzeinstellungen, logfreiem VPN, quelloffener Apps aus einem alternativen App Store wird zudem Schutz der Privatsphäre ermöglicht - ganz ohne Google-Dienste. Durch die Partnerschaft mit MetaGer können die Nutzer von Volla-Phone auch im Bereich Suchmaschine Privatsphärenschutz realisieren. Mehr unter: https://suma-ev.de/mit-metager-auf-dem-volla-phone-suchen/
Fernsehfilm "Digitale Verlustzone". Der Dokumentarfilmer Andreas Orth hat im vorletzten Jahr eine Dokumentation über Digitalisierung gedreht. Das Ergebnis der Reportage "Digitale Verlustzone" wurde schon 2020 in der ARD gesendet. Nun wird der Film, in dem auch die Geschichte MetaGers ein Thema ist und MetaGer-Erfinder und Suchmaschinen-Pionier Dr. Wolfgang Sander-Beuermann interviewt wurde, auf NDR am 27. November wiederholt."
-
Advanced online media use (2023)
0.01
0.007197059 = product of:
0.028788237 = sum of:
0.028788237 = weight(_text_:und in 1955) [ClassicSimilarity], result of:
0.028788237 = score(doc=1955,freq=2.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.19603643 = fieldWeight in 1955, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1955)
0.25 = coord(1/4)
- Abstract
- Ten recommendations for the advanced use of online media. Mit Links auf historische und weiterführende Beiträge.
-
Levy, S.: In the plex : how Google thinks, works, and shapes our lives (2011)
0.01
0.0070407377 = product of:
0.02816295 = sum of:
0.02816295 = weight(_text_:und in 1009) [ClassicSimilarity], result of:
0.02816295 = score(doc=1009,freq=10.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.19177848 = fieldWeight in 1009, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1009)
0.25 = coord(1/4)
- BK
- 54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
05.20 / Kommunikation und Gesellschaft
- Classification
- 54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
05.20 / Kommunikation und Gesellschaft
- Footnote
- Deutsche Übersetzung als: Googlenomics : Wie Google denkt, arbeitet und unser Leben verändert. Heidelberg, Neckar ; mitp/bhv ; 2011. Rez. in: JASIST 62(2011) no.12, S.2540-2543 (C. Leslie)
-
Schmitz, H.: Lücken im Netz : Die New York Times sperrt einen Text für Surfer in Großbritannien - der Anfang vom Ende des weltweiten Webs? (2006)
0.01
0.006610921 = product of:
0.026443684 = sum of:
0.026443684 = weight(_text_:und in 987) [ClassicSimilarity], result of:
0.026443684 = score(doc=987,freq=12.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.18007097 = fieldWeight in 987, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=987)
0.25 = coord(1/4)
- Content
- "Der Text dürfte Surfer aus Großbritannien besonders interessiert haben: "Details zum britischen Terror-Fall bekannt geworden ; verkündete die New York Times in ihrer Online-Ausgabe. Doch ausgerechnet die Leser auf der Insel bekamen statt des Artikels den schlichten Hinweis auf den Bildschirm, der Beitrag sei "auf Ratschlag von Rechtsberatern" für britische Nutzer von nytimes.com nicht verfügbar. Fachleute beunruhigt der Fall. Sie sehen das Internet als weltweites Medium in Gefahr. Ein System aus der Werbung Die renommierte Zeitung begründete den Ausschluss ihrer britischen Leser damit, dass es in Großbritannien verboten sei, Informationen vor einem Prozess öffentlich zu machen, die vor Gericht als Beweise dienen können. Rein technisch ist die Sperre keine große Sache. Die New York Times verwendet eine Software, die vor allem dazu gedacht ist, Werbung gezielt zu verbreiten. Geotargeting nennt sich das System, das dafür sorgt, dass ein Internetbesucher aus Deutschland andere Reklame sieht als ein Leser der selben Seite aus Frankreich oder den Vereinigten Staaten. "Die New York Times kann seit einiger Zeit die Herkunft ihrer Nutzer bestimmen und für gezieltes Marketing nutzen`, sagt Richard Meislin, leitender Internet-Redakteur. Freilich: Sortierte Werbung ist eine Sache, das Vorenthalten journalistischer Inhalte eine andere. Hauptanbieter der Technik sind Unternehmen wie Quova, Net Geo, Digital Envoy oder Akamai. Die Genauigkeit ihrer Dienste liegt zwischen 96 und 99 Prozent. Die Software wertet die Adresse der Surfer nach dem Internet Protokoll aus, die mit jeder Seitenabfrage übertragen wird. Zwar kann dieser Absender nicht eindeutig einem Nutzer zugewiesen werden, wohl aber dem Besitzer. In der Regel sind das die Internetprovider wie AOL oder T-Online, Universitäten, Firmen oder andere größere Einrichtungen. Die wiederum teilen die Adressen regionalen Netzknoten zu, sodass auf die ungefähre Herkunft des Nutzers geschlossen werden kann. Surfer können die Technik austricksen, in dem sie Zwischenstationen einschalten: Ein Brite beauftragt etwa einen Rechner in den Vereinigten Staaten, eine Seite der New York Times aufzurufen. Für die Zeitung sieht es so aus, als lebe der Surfer im Inland. Doch dort arbeitet nur eine Software, die den Text nach Europa weiterreicht. Fachleute bezeichnen solche Zwischenstationen als Proxyserver. Auch Anonymisierungsdienste, jüngst in den Blick von Strafverfolgern geraten, arbeiten nach dem Prinzip.
Der jüngste Fall der New York Times zeigt: Geotargeting ermöglicht Zensur. Das hat das Blatt selbst erkannt und wiegelt ab. "Jeder Fall muss einzeln geprüft werden", sagt George Freeman, Vizepräsident des Verlags. Großbritannien sei ein Land, das die Pressefreiheit achte, und sein Haus wolle die Rechte eines solchen Landes respektieren. Unklar ist, wessen Rechte die New York Times zukünftig achten will. Wie verhielte sich das US-Blatt, wenn manche Staaten, etwa die Volksrepublik China, verlangen würden, regierungskritische Artikel für die eigenen Landesleute zu sperren? Der große Aufschrei wegen Google Groß war der Aufschrei, als Google im Januar eine chinesische Version seiner Suchmaschine startete, in der bestimmte Inhalte zu Themen wie Tibet nicht in den Ergebnislisten auftauchen. Von einem "schwarzen Tag für die Meinungsfreiheit in China" sprach die Journalistenorganisation Reporter ohne Grenzen. Die New York Times bezeichnete Googles Verhalten als "nicht gerade idealistisch". Der Suchmaschinenbetreiber arbeitet nicht nur in China so. Rainer Glück vom Chaos Computer Club sagt, Google passe stets "die gezeigten Suchergebnisse per Geotargeting an verschiedene nationale Gesichtspunkte an - und unterdrückt im Extremfall auch Suchergebnisse, wenn sie unter die mit dem entsprechenden Staat vereinbarten Regularien fallen." Um ihr Vorgehen zu verteidigen, zitiert die New York Times den Internet-Rechtsexperten Jonathan Zittrain von der Universität Oxford "Es ist bekannt, dass die Technik Inhalte geografisch beschränken kann. Zwar nicht hundertprozentig, aber effektiv genug. Und es ist anzunehmen, dass internationale Gerichte gewillt sind, diesen technischen Fortschritt bei der Rechtssprechung zu berücksichtigen." Sollte; das eintreffen, müssten Internet-seiten-Betreiber künftig viele Fachleute für internationales Recht beschäftigen, die sämtliche Inhalte darauf prüfen, ob sie in irgendeinem Land dieser Erde mit dem dortigen Recht in Konflikt stehen. So könnten Anbieter vielleicht auf die Idee kommen, ihre Seiten nur für die Länder zugänglich zu machen, mit deren Recht' sie sich auskennen. Es würden nationale Grenzen errichtet. Das Web wäre dann nicht mehr World Wide."
-
Himmelsbach, G.: Suchmaschinen : Rechtliche Grauzone (2002)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 1569) [ClassicSimilarity], result of:
0.025445448 = score(doc=1569,freq=16.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 1569, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1569)
0.25 = coord(1/4)
- Abstract
- Viele Internet-Nutzer übersehen, Dass Suchmaschinen häufig kein objektives Ranking und damit keine objektiven Informationen anbieten. Die Betreiber meinen, dass sie rechtlich unangreifbar sind. PC Professionell klärt über die aktuelle Rechtslage beim Suchen im Web auf
- Content
- "Sucht ein Surfer unter den Stichworten "Computerzubehör Hannover" in Suchmaschinen nach Treffern, bietet sich alles andere als ein einheitliches Bild: Die verschiedenen Suchmaschinen wie Fireball, Google und andere bieten völlig unterschiedliche Rankings. Ein Grund sind sicher die unterschiedlichen Ranking-Methoden. Eigenartig wird es allerdings dann, wenn die Top-Platzierung ein Angebot belegt, das eigentlich relativ unbedeutend ist. Erscheint etwa bei der Eingabe der Suchbegriffe "Computerzubehör Hannover" ein Computer-Versand, der keine Filialgeschäfte unterhält - auch nicht in Hannover - liegt die Vermutung nahe: Beim Ranking wurde vom Anbieter getrickst. Zunehmend gehen auchmaschinen-Anbieter dazu über, ihren für den Nutzer kostenlosen Service durch Werbung zu finanzieren. Das ist durchaus legitim. Alles andere als legitim ist es jedoch, den Nutzer nicht darüber zu informieren, dass sich das auf Platz eins gelandete Unternehmen in die Liste eingekauft hat - und nicht deshalb den ersten Platz belegt, weil es der Anfrage des Nutzers am ehesten entspricht. Der Verkauf von Ranking-Plätzen ist nichts anderes als Werbung. Und Werbung muss - das ergibt sich aus dem Gesetz gegen unlauteren Wettbewerb (UWG) - als solche kenntlich gemacht werden. Betreiber von Suchmaschinen, die Ranking-Plätze verkaufen, verzichten durchweg auf einen entsprechenden Hinweis. Dieser müsste so deutlich angebracht sein, dass er für jeden Nutzer erkennbar ist. Ein versteckter Zusatz - beispielsweise nur in den allgemeinen Geschäftsbedingungen - reicht hierfür nicht aus. Entweder müsste der Listenplatz Nummer 1 ausdrücklich mit dem Wort "Werbung" überschrieben werden. Oder Platz eins wird optisch hervorgehoben und vor das Suchergebnis gesetzt. Ergibt sich aus der optischen Gestaltung zweifelsfrei, dass der Platz erkauft ist, kann der Hinweis "Werbung" entfallen. Versteckte Werbung ist jedoch nicht das einzige Suchmaschinen-Ärgernis. Das ewige Gedächtnis von Suchmaschinen ist ein weiteres Problem. Für den Nutzer ist es zwar hilfreich, über Suchmaschinen bereits aus dem Netz entfernte Inhalte ausfindig zu machen. So bietet etwa Google (www.google.de) eine Archivfunktion an. Wer bereits gelöschte Inhalte sucht, wird häufig noch "Im Archiv" fündig. So sind aber auch längst veraltete oder sonst im Internet nicht mehr gewünschte Informationen nach wie vor abrufbar. Der Archiv-Service ist deshalb rechtlich keineswegs unproblematisch: Die im Archiv des Suchmaschinenbetreibers gelagerten In formationen sind auf einem Server der Suchmaschine abgespeichert. Auf der UrsprungsWebsite befinden sich die Informationen nicht mehr. Der Suchmaschinen-Anbieter verschafft damit nicht nur einen Zugang zu fremden Informationen. Er wird auch als Host-Provider tätig, indem er DrittInformationen auf eigenen Servern abspeichert. Das ist zum Beispiel dann problematisch, wenn es sich um urheberrechtlich geschützte Inhalte handelt - längere Texte, Fotoaufnahmen oder Karikaturen. Selbst wenn das Material urheberrechtlich nicht geschützt ist, kann die dauerhafte Archivierung eine Rechtsverletzung des Website-Betreibers darstellen.
Denn wer Inhalte aus dem Netz nimmt, gibt damit zu erkennen, dass er diese Inhalte eben nicht mehr über das Netz verbreitet haben möchte. Die Aufnahme von Inhalten auf die eigene Website bedeutet keinesfalls, dass diese Inhalte von jedem in andere Internet-Angebote integriert werden können. Die Archive von Suchmaschinen nutzen jedoch diese Informationen weiterhin, indem sie sie verfügbar halten. Es kann deshalb jeder, der bereits von ihm entfernte Inhalte in Suchmaschinen-Archiven entdeckt, diese Daten sperren lassen. Suchmaschinen ermöglichen nicht nur den Zugriff auf bereits gelöschte Inhalte. Aufgelistet werden auch Webseiten, die nach dem Willen der Betreiber gar nicht aufgelistet werden sollen. So sind zahlreiche Seiten von sicheren Servern, die mit SSL arbeiten, über Suchmaschinen verfügbar. Unproblematisch ist das, solange nur Seiten angezeigt werden, auf die jeder Nutzer auch ohne Eingabe eines Kennworts Zugriff hat. Sobald jedoch HTTPS-Seiten angezeigt werden, die nur über ein Kennwort erreichbar sind, schießen die Suchmaschinen über das Ziel, nur erlaubte Seiten anzuzeigen, weit hinaus. Die Suchmaschinen werden so zu einem Sicherheitsrisiko für die Betreiber von Sites. Sie bieten gerade Personen einen Zugriff auf die Seiten, vor denen diese geschützt werden sollen. Damit noch nicht genug: In die Datei robots.txt können die Internet-Programmierer diejenigen Inhalte aufnehmen, die nicht durch eine Suchmaschine gelistet werden sollen. Solche "Disallow-Sei-ten" werden trotzdem oft von Suchmaschinen aufgelistet. Es ist jedoch alleine die Entscheidung des Internet-Anbieters, ob seine Seite in einer bestimmten Suchmaschine gelistet wird. Es wünschen eben nicht alle Internet-Anbieter, dass auf ihre Seiten über Suchmaschinen-Treffer zugegriffen werden kann. Das müssen auch die Betreiber von Suchmaschinen respektieren. Jeder Betreiber einer Website entscheidet alleine, wem und über welche technischen Hilfsmittel er seine Inhalte anderen zugänglich machen möchte. Listet ein Suchmaschinen-Betreiber Seiten, die nicht gelistet werden sollen, muss er diese Seiten aus dem Ranking herausnehmen. Es kommt dabei nicht darauf an, ob es sich um eine RoboterSuchmaschine handelt, die automatisch das Netz durchpflügt, oder die Suchergebnisse manuell von einer Redaktion zusammengestellt werden. In beiden Fällen hat es der Betreiber der Suchmaschine in der Hand, die Rechte der Website-Betreiber zu wahren: Auch bei einem Robot kann die Software so programmiert werden, dass bestimmte Inhalte nicht mehr angezeigt werden. Zu den Inhalten, die entfernt oder gesperrt werden müssen, gehören auch Daten, deren Verbreitung in das Persönlichkeitsrecht von Dritten eingreift. Suchmaschinen sind überhaupt ein nicht unerhebliches Sicherheitsrisiko: Jeder Eintrag in ein Gästebuch, Beitrag in einem Forum, Anmerkung zu einer Website wird unerbittlich aufgelistet - und ermöglicht es in Sekunden, ein Persönlichkeitsprofil zu erstellen.
Spannend ist auch die Frage, inwieweit die Betreiber von Suchmaschinen für die Inhalte haften, die sich hinter Links verbergen. Bis Ende vergangenen Jahres galt noch § 5 Teledienstegesetz (TDG), der eine abgestufte Haftung vorsah: Demnach waren Betreiber von Suchmaschinen für rechtswidrige Inhalte hinter den Links nur dann verantwortlich, wenn sie die Inhalte kannten und es ihnen möglich war, die Einträge zu entfernen. Im Dezember 2001 hat der Gesetzgeber die Haftungsregelungen im Teledienstegesetz geändert. Die E-CommerceRichtlinie hat zu einer Erweiterung der Regelungen beigetragen. Die Haftung von Teledienst-Anbietern ist nun in §§ 8 bis 11 TDG geregelt: Die Betreiber von Suchmaschinen dürften wohl unter § 9 TDG fallen. Demnach haften die Betreiber von Suchmaschinen grundsätzlich nicht, da sie lediglich fremde Informationen an den Nutzer über einen Link übermitteln. Rechtsprechung dazu gibt es noch nicht. Das heißt jedoch nicht, dass jegliche Haftung ausgeschlossen ist: Denn § 8 Absatz 2 TDG besagt ausdrücklich: "Verpflichtungen zur Entfernung oder Sperrung der Nutzung von Informationen nach den allgemeinen Gesetzen bleiben auch im Falle der Nichtverantwortlichkeit des Diensteanbieters nach den §§ 9 bis 11 unberührt."
-
dpa/fr: Google scannt nun Zeitungen : Schon Millionen Artikel im "Online-Archiv" (2008)
0.01
0.006361362 = product of:
0.025445448 = sum of:
0.025445448 = weight(_text_:und in 3224) [ClassicSimilarity], result of:
0.025445448 = score(doc=3224,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17327337 = fieldWeight in 3224, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3224)
0.25 = coord(1/4)
- Content
- "Der immer noch als "Internet-Suchmaschine" firmierende Mega-Konzern Google legt nun auch seine Hände auf Zeitungen. Er will ein Online-Archiv für Zeitungen aus aller Welt aufbauen. Nutzer sollen Artikel durchsuchen und Seiten im Original-Layout samt Fotos und Anzeigen aufrufen können, erklärte die Firma am Montag bei der Technologie-Konferenz Techcrunch 50 in San Francisco. Man habe bereits Millionen von Artikeln eingescannt. Wie viele Zeitungen derzeit schon mitarbeiten, teilte Google nicht mit. Die Archivierung sei Teil der Strategie, "Offline-Inhalte in das Internet zu bringen", sagte Google-Vizepräsidentin Marissa Mayer. Man wolle Lesern "helfen", von der Lokalzeitung bis zum größten überregionalen Blatt "alle zu finden", hieß es im offiziellen Blog des Konzerns. Anders als bei der Digitalisierung von Büchern will man bei dem Zeitungsprojekt die Zustimmung der Verleger einholen. Die Kosten fürs Einscannen trägt Google, denn man spekuliert auf eine lukratives Geschäft durch die Anzeigen, die man neben den Suchergebnissen platzieren will. Die Verleger sollen einen - von Mayer aber nicht bezifferten - Anteil des Umsatzes erhalten. Der Bundesverband Deutscher Zeitungsverleger (BDZV) verweist darauf, dass die Verlage gefragt würden, ob sie der Google-Nutzung zustimmen. Für einige Blätter könne die Zusammenarbeit interessant sein - gleichwohl würden die Inhalte "aus der Hand gegeben", sagte eine BDZV-Sprecherin."
-
Carnevali, M.: Lost in Cyberspace? : Informationssuche mit Search Engines im World Wide Web (1996)
0.01
0.0062974268 = product of:
0.025189707 = sum of:
0.025189707 = weight(_text_:und in 5101) [ClassicSimilarity], result of:
0.025189707 = score(doc=5101,freq=2.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17153187 = fieldWeight in 5101, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=5101)
0.25 = coord(1/4)
- Abstract
- Das WWW hat sich in den vergangenen Monaten zum größten und wohl auch populärsten Online-Medium entwickelt. Eine riesige Informationsmenge scheint nur auf den Abruf zu warten. Diese Informationsflut führt im chaotische organisierten Internet zwangsläufig auch zu einem schwerwiegenden Problem: wie lassen sich relevante Dokumente im Dickicht von Millionen Web-Seiten auffinden? Abhilfe versprechen hier die 'Search engines' genannten Suchwerkzeuge, deren effektive Nutzung in diesem Beitrag geschildert wird
-
Sander-Beuermann, W.: Findemaschinen: Level3 : Themenorientierte Suchmaschinen (1998)
0.01
0.0062974268 = product of:
0.025189707 = sum of:
0.025189707 = weight(_text_:und in 3901) [ClassicSimilarity], result of:
0.025189707 = score(doc=3901,freq=2.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17153187 = fieldWeight in 3901, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=3901)
0.25 = coord(1/4)
- Abstract
- Ohne Suchmaschinen ist das WWW kaum noch die Hälfte wert. die Crux mit den Suchmaschinen kennt trotzdem jeder: Entweder das Gesuchte ist auf der gewählten Suchmaschine (zufällig?) gerade nicht erfaßt, oder Suchende werden von der Menge des Gefundenen 'erschlagen' - wesentlich mehr als 100 'Treffer' sind sinnlos, da unüberschaubar. Die Forderungen an eine hochwertige Suche müssen daher heißen: Die Suchmaschine muß ein definiertes Gebiet vollständig absuchen, und die Ergebnisse müssen für Suchende qualitativ hochwertig sein. Das vollständige Absuchen darf dabei trotzdem nicht zu unüberschaubar langen Trefferlisten führen. Die Kombination dieser beiden Forderungen wird in einem Teilbereich des DFN-Expo Projektes unter dem Stichwort 'Level3' untersucht. Level3 erlaubt die Generierung spezieller Suchmaschinen für definierte, thematisch eingegrenzte Sachgebiete
-
Arnold, A.: Google undokumentiert : Geheim: Google-Suche, wie Sie sie noch nicht kennen (2003)
0.01
0.0062974268 = product of:
0.025189707 = sum of:
0.025189707 = weight(_text_:und in 3085) [ClassicSimilarity], result of:
0.025189707 = score(doc=3085,freq=2.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17153187 = fieldWeight in 3085, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=3085)
0.25 = coord(1/4)
- Abstract
- Mit geheimen Befehlen kitzeln Sie aus der Suchmaschine Google alles heraus. Versteckte Links zeigen, was das Internet wirklich bietet, und Spezial-Tools verkürzen die Suchzeit - ganz einfach
-
dpa: Yahoo schließt nun ein Bündnis mit Google : Fusionsgespräche mit dem Software-Riesen Microsoft wurden endgültig abgesagt (2008)
0.01
0.0062974268 = product of:
0.025189707 = sum of:
0.025189707 = weight(_text_:und in 2927) [ClassicSimilarity], result of:
0.025189707 = score(doc=2927,freq=8.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.17153187 = fieldWeight in 2927, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2927)
0.25 = coord(1/4)
- Content
- "Nach dem endgültigen Scheitern von Microsofts Übernahmeplänen für Yahoo hat sich der Internet-Konzern mit dem Suchmaschinen-Spezialisten Google verbündet. Yahoo wird von Google verkaufte Werbung auf einigen seiner Webseiten platzieren, teilten die Unternehmen mit. Die Kooperation könne Yahoo rund 800 Millionen Dollar (517 Millionen Euro) jährlich einbringen, hieß es. Angesichts der Dominanz von Google in der Internet-Werbung dürfte die Partnerschaft eine ausführliche Prüfung durch die Wettbewerbsaufsicht auslösen. Erwartet wird, dass Microsoft kartellrechtlich gegen die Kooperation vorgehen wird -- mit dem Hinweis, dass Google und Yahoo gemeinsam eine marktbeherrschende Stellung einnähmen. Die beiden Partner planten von sich aus bereits eine Überprüfungsfrist von dreieinhalb Monaten vor dem Inkrafttreten ihrer Vereinbarung ein. Die Kooperation mit Google wurde unmittelbar nach Bekanntgabe des endgültigen Scheiterns der Gespräche mit Microsoft angekündigt. Yahoo hatte zuvor mitgeteilt, nach etlichen Treffen beider Seiten habe sich ergeben, dass der Software-Riese Microsoft kein weiteres Interesse an einer Gesamtübernahme von Yahoo habe. Einen Verkauf nur des Suchmaschinen-Geschäfts habe der Yahoo-Verwaltungsrat abgelehnt, weil dieser Bereich für die Zukunft des Unternehmens von entscheidender Bedeutung sei.
Die Yahoo-Aktien, die bereits am Donnerstag um rund zehn Prozent eingebrochen waren, verbuchten zum Handelsauftakt am Freitag ein weiteres Minus von 3,74 Prozent auf 22,64 Dollar. Microsoft hatte bis zu 33 Dollar je Aktie geboten, Yahoo wollte nach Angaben des Windows-Herstellers mindestens 37 Dollar. Bis zuletzt hatte Großinvestor Carl Icahn vergeblich die Yahoo-Führung unter Druck gesetzt, einer Übernahme durch Microsoft zuzustimmen. Der Milliardär Icahn gehört zweifelsohne zu den Verlierern des Tages. Er ist nach Berechnungen des Wirtschaftsmagazins "Business Week" zu einem durchschnittlichen Aktienpreis von 25 Dollar hei Yahoo eingestiegen und könnte nun statt eines satten Gewinns einen Verlust einfahren. Erst am Montag hatte Yahoo seine Aktionäre in einem Schreiben zur Hauptversammlung uni Unterstützung gebeten. In dem Brief rief das Unternehmen die Anteilseigner dazu auf, den bisherigen Aufsichtsrat wiederzuwählen und damit die von dem als "Firmenjäger" bekannten Icahn aufgestellten Kandidaten abzulehnen. Die Wahl des Aufsichtsrats bei der Hauptversammlung am 1. August sei die entscheidendste für die Aktionäre in der Geschichte des Unternehmens. Das Vorgehen Icahns wird allerdings auch von vielen Analysten unterstützt, die Jerry Yang nicht zutrauen, das Unternehmen aus der Krise zu führen. Es sei unwahrscheinlich, dass das derzeitige Management in der Lage ist, den Wert des Unternehmens auf absehbare Zeit über mehr als 33 Dollar pro Aktie zu bringen, sagte Mark May, Analyst bei Needham & Co. in New York. Am Ende des Machtkampfes zwischen Microsoft und Yahoo sehen etliche Beobachter nur einen Gewinner, nämlich Google. Das Geld im Web wird mit Suchanzeigen verdient. Microsoft wollte unbedingt die Reichweite von Yahoo haben, um zu Google aufzuschließen. Doch letztlich hat Microsoft-Chef Steve Ballmer mit seinem Vorstoß nur erreicht, dass die Online-Anzeigenplätze von Yahoo in den Händen von Google landen werden."
-
Pein, R.: Einfach besser googeln (2005)
0.01
0.0062328363 = product of:
0.024931345 = sum of:
0.024931345 = weight(_text_:und in 3680) [ClassicSimilarity], result of:
0.024931345 = score(doc=3680,freq=6.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.16977254 = fieldWeight in 3680, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3680)
0.25 = coord(1/4)
- Content
- "Wer auf der Suche nach Informationen zu einem bestimmten Thema, Bildern, Webseiten oder Ähnlichem ist, versucht es oft erst mal bei www. google.de. Einfach ein paar passende Begriffe eingeben und schon liefert die Suchmaschine das gewünschte Ergebnis - so die Theorie. In der Realität ist die Trefferzahl zwar oft riesig, doch nicht alles ist brauchbar. Hilfreiche Links muss man sich erst mühsam aus dem Informations-Wust heraussuchen. Besser fährt, wer gezielt sucht. Dazu muss man über einige Google-Besonderheiten Bescheid wissen. So ist ein Suchstring auf die Länge von 2048 Zeichen beschränkt und darf aus maximal zehn Wörtern bestehen. Weitere Begriffe werden einfach ignoriert. Bei der Eingabe mehrerer durch Leerzeichen getrennter Wörter sucht Google Seiten, die all diese Begriffe enthalten (AND-Verknüpfung). Genügt es, wenn nur einer von mehreren Begriffen auftaucht, verknüpfen Sie diese in der Suchanfrage mit OR. Informationen über alle James-Bond=Filme mit Sean Connery oder Pierce Brosnan erhalten Sie so mit James Bond (Connery OR Brosnan). Gruppieren Sie Ausdrücke mit runden Klammern, sonst gilt: AND vor OR. Bei der Suche nach Produktangeboten hilft es oft, eine gewünschte Preisspanne anzugeben: Dies geschieht durch zwei aufeinander folgende Punkte zwischen Minimum und Maximum. Mit dem Suchstring Pizzeria 80990..80999 stöbern Sie so auch italienische Restaurants im benachbarten Postleitzahlenbereich der PCpro-Redaktion auf. ABBA 1974..1976 listet Biografien der schwedischen Erfolgsband über die ersten Jahre nach ihrem Grand-Prix-Erfolg. Mit einer Tilde (~) vor den Wörtern werden im englischen Vokabular auch Synonyme gesucht (Mit ~murder z.B. auch crime oder suicide)"
-
Kleinz, T.: Konkurrenz für Wikipedia : Google bastelt an Wissensportal - Autoren sollen Anteile an Werbeeinnahmen erhalten (2007)
0.01
0.0062328363 = product of:
0.024931345 = sum of:
0.024931345 = weight(_text_:und in 1758) [ClassicSimilarity], result of:
0.024931345 = score(doc=1758,freq=6.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.16977254 = fieldWeight in 1758, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1758)
0.25 = coord(1/4)
- Content
- "Mit der Ankündigung einer Wissensplattform hat der Suchmaschinen-Konzern Google für reichlich Aufregung in der Internet-Szene gesorgt. Wikipedia-Gründer Jimmy Wales gibt sich betont gelassen. Das Projekt heißt Knol - die Kurzform für "Knowledge", zu Deutsch: Wissen. Noch sind nicht viele Informationen bekannt. Die Ankündigung beschränkt sich auf einem kurzen Beitrag des Google-Managers Udi Manber im Firmen-Weblog. Manber beschreibt die Mission so: "Wir glauben, dass viele Menschen ihr Wissen nicht teilen, weil es heute immer noch nicht einfach genug ist, das zu tun". Mit Knol sollen die Google-Nutzer Gelegenheit bekommen, Artikel zu beliebigen Themen zu verfassen und direkt online zu stellen. Eigentlich eine Kriegserklärung an Wikipedia, denn das Projekt hat eben den Anspruch, das Teilen von Wissen möglichst einfach zu machen." In Interviews demonstriert Wikipedia-Gründer Jimmy Wales Gelassenheit. "Google macht eine Menge toller Sachen, aber diese Sachen funktionieren nicht immer." Damit hat der 41-Jährige durchaus recht: So stellte Google vor einem Jahr seine Wissens-Plattform "Google Answers" ein, da sich nicht genug Nutzer für das Angebot interessiert hatten. Auch bei sozialen Netzwerken sind die Kalifornier im Hintertreffen. Ihr frühzeitig gestartetes Projekt Orkut liegt in Europa und Amerika weit abgeschlagen hinter Konkurrenten wie MySpace, Facebook oder StudiVZ.
Das neue Projekt hat jedoch mehr Potenzial. Zwar will Google die Autoren der Knol-Artikel nicht direkt bezahlen, dafür werden sie aber an den Werbe-Erlösen der Plattform beteiligt. Wer einen besonders gefragten Artikel schreibt, kann Monat für Monat mit entsprechenden Einnahmen rechnen. Anders als bei Wikipedia sollen die Artikel keine Gemeinschaftsarbeit sein. Zwar kann jeder Nutzer Verbesserungsvorschläge machen und Artikel bewerten, für die Texte ist aber immer nur ein Autor verantwortlich. Zu einem bestimmten Thema können mehrere Autoren mit ihren Texten konkurrieren. Spannend ist auch die Verknüpfung mit der Suchplattform, dem Kern-Geschäft von Google. So sollen Knol-Artikel direkt in die Suchergebnis-Listen der Kalifornier einfließen. Für die Autoren bedeutet dies eine hohe Reputation, wenn ihr Artikel bei der Internet-Suche ganz oben steht. Für die Google-Ingenieure bietet die Integration andere Vorteile: Anhand der Knol-Texte könnten sie die Qualität der Suchergebnisse insgesamt verbessern. Wird ein Knol-Artikel von den Nutzern gut bewertet, kann Google daraus schließen, welche Suchergebnisse besonders gefragt oder qualitativ hochwertig sind."
-
Hölzig, C.: Google spürt Grippewellen auf : Die neue Anwendung ist bisher auf die USA beschränkt (2008)
0.01
0.0062328363 = product of:
0.024931345 = sum of:
0.024931345 = weight(_text_:und in 3403) [ClassicSimilarity], result of:
0.024931345 = score(doc=3403,freq=6.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.16977254 = fieldWeight in 3403, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3403)
0.25 = coord(1/4)
- Content
- "Vor Google gibt es kein Entrinnen. Nun macht sich die größte Internetsuchmaschine daran, auch gefährliche Grippewellen in den USA vorauszusagen - und das schneller als die US-Gesundheitsbehörde. In den Regionen, in denen die Influenza grassiert, häufen sich erfahrungsgemäß auch die Online-Anfragen im Internet speziell zu diesem Thema. "Wir haben einen engen Zusammenhang feststellen können zwischen Personen, die nach themenbezogenen Informationen suchen, und Personen, die tatsächlich an der Grippe erkrankt sind", schreibt Google. Ein Webtool namens "Google Flu Trends" errechnet aus den Anfragen die Ausbreitung von Grippeviren. Auch wenn nicht jeder Nutzer erkrankt sei, spiegele die Zahl der Anfragen doch ziemlich genau die Entwicklung einer Grippewelle wider. Das belege ein Vergleich mit den Daten der US-Seuchenkontrollbehörde CDC, die in den meisten Fällen nahezu identisch seien. Die Internet-Suchmaschine könne anders als die Gesundheitsbehörde täglich auf aktuelle Daten zurückgreifen. Dadurch sei Google in der Lage, die Grippesaison ein bis zwei Wochen früher vorherzusagen. Und Zeit bedeutet Leben, wie Lyn Finelli sagt, Leiter der Abteilung Influenza der USSeuchenkontrollbehörde: "Je früher wir gewarnt werden, desto früher können wir handeln. Dies kann die Anzahl der Erkrankten erheblich minimieren." "Google Flu Trends" ist das erste Projekt, das Datenbanken einer Suchmaschine nutzt, um einen auftretenden Grippevirus zu lokalisieren - zurzeit nur in den USA, aber weltweite Prognosen wären ein folgerichtiger nächster Schritt. Philip M. Polgreen von der Universität von Iowa verspricht sich noch viel mehr: "Theoretisch können wir diese Flut an Informationen dazu nutzen, auch den Verlauf anderer Krankheiten besser zu studieren." Um das Grippe-Ausbreitungsmodell zu erstellen, hat Google mehrere hundert Milliarden Suchanfragen aus den vergangenen Jahren analysiert. Datenschützer haben den Internetgiganten bereits mehrfach als "datenschutzfeindlich" eingestuft. Die Anwender wüssten weder, was mit den gesammelten Daten passiere, noch wie lange gespeicherte Informationen verfügbar seien. Google versichert jedoch, dass "Flu Trends" die Privatsphäre wahre. Das Tool könne niemals dazu genutzt werden, einzelne Nutzer zu identifizieren, da wir bei der Erstellung der Statistiken lediglich anonyme Datenmaterialien nutzen. Die Muster, die wir in den Daten analysieren, ergeben erst in einem größeren Kontext Sinn." An einer echten Virus-Grippe - nicht zu verwechseln mit einer Erkältung - erkranken weltweit mehrere Millionen Menschen, mehr als 500 000 sterben daran."
-
Tetzchner, J. von: As a monopoly in search and advertising Google is not able to resist the misuse of power : is the Internet turning into a battlefield of propaganda? How Google should be regulated (2017)
0.01
0.005453732 = product of:
0.021814927 = sum of:
0.021814927 = weight(_text_:und in 4891) [ClassicSimilarity], result of:
0.021814927 = score(doc=4891,freq=6.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.14855097 = fieldWeight in 4891, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4891)
0.25 = coord(1/4)
- Abstract
- Jon von Tetzchner entwickelte die Browser Opera und Vivaldi. Er ist Mitgründer und CEO von Vivaldi Technologies. Zuletzt wandelte er sich vom Google-Enthusiasten zum Google-Kritiker. Im Interview mit Open Password stellt er seine Positionen dar. Der gebürtige Isländer arbeitete lange in Norwegen und residiert neuerdings in der Nähe von Boston.
-
Smith, A.G.: Search features of digital libraries (2000)
0.01
0.0053977943 = product of:
0.021591177 = sum of:
0.021591177 = weight(_text_:und in 1940) [ClassicSimilarity], result of:
0.021591177 = score(doc=1940,freq=2.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.14702731 = fieldWeight in 1940, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1940)
0.25 = coord(1/4)
- Content
- Enthält eine Zusammenstellung der Werkzeuge und Hilfsmittel des Information Retrieval
-
Millionen historischer Bücher im Volltext online (2005)
0.01
0.0053977943 = product of:
0.021591177 = sum of:
0.021591177 = weight(_text_:und in 3169) [ClassicSimilarity], result of:
0.021591177 = score(doc=3169,freq=2.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.14702731 = fieldWeight in 3169, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3169)
0.25 = coord(1/4)
- Abstract
- Google will in diesen Tagen im Rahmen eines Zehn-Jahres-Projektes mit dem Scannen von 15 Millionen Büchern von der Oxford University, Harvard University, Stanford University, der University of Michigan und der New York Public Library beginnen. Die Bücher, bei denen alle Copyrights erloschen sind, werden vollständig online gebracht. Aus den anderen Büchern sollen Auszüge offeriert werden. Password-Partner David Worlock (London) kommentierte den Sprung von Google in die gedruckte Welt: "More than anything, the acceleration of Google's engagement with the analog, printed world represents a decisive moment in the evolution of information publishing- toward providing "solutions" rather than the passive information assets that Google may be an the way to providing as a content utility. As its strategy unfolds, and its competitors respond, muck of the still substantially offline world of publishers, booksellers, and institutional collections, will see a year of changed assumptions and dissolving boundaries."
-
Schulz, W.; Held, T.: ¬Der Index auf dem Index? : Selbstzensur und Zensur bei Suchmaschinen (2007)
0.01
0.0053977943 = product of:
0.021591177 = sum of:
0.021591177 = weight(_text_:und in 1374) [ClassicSimilarity], result of:
0.021591177 = score(doc=1374,freq=2.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.14702731 = fieldWeight in 1374, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1374)
0.25 = coord(1/4)
-
Brückner, F.: Angriff auf den Welt-Detektiv : Wiki Search (2008)
0.01
0.0053977943 = product of:
0.021591177 = sum of:
0.021591177 = weight(_text_:und in 2272) [ClassicSimilarity], result of:
0.021591177 = score(doc=2272,freq=8.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.14702731 = fieldWeight in 2272, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2272)
0.25 = coord(1/4)
- Content
- "David hat den ersten Kampf gegen Goliath verloren. Das ist die Bilanz, die Experten am Montag nach dem Start der Internet-Suchmaschine Wikia Search ziehen. "Ich bin maßlos enttäuscht", sagt Dirk Lewandowski, Professor an der Hochschule für Angewandte Wissenschaften Hamburg. Dabei hatte Jimmy Wales, Gründer der Online-Enzyklopädie Wikipedia, angekündigt, mit Wikia Search den Branchenprimus Google anzugreifen. Dessen Marktanteil liegt in den USA bei rund 65 Prozent - Tendenz seit Jahren steigend. Dass Google in Deutschland nicht weiterwächst, liegt schlicht daran, dass dies bei einem geschätzten Marktanteil von rund 90 Prozent nicht mehr möglich ist, wie Lewandowski meint. Deutschlands Internetnutzer suchen nicht im Netz nach Informationen, sie googeln danach . "Google hat sich als Standard durchgesetzt", sagt Wolf-Tilo Balke, der sich in Hannover mit Zukunftstechnologien befasst. Gerade wegen der Marktmacht - dank der die gleichnamige US-Firma im dritten Quartal 2007 etwa vier Milliarden Dollar Umsatz erzielt hat - stieß Jimmy Wales' Ankündigung, mit Wikia Search den Markt aufzumischen, auf breite Resonanz. Warnrufe der Wissenschaft Schließlich sei es nicht hinnehmbar, so etwa eine vom österreichischen Verkehrsministerium mitfinanzierte Studie aus dem Jahr 2007, dass ein Unternehmen mehr wisse, als alle Institutionen in der menschlichen Geschichte zuvor. Google, so die Studie weiter, werde zum größten Detektivbüro der Welt. "Es kann nicht sein, dass Google uns die Sicht der Welt definiert. Zumal Google schon qua Gesetz dazu verpflichtet ist, sich um das Wohl seiner Aktionäre zu kümmern und nicht um das der Allgemeinheit", fasst Norbert Fuhr, Informatik-Professor an der Universität Duisburg-Essen die Warnrufe vieler Wissenschaftler zusammen. Denn immer mehr gilt: Was nicht gegoogelt werden kann, wird auch nicht gefunden - und spielt damit keine Rolle mehr.
Immerhin erfasst Googles Suchmaschine mehrere Milliarden Internetseiten. Ausgefeilte Programme sollen dafür sorgen, dass der Suchmaschinennutzer genau das findet, was er sucht. Unklar ist, nach welchen Kriterien Googles Raster Inhalte bewertet und sortiert. Das ist geheim. Genau an diesem Punkt, der fehlenden Transparenz, will Wales mit seiner Suchmaschine ansetzen. Deren Suchprogramme sind bei jedem Rechercheergebnis einsehbar. Außerdem sollen nicht nur Programme, sondern Menschen mit über die Relevanz von Webseiten entscheiden. Googles Rechenpower soll - ganz nach dem Vorbild von Wikipedia, mit der Wikia organisatorisch nichts zu tun hat - von einer freiwilligen Nutzergemeinschaft geschlagen werden. Mit dem Modell einer Mitmach-Suchmaschine hat Wales Werbung gemacht. Am Montag aber schauten Nutzer, die Inhalte bewerten wollten, in die Röhre. Denn "diese wesentliche Funktion ist noch nicht freigeschaltet worden", wie Professor Lewandowski vermutet. Jimmy Wales sagt der FR dazu am Montagabend: "Wir hatten einige technische Probleme, die aber in einigen Stunden behoben sein sollten." Lewandowskis Urteil über Wikia Search fällt dennoch ernüchternd aus: "So hätte Wikia nicht auf den Markt gebracht werden dürfen." Denn unabhängig von fehlenden Funktionen komme bei "egal welcher Anfrage nichts Gescheites heraus". Ein Grund: Zurzeit biete Wikia nur einen Überblick über 50 Millionen Seiten. Nötig seien aber einige hundert Millionen. Laut Wikia-Gründer Wales liegt die Zahl höher, hat aber die 100 Millionen-Grenze noch nicht erreicht. Bereits in den kommenden Wochen werde das Angebot größer ausfallen.
Zum Vorwurf, Wikia Search sei zu früh auf den Markt geworfen worden, sagt Wales: "Es dreht sich alles um die Beteiligung der Öffentlichkeit. Als Open-Source-Projekt müssen wir es der Öffentlichkeit zur Verfügung stellen, damit es verbessert werden kann." Auf engagierte Freiwillige setzt Wales auch bei der Einbindung weiterer Sprachen. Bis dato kann nämlich fast nur mit englischen Begriffen gearbeitet werden. Wales ist zuversichtlich, dass dies in wenigen Monaten anders sein wird. Das muss es auch, wenn Wikia der Gefahr entgehen will, dass sich angesichts all der Unzulänglichkeiten Nutzer von der Suchmaschine abwenden - und sich so der menschliche Vorteil gegenüber Google in Luft auflöst. So oder so meinen Experten, dass Wikia nicht an Googles Thron rütteln wird. Das Warten auf einen neuen David im Kampf gegen den Suchmaschinen-Goliath geht weiter."
-
Westermeyer, D.: Adaptive Techniken zur Informationsgewinnung : der Webcrawler InfoSpiders (2005)
0.00
0.0044981623 = product of:
0.01799265 = sum of:
0.01799265 = weight(_text_:und in 5333) [ClassicSimilarity], result of:
0.01799265 = score(doc=5333,freq=2.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.12252277 = fieldWeight in 5333, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=5333)
0.25 = coord(1/4)
- Content
- Ausarbeitung im Rahmen des Seminars Suchmaschinen und Suchalgorithmen, Institut für Wirtschaftsinformatik Praktische Informatik in der Wirtschaft, Westfälische Wilhelms-Universität Münster. - Vgl.: http://www-wi.uni-muenster.de/pi/lehre/ss05/seminarSuchen/Ausarbeitungen/DenisWestermeyer.pdf