Search (11774 results, page 3 of 589)

  • × language_ss:"d"
  1. Gernert, J.: ¬Das Superhirn : Jerry Young brachte mit Yahoo Ordnung ins Netz, jetzt wird er von Microsoft umworben (2008) 0.10
    0.098073825 = product of:
      0.19614765 = sum of:
        0.035695057 = weight(_text_:und in 3617) [ClassicSimilarity], result of:
          0.035695057 = score(doc=3617,freq=26.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.26505727 = fieldWeight in 3617, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3617)
        0.16045259 = weight(_text_:helden in 3617) [ClassicSimilarity], result of:
          0.16045259 = score(doc=3617,freq=2.0), product of:
            0.5421551 = queryWeight, product of:
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.060719278 = queryNorm
            0.2959533 = fieldWeight in 3617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3617)
      0.5 = coord(2/4)
    
    Content
    "Das Internet hat eine eigene Zeitrechnung. Alles geht rasend schnell. Mit Leuten, die im Netz Geschäfte machen, sei das ähnlich wie mit Hunden, hat Jerry Yang, der Gründer von Yahoo, einmal gesagt. Bei denen setzt man ein Lebensjahr mit sieben Menschenjahren gleich. Würde man denselben Faktor in der Internet-Branche verwenden, dann wäre Yang nicht 39 Jahre alt, sondern 273. Er ist also seit Ewigkeiten in dem Geschäft unterwegs. 1994, als das Internet nicht mehr als ein wirres Seitensammelsurium war, beschloss er mit seinem Studienkollegen David Filo, Ordnung in das Webwirrwarr zu bringen. Eine geniale Idee, wie sich zuletzt zeigte, denn Mircrosoft hat in der vergangenen Woche 44,6 Milliarden US-Dollar für die Übernahme von Yahoo geboten. In einer am Mittwoch veröffentlichten Email schrieb Yang, dass der Yahoo-Verwaltungsrat nach wie vor eine breite Palette möglicher strategischer Alternativen prüfe. Dies benötige ausreichend Zeit. Der Verhandlungspoker ist also eröffnet. Rückkehr an die Firmenspitze Yang und sein Partner Filo katalogisierten in der Anfangszeit die vorhandenen Internetseiten und wurden zu einem der erfolgreichsten Start-ups der 90er Jahre. Selbstbewusst setzten sie hinter den Firmennamen ein Ausrufezeichen. Mit Google kam aber irgendwann ein anderer Mechanismus der Internetsuche auf den Markt, wirtschaftlich überholte der Konkurrent Yahoo. Yang und Filo erlebten seitdem einige wirtschaftlich unruhige Zeiten. Zuletzt ging es eher bergab. Auf dem entscheidenden Online-Werbemarkt steht Google deutlich besser da. Software-Riese Microsoft will mit der Übernahme von Yahoo die Macht von Google brechen.
    Als Yang vor einigen Tagen auf einer Konferenz die Neuentwicklungen für Mobiltelefone vorstellte, stand er lange alleine auf der Bühne. Seinen blassen Kompagnon Filo holte er erst am Ende kurz dazu. Yang, gewohnt leger im blauen Pulli mit V-Ausschnitt und beiger Hose, begann seinen Vortrag mit einem Scherz: "Sie wollen den neuen Look von Yahoo sehen, das neue Gesicht. Ich werde Sie enttäuschen müssen. Es ist immer noch das alte." Nämlich seines. Er ist der Mann fürs Rampenlicht, zumindest wenn es sein muss. Im vergangenen Jahr hat Yang im Konzern wieder die Leitung übernommen. Der vorherige Chef wechselte wegen der schwachen Börsenkurse in den Aufsichtsrat. Den Titel "Chief Yahoo!" hatte der gebürtige Taiwanese ohnehin nie abgelegt. Das Silicon Valley gehört zu seiner Erfolgsgeschichte wie sein Lebenslauf. Mit seiner Mutter und seinem Bruder kam er im Alter von zehn Jahren im kalifornischen San José an, der selbsternannten Hauptstadt des High-Tech-Tals, in dem die Start-up-Millionäre wohnen. Apple, Ebay, Google, alle haben in dieser Gegend angefangen. Als Yang nach San José kam, soll er nur ein englisches Wort gekannt haben: Shoes. Er lernte schnell andere Wörter dazu, in der Schule war er ein Mathe-Ass. Und obwohl Stanford erklärte, ihn finanziell nicht umfangreich mit Stipendien unterstützen zu können, beschloss er, genau dort, auf dem Campus im Silicon Valley, sein Studium zu beginnen. Während seiner Promotion legte er zusammen mit David Filo ein Netzverzeichnis an, das sie "Jerry's Guide to the World Wide Web" nannten. Schon da stand sein Name im Vordergrund. Die Büros der beiden waren klein und recht unordentlich, aber bei Yang lagen zwischen den Büchern und Zetteln immerhin keine T-Shirts und dreckigen Socken wie bei Filo. Wahrscheinlich haben all diese Anekdoten dem Image der beiden eher geholfen als geschadet, jedenfalls bekamen sie eine Million Dollar von einem Wagnis-Kapital-Geber. Als sie wenig später an die Börse gingen, stieg der Kurs am ersten Tag um 154 Prozent. Ihre kleine Firma war trotz der überschaubaren Umsätze plötzlich 800 Millionen Dollar wert. Yang ließ seine Promotion ruhen. Bis heute. Trotzdem ist er alles andere als ein lässiger Abhänger. Er war immer smart, strebsam und arbeitete, wenn es sein musste, Tag und Nacht. Damit erfüllte er in den Jahren des Internet-Booms jenes Klischee, das asiatischen Einwanderern nachgesagt wurde. Nur hatte das jetzt keinen negativen Touch mehr. "Sie sind so etwas wie die Helden der Jahrhundertwende", schrieb das Time Magazin über erfolgreiche asiatische Einwanderer. Ein Beispiel: Jerry Yang.
    Daten in China weitergegeben Erfolgsorientierung allerdings hat den Finanzriesen Yahoo ausgerechnet in China nach Ansicht eines US-Politikers zu einem "moralischen Pygmäen" gemacht. Weil Yahoo belastende Informationen an die chinesische Regierung weitergegeben hatte, standen zwei Dissidenten vor Gericht. Im feinen, dunkelblauen Nadelstreifenanzug und ohne sein übliches Lächeln trat Yang im November bei einem Gerichtstermin vor die Mutter eines Verhafteten und verbeugte sich vor ihr. Aber geholfen hat sein Auftritt den Angeklagten nicht. Am Ende des Prozesses wurden die beiden Männer zu jeweils zehn Jahren Haft verurteilt. Das Vermögen des leidenschaftlichen Golfspielers wird heute auf 2,2 Milliarden Dollar geschätzt. 75 Millionen davon hat er im vergangenen Jahr der Stanford-Universität gespendet. Wie viele andere Einwanderer mit Wurzeln in China, die in den USA zu Millionären oder Milliardären geworden sind, würde er damit die Bedeutung der Uni als Karriereleiter unterstreichen, stellte die New York Times fest. Er ist auf dieser Leiter sehr hoch geklettert. Vielleicht reicht es gemeinsam mit Microsoft noch für ein paar mehr Sprossen. In Richtung Google."
  2. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.09758902 = product of:
      0.19517805 = sum of:
        0.16659912 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.16659912 = score(doc=617,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.02857892 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.02857892 = score(doc=617,freq=6.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  3. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.091334656 = product of:
      0.18266931 = sum of:
        0.1332793 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.1332793 = score(doc=2121,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.049390018 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.049390018 = score(doc=2121,freq=28.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  4. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.091334656 = product of:
      0.18266931 = sum of:
        0.1332793 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.1332793 = score(doc=346,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.049390018 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.049390018 = score(doc=346,freq=28.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  5. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.08950278 = product of:
      0.17900556 = sum of:
        0.1332793 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.1332793 = score(doc=6889,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.045726273 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.045726273 = score(doc=6889,freq=24.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  6. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.08950278 = product of:
      0.17900556 = sum of:
        0.1332793 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.1332793 = score(doc=1642,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.045726273 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.045726273 = score(doc=1642,freq=24.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  7. Thesaurus der exakten Wissenschaften : Unter Mitarb. von Charles Auffray u.a (2001) 0.09
    0.08788877 = product of:
      0.17577754 = sum of:
        0.042067032 = weight(_text_:und in 3414) [ClassicSimilarity], result of:
          0.042067032 = score(doc=3414,freq=52.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.312373 = fieldWeight in 3414, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3414)
        0.1337105 = weight(_text_:helden in 3414) [ClassicSimilarity], result of:
          0.1337105 = score(doc=3414,freq=2.0), product of:
            0.5421551 = queryWeight, product of:
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.060719278 = queryNorm
            0.24662776 = fieldWeight in 3414, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3414)
      0.5 = coord(2/4)
    
    Abstract
    Wissen, Wissenschaft, Wissensmacht. Das Informationszeitalter blickt misstrauisch und -mutig, aber immer noch mit Respekt, mit Ehrfurcht, auf die Jahrhunderte hinter uns zurück: in denen es eine Einheit gab von Wissen, Reflexion und Handeln. Heute ist Information alles, aber was kann da Wissen noch sein? Vor drei Jahren haben Michel Serres. und Nayla Farouki mit ihren Kollegen eine praktische Antwort versucht - einen "Thesaurus der exakten Wissenschaften", der nun auf Deutsch vorliegt. Ein Thesaurus, eine Schatzkammer also. Jener Ort, in einem Heiligtum, wo ein Schatz gehütet wurde. Der Schatz des Wissens, der exakten Wissenschaften genau gesagt, umfasst Astrophysik, Biochemie, Chemie, Genetik, Geowissenschaften, Informatik, Mathematik und Physik. Was ist dieses Wissen und wie kann es sich darstellen: "Jorge Luis Borges erzählt eine wunderbare Geschichte, in der berichtet wird, hier und da seien auf der Welt noch die Reste einer im Maßstab 1:1 angefertigten Weltkarte zu besichtigen ... Im Extremfall stößt die Geometrie auf den leeren, glatten homogenen, transparenten Raum oder das Fraktal verliert sich in seien sich endlos auffächernden Singularitaten. Das sind die beiden Grenzen, die die unüberbrückbare, widersprüchliche Kluft zwischen Realem und Formalem markieren. Welt und platonische Vernunft behalten wir immer beide zugleich in den Augen. Freilich nicht ohne zu schielen." Dieser Strabismus ist der schönste Effekt des gewaltigen Buches von Serres / Farouki, gerade richtig für ein Werk, in dem sich Hypertrophie und Bescheidenheit paaren. Das Wissen der Welt noch einmal zwischen zwei Buchdeckeln zu sammeln - was könnte absurder, verführerischer, beunruhigender sein. "Wir suchen nach dem Wissen nicht mehr wie nach einer einsamen Insel im unermesslichen Meer des Nichtwissens. Unser Streben gilt vielmehr einem besonderen, ausgewählten, bestätigten Wissen im Meer der Erkenntnis, einem 'Schatz' in der unförmigen Masse des Wissens. Hier ist er beschrieben, dieser 'Schatz', dieser Thesaurus, und doch auch immer wieder in Frage gestellt von Autoren, die sich als Forscher verstehen, dem Leser aber kaum voraus sind. Kein Buch für den wissenschaftlichen Zirkel - der circulus vitiosus zwischen Lesern und Autoren hat seit vielen Jahren seine Kraft verloren. Das ThesaurusProjekt, das klingt wie ein Roman von Robert Ludlum, dem großen Spannungsautor, der vor wenigen Tagen gestorben ist. ... von einem exakten Thriller - die reine Neugier ist der Antrieb, beim Leser, bei den Schreibenden. Das Buch spannt ein Netz des Wissens auf - aber mit den nervösen Internet-Link-Geschichten, von denen heute vollmundig die Rede ist, hat es nichts zu tun. Das Buch beansprucht Dauer, auch wenn es sich im Moment seines Erscheinens bereits als überholt erweisen könnte. Es ist modern, weil. es sich den Postulaten der Moderne widersetzt, nimmt Zeitlosigkeit in Anspruch für sich, wenigstens für einen Augenblick. Serres hat sich in seiner Arbeit von Anfang an auf Borges und Jules Verne berufen - beide hätten sich für die neuen Kommunikationsmedien sicher aufgeschlossen gezeigt. Im Moment engagiert Serres selbst sich für die Möglichkeiten der Wissenschaft im E-Book-Bereich. Enzyklopädie, Wissensbilanz ... Die meisten der Artikel des Thesaurus haben keinen einzelnen Autor, sind von zwei, drei, manchmal von allen Mitarbeitern verfasst worden. Das erklärt ihre nüchterne Zurückhaltung - die immer wieder aber in einen magischen Surrealismus umschlägt. Der Roman des Jahrhunderts, auch dies ein Fazit des Thesaurus, wird also nicht von den Literaten geschrieben, sondern wahrscheinlich von den Wissenschaftlern. "Das Ganze erzählt sich anders als die Summe aller Unterschiede. Jede einzelne Wissenschaft deduziert, experimentiert und räsonniert in ihrem eigentümlichen Dialekt, die Umgangsspraehe erzählt die Wissenschaft. Die Erzählung vervollständigt die Wissensbereiche. Wie zur Entlastung Körperfunktionen oder seelische Fähigkeiten auf äußere Objekte ausgelagert werden, um für Neues gewappnet zu sein, so werden die Konzepte der Wissenschaft in dieser Erzählung oder diesem Lexikon deponiert und befreien den Forscher, entlasten uns alle, damit sie und wir uns neuen Anschauungen zuwenden können ... Einst stand die Wissenschaft in förmlichem Gegensatz zu den Erzählungen, heute übernimmt die Erkenntnis deren Form." Wissen, Wissenschaft, Wissensdurst. Das Buch ist auf merkwürdige Weise anachronistisch, und am Ende durch und durch moralisch - wie jede Moderne moralisch ist. Wissen verpflichtet, so finden wir am Ende der Einleitung eine Art hippokratischen Eid
    Footnote
    Rez. in: Spektrum der Wissenschaft 2001, H.9, S.95 (C. Pöppe: "Ein Mammutprojekt einer Gruppe französischer Wissenschaftler ist zu einem bewundernswerten Werk gediehen. "Le Tresor. Dictionnaire des Sciences", im Original 1997 erschienen, ist kein Lexikon im üblichen Sinne. Es beschränkt sich ausdrücklich auf Grundkonzepte der Wissenschaften und erläutert diese in langen, inhaltsreichen Artikeln. Das Bemühen der Autoren um verständliche Sprache und die Kommentare vieler Probeleser haben prachtvolle Früchte getragen; Übersetzer und Bearbeiter haben sie wohlbehalten in die deutsche Sprache transportiert. Dass die Helden dieser Wissenschaftsgeschichte in ihrer großen Mehrheit Franzosen sind - wen stört's? Persönliche Vorlieben der Autoren schlagen - unvermeidlich - aufs Endergebnis durch. Die Mathematik nimmt, ihrer Bedeutung und der landesüblichen Wertschätzung entsprechend, breiten Raum ein. Die Autoren scheuen sich nicht, einen mathematischen Begriff wie "Linearität" in drei Stufen einzuführen: sehr erdnah und dann in zwei Abstraktions- und Verallgemeinerungsschritten. So kommen auch militante Formelhasser wenigstens in den Genuss eines oder zweier Absätze. Der Chemiker fühlt sich zu Höherem berufen - und rutscht gelegentlich aus: Der Artikel "Chemie" kippt nach wundervoll anwendungsbezogenem Beginn ("Silber putzen") in pseudophilosophisches Geschwätz ab, erholt sich allerdings wieder. Lassen Sie sich bloß nicht von der 40-seitigen Einleitung des Herausgebers Michel Serres abschrecken! Den verschlungenen und zweifellos hochgeistigen Ausführungen zum Trotz ist die Benutzung des Werkes ganz einfach: Es genügt, das Alphabet zu beherrschen.")
    Issue
    Aus dem Französischen von Michael Bischoff und Ulrike Bischoff.
  8. Internet: The editor's choice (2002) 0.08
    0.08329956 = product of:
      0.33319825 = sum of:
        0.33319825 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.33319825 = score(doc=1854,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  9. Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005) 0.08
    0.082289636 = product of:
      0.16457927 = sum of:
        0.030868761 = weight(_text_:und in 4576) [ClassicSimilarity], result of:
          0.030868761 = score(doc=4576,freq=28.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.22921911 = fieldWeight in 4576, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4576)
        0.1337105 = weight(_text_:helden in 4576) [ClassicSimilarity], result of:
          0.1337105 = score(doc=4576,freq=2.0), product of:
            0.5421551 = queryWeight, product of:
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.060719278 = queryNorm
            0.24662776 = fieldWeight in 4576, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4576)
      0.5 = coord(2/4)
    
    Abstract
    Die großen Suchmaschinen Google und Yahoo setzen beide auf die Inhalte des freien Nachschlagewerks Wikipedia. Sie wollen die Inhalte bei entsprechenden Anfragen prominent platziert vor der eigentlichen Trefferliste anzeigen. Google verwendet sie auch, um an die Suchmaschine gestellte Fragen zu beantworten. Damit gewinnt die nicht unumstrittene Freiwilligen-Enzyklopädie weiter an Bedeutung.
    Content
    "Google hat im April die aus dem US-Angebot bekannte bekannte Funktion der Begriffsdefinitionen für die deutschsprachige Seite vorgestellt. Leitet man eine Anfrage mit "definiere" ein, so wird an erster Stelle (noch vor der regulären Trefferliste) eine Definition des entsprechenden Begriffs angezeigt. Zwar werden andere Quellen aus dem offenen Web eingebunden, es zeigt sich aber, dass die Wikipedia-Einträge an erster Stelle platziert sind. Es wird jeweils der erste Abschnitt aus dem Wikipedia-Artikel präsentiert, der vollständige Text kann über einen Link abgerufen werden. Klickt man die Oberschrift "Definitionen von ... im Web" an, bekommt man, wenn vorhanden, weitere Treffer aus anderen Quellen angezeigt. Ein Beispiel zeigt die Bandbreite der Definitionen: Die Suche nach einer Definition für Glück ergibt neben dem ausführlichen Wikipedia-Artikel unter anderem Treffer von skat.com ("Faktor, der beim Skatspiel nicht wegzudenken ist") und von jesubotschaft.de. Hier muss sich Google (wieder einmal) den Vorwurf gefallen lassen, nicht die Autoritäten, also die hochwertigsten Quellen einzubeziehen, sondern irgendwelche, die (vermeintlich) etwas zum Thema zu melden haben. Eine weitere Einbindung der Wikipedia-Quellen wird bereits auf Googles US-Site getestet: Stellt man der Suchmaschine eine Frage (und nicht wenige Suchmaschinennutzer tun dies tatsächlich!), so bekommt man mit etwas Glück direkt eine Antwort angezeigt, zum Beispiel auf die Frage "Who is David Bowie?" die Antwort: "is a British rock and roll musician, actor, and artist who has had a profound influence an rock". Unter jedem Treffer ist ein Link auf die Quelle angegeben. Die Informationen kommen nicht nur aus der Wikipedia, sondern zum Beispiel auch aus dem World Fact Book (bei geographischen Anfragen) oder von Seiten wie "Pub Quiz Help". Die aus den Webseiten gezogenen Exzerpte sind von unterschiedlicher Qualität: Fragt man nach (populären) Zahlenangaben wie etwa der Höhe des Mount Everest, funktioniert es gut, bei den Fragen nach Personen wird manchmal ein etwas unpassender Teil des Artikels angezeigt, so dass man sich auf den vollständigen Artikel weiterklicken muss. Bislang geht Yahoo einen anderen Weg als Google. Gibt man in der US-amerikanischen Version Begriffe ein, die auf ein klassisches "Nachschlage-Bedürfnis" hindeuten, wird ähnlich wie bei Google mit den Definitionen ein "Shortcut" angezeigt (Password 2/2004 und 11 /2004). Die Quellen dort sind allerdings direkt in das Yahoo-Angebot eingebaut, d.h. man verlässt nicht das Yahoo-Portal, wenn man sich die vollständigen Artikel ansehen möchte. Und die Quellen wirken wesentlich vertrauenerweckender: Die Enzyklopädie-Einträge kommen aus der Columbia Electronic Encyclopedia. Sucht man nach Ländernamen, so bekommt man Treffer aus dem World Fact Book, "the U.S. government's complete geographical handbook". Nun hat Yahoo angekündigt, die Einträge aus der Wikipedia bei solchen Anfragen prominent platziert anzeigen zu wollen. Bisher sind allerdings nur einzelne Beispiele zu sehen: Gibt man beim französischen Ableger von Yahoo einen Ländernamen ein, so wird bereits ein Treffer aus der Wikipedia angezeigt. Des weiteren stellt Yahoo den Betreibern der Wikipedia Serverplatz zur Verfügung. Es wird jedoch betont, dass dies nicht das Ende der Gespräche zwischen Wikipedia und Google bedeute.
    Mit der sehr umfangreichen Wikipedia bietet sich für die Suchmaschinenbetreiber eine Möglichkeit, durch die manuelle Einbindung einer einzigen Quelle vermeintlich alle Fragen kompetent abzudecken. Der bisher zumindest bei Yahoo betriebene technische Aufwand, verschiedene Quellen (für die man als Suchmaschinenbetreiber vielleicht sogar bezahlen muss!) einzubinden und trotzdem nicht auf jede Frage eine schnelle Antwort liefern zu können, kann gespart werden. Letztlich stellt sich allerdings die Frage nach der Qualität der Treffer aus Wikipedia. Die Wikipedia wird von Freiwilligen erstellt, wobei es sich nicht um eine geschlossene Gruppe handelt. Vielmehr wird jeder Internet-Nutzer dazu eingeladen, sich an der Erstellung der Enzyklopädie zu beteiligen. Artikel werden gemeinschaftlich erarbeitet und sollen so dem Ideal nach mit der Zeit immer besser werden. Gibt es aktuelle Entwicklungen, so können diese direkt in die Artikel eingebunden werden. Es ist aber zu fragen, ob die Artikel durchweg die von einem Nachschlagewerk zu erwartende Qualität liefern können. Sicherlich gibt es in der Wikipedia sehr gute Artikel. Allerdings gibt es auch einen großen Anteil von schlechten, unsystematischen und fragwürdigen Eintragungen. Ein Blick auf das "Portal Bibliothek, Information, Dokumentation" zeigt exemplarisch einige Schwachstellen: Zunächst ist das Portal unvollständig. Das ist verständlich und wäre nicht besonders schlimm, wenn dies für den Nutzer immer ersichtlich wäre. Zwar ist dies klar, wenn zu einem Begriff kein Artikel angezeigt wird. Artikel, die sich noch in einem "frühen Stadium" befinden (und deshalb noch nicht oder nur marginal überarbeitet wurden), sind jedoch nicht als solche gekennzeichnet. Sie können deshalb, insbesondere wenn Suchmaschinen an prominenter Stelle auf sie verweisen, in ihrer Qualität leicht mit Einträgen aus echten Enzyklopädien verwechselt werden. Viele Nutzer werden ihnen damit eine vergleichbare Autorität zumessen. Ein weiterer Kritikpunkt betrifft den unsystematische Aufbau der Wikipedia. Wieder ein Beispiel aus dem Portal BID: Ein Artikel zum Booleschen Retrieval ist nicht vorhanden, wohl aber zum Erweiterten Booleschen Retrieval. Dieser besteht hauptsächlich aus einer Ansammlung von Formeln und hat damit wenig mit einem enzyklopädischen Artikel zu tun.
    Eine Enzyklopädie sollte etwas über die Bedeutung der behandelten Themen aussagen. Klassisch bekommen die wichtigeren Themen längere Artikel, die weniger wichtigen entsprechend kürzere. Die Wikipedia gibt hier keine Orientierung: Alle Themen scheinen gleich bedeutend zu sein, zumindest drückt sich die Bedeutung nicht in der Länge aus. So ist der Artikel über den Computerspiel-Helden Super Mario, bei dem man sich ja schon generell fragen darf, was er in einer Enzyklopädie zu suchen hat, ca. 30.000 Zeichen lang, der über Gerhard Schröder nur 17.000. Was bedeutet die zumindest zu hinterfragende Qualität der Wikipedia und ihre Einbindung in die Suchmaschinen für den Such maschinen-Nutzer? Der Kernpunkt wurde bereits erwähnt: Die Nutzer werden der Wikipedia eine Autorität beimessen, die diese nicht hat. Die Suchmaschinen unterstützen mit der Einbindung die Annahme, die Wikipedia könne die Qualität und Orientierung einer echten Enzyklopädie bieten. Die Suchmaschinen wären besser beraten, verstärkt auf die Einbindung geprüfter, hochwertiger Quellen zu setzen. Einen solchen Ansatz verfolgt MSN mit der Einbindung der hauseigenen Encarta-Enzyklopädie. Deren Nutzung ist immerhin für jeden Nutzer zwei Stunden lang kostenlos, dann muss bezahlt werden."
  10. Baker, N.: Seelenverkäufer oder Helden? : Ken Aulettas Buch über die weltbeherrschende Suchmaschine Google (2009) 0.08
    0.07883205 = product of:
      0.1576641 = sum of:
        0.050695706 = weight(_text_:und in 211) [ClassicSimilarity], result of:
          0.050695706 = score(doc=211,freq=118.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.3764461 = fieldWeight in 211, product of:
              10.862781 = tf(freq=118.0), with freq of:
                118.0 = termFreq=118.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=211)
        0.106968395 = weight(_text_:helden in 211) [ClassicSimilarity], result of:
          0.106968395 = score(doc=211,freq=2.0), product of:
            0.5421551 = queryWeight, product of:
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.060719278 = queryNorm
            0.1973022 = fieldWeight in 211, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.015625 = fieldNorm(doc=211)
      0.5 = coord(2/4)
    
    Content
    "Ich gebe zu, ich mag Google. Ich mag Larry Page, der zumindest auf den Youtube-Videos, die ich gesehen habe, mit seiner graumelierten Ponyfrisur zwar schüchtern, aber sehr intelligent wirkt. Sergey Brin mag ich auch, der nicht so schüchtern zu sein scheint, aber genauso intelligent und auch witzig ist. Ken Auletta, der Autor dieses fesselnden, etwas wirren Buches, in dem jede Menge berühmte Personen vorkommen, scheint beide nicht leiden zu können. Von Page sagt er, er habe "eine Stimme wie Kermit der Frosch", was nicht besonders nett ist, und Brin wird als arroganter Streber und Prahlhans beschrieben, der auf der Uni nur die besten Noten hatte, Schlösser knackte, um sich Computer-Zubehör "auszuleihen" und einmal alle Türen im Informatik-Trakt neu nummerierte. "Die Chefs von Google sind keine kaltschnäuzigen Geschäftsleute; sie sind kaltschnäuzige Ingenieure", schreibt Auletta, wobei "kaltschnäuzig" aber nicht wirklich zuzutreffen scheint. Aulettas eigene Kaltschnäuzigkeit mag teilweise auf Brins und Pages Widerwillen zurückzuführen sein, sich für das Buch befragen zu lassen. "Es hat Monate gedauert, bis man mich endlich empfing", schreibt er in den Danksagungen. "Die Gründer und Manager von Google sind ganz wild darauf, Bücher zu digitalisieren, haben aber wenig Interesse daran, welche zu lesen." Aulettas Buch werden sie wohl schon etwas genauer ansehen. Ich las es in drei langen Sitzungen und habe viel gelernt - über Googles "Kalten Krieg" mit Facebook, über Googles Rangeleien mit Viacom, über Googles Rolle in den "Yahoo-Microsoft-Kämpfen" und über den langsamen Entfremdungsprozess zwischen Google und seinem ehemaligen Verbündeten Apple. Auletta bedient sich gerne militärischer Vergleiche und Metaphern und führt dabei genauso Fürst von Metternich ins Feld wie auch Beispiele moderner Kriegsführung: "Datenschutz-Probleme werden weiterhin wie bewaffnete Drohnen über uns fliegen", schreibt er, "bereit, das Vertrauen zu torpedieren, auf das die Unternehmen angewiesen sind, die mit persönlichen Daten betraut sind." Aber er lässt auch die menschlichen Züge nicht aus: An dem Tag des für Google so überaus erfolgreichen Aktienangebotes zückt Larry Page sein Handy und sagt: "Das muss ich gleich meiner Mutter erzählen!"
    Der Autor unterhält sich allerdings hauptsächlich mit Managern vom Fach, und darin liegt die große Stärke des Buches. Auletta hat anscheinend jeden Geschäftsführer der Branche in Nordamerika interviewt, und die meisten haben an Google, so wie es heute ist, irgendetwas auszusetzen. Google sei unersättlich, sagen sie, es wolle zu hoch hinaus, es sei zu reich, zu selbstgefällig, es verdiene Geld mit den Inhalten anderer Leute. Ein ungenannter "prominenter Geschäftsführer" lehnte sich während der Google-Zeitgeist-Konferenz 2007 zu Auletta hinüber und flüsterte ihm eine rhetorische Frage ins Ohr: Welchen realen Wert, so wollte er wissen, produziert Google für die Gesellschaft? Moment mal. Welchen realen Wert? Mein lieber Herr prominenter Geschäftsführer - ist das Ihr Ernst? Haben Sie schon mal was von Street View und Google Maps gehört? Haben Sie schon mal Gebrauch gemacht von der kleinen, aber feinen Taschenrechner-Funktion im Google-Suchfeld? Oder sich von Google das lokale Kinoprogramm anzeigen lassen? Oder sich mal eben schnell etwas von Google übersetzen lassen? Sind Sie nicht auch schon in Google Books auf interessante Entdeckungsreisen durch die Literatur des 19. Jahrhunderts gegangen oder haben mit dem dynamischen Graphen von Google Finance gespielt? Und bestimmt haben Sie sich schon als Architekt versucht mit Google SketchUp. Und als Sie zum ersten Mal sahen, wie bei Google Earth die Erde sich dreht und näher rückt, da haben Sie bestimmt auch einen Aufschrei des Entzückens von sich gegeben. Und es würde mich sehr wundern, wenn Sie nicht für das ein oder andere Thema bei den automatischen Benachrichtigungen von Google News angemeldet wären. Es gibt sicher kein anderes Software-Unternehmen, das so viele Produkte entwickelt hat, die so intelligent gebaut sind, so schnell arbeiten, so viel Spaß machen und obendrein noch umsonst sind. Haben Sie denn noch nie im Internet etwas gesucht?
    Denn das eine kann ich Ihnen sagen - ich erinnere mich noch, wie es früher war, vor Google. Nicht dass es ein dunkles Zeitalter gewesen wäre: Es gab schnurlose Telefone, und die Leute durften bequeme Pullis tragen. Es gab AltaVista und AskJeeves, HotBot und Excite, Infoseek und Northern Light - mit seinen tief verzweigten Ergebnislisten und dem eleganten Segelschiff im Logo. Und wenn man mal mehrere Gewässer gleichzeitig durchkämmen wollte, gab es MetaCrawler. Aber die Ausbeute war ziemlich wahllos und dauerte vor allem lange. Man saß da, mampfte seine Chips und wartete darauf, dass der Bildschirm sich füllte. 1998 kam dann Google, sauber und unglaublich schnell. Es war wie eine aufgeräumte weiße Schreibtischplatte mit einer einzelnen reifen Tomate darauf. Keine Werbung - Google war damals noch gegen Werbung eingestellt. Außerdem war es hochintelligent; man bekam fast nie einen falschen Treffer. Man musste die beiden unzertrennlichen Studenten Page und Brin, die ihre geheimen Suchalgorithmen zur Anwendung gebracht hatten, nicht kennen, um zu wissen, dass es sich um zwei geniale Computerfreaks in Turnschuhen, aber mit viel Selbstvertrauen handelte. Der weiße Bildschirm und der Button mit der Aufschrift "I´m Feeling Lucky" brachte das klar zum Ausdruck. Google würde uns allen Glück bringen; das war die Botschaft. Und so kam es dann auch.Warum sind die prominenten Geschäftsführer dann nicht zufrieden? Weil Google viel Geld mit Werbung verdient, und die Werbeetats sind begrenzt. Im letzten Jahr kam der Gewinn fast ausschließlich aus der einzig wirklich lästigen Sparte, die das Unternehmen betreibt - den kleinen, billigen Textanzeigen. Die so genannten AdWords- oder AdSense-Anzeigen sind schnell geladen und angeblich "höflich", in dem Sinne, dass sie nicht blinken und keine Popup-Fenster aufmachen, und man sieht sie jetzt überall - auf Seiten wie dem Portal der Washington Post, auf MySpace und Discovery.com und auch auf Hunderttausenden von kleinen Seiten und Blogs. "Das ist unsere eigentliche Einnahmequelle", sagte Larry Page in einer Sitzung, an der Auletta 2007 teilnahm. Geworben wird für "Laser-Haarentfernung", "Gläubige Singles", "Mit Verkehrsstaus Geld verdienen", "Haben Sie Anspruch auf Schmerzensgeld?", "Anti-Bauchfett-Rezepte", "Bloggen Sie sich reich", "Jeder kann ein Buch schreiben" und so weiter. Unzählige Internetseiten sind aufgetaucht, die nur dazu dienen, AdSense-Anzeigen zu schalten. Sie benutzen gestohlene Inhalte oder schmeißen Texte von Wikipedia und ähnlichen Seiten zusammen und säumen die Ränder mit Google-Anzeigen. Diese funktionieren pro Klick, das heißt, der Auftraggeber zahlt nur dann an Google, wenn auch tatsächlich jemand auf die Anzeige klickt. Pro Aufruf zahlt er dann 25 Cent oder einen Dollar oder (für ganz besonders beliebte Stichworte wie "Schmerzensgeldanspruch") auch zehn Dollar oder mehr.
    Aber denken Sie mal nach - wann haben Sie das letzte Mal auf eine dieser Anzeigen geklickt? Eigentlich noch nie? Ich auch nicht. Und doch verdiente Google im letzten Jahr 21,8 Milliarden Dollar, wovon 95 Prozent aus den AdWords- und AdSense-Anzeigen kamen. (Der kleine Rest kam aus Banner- und Video-Anzeigen und einigen anderen Produkten.) Diese plumpen, ziemlich aufdringlichen kleinen Anzeigen (denen Schönheit oder Humor abgehen, die wir von der Werbung für Fernsehen, Zeitschriften oder Radio gewöhnt sind) sind die Grundlage von Googles Finanzimperium, auch wenn das schwer zu glauben ist - ein Imperium der kommerziellen Querverweise. Die Werbeeinnahmen sorgen bei Google für hohe Aktienpreise, und das gibt dem Unternehmen absolute Handlungsfreiheit. Als 2006 Googles Aktienwert bei 132 Milliarden Dollar lag, wurde You- Tube für 1,65 Milliarden eingekauft. "Die können alles kaufen, was sie wollen, und Geld für alles mögliche rauswerfen", zitiert Auletta Irwin Gottlieb, den Chef von GroupM, einem der größten Konkurrenten Googles. Wenn Microsoft sich um DoubleClick bemüht, kann Google mal eben 3,1 Milliarden auf den Tisch legen und DoubleClick kaufen. Wenn Cloud Computing eine lukrative Investition zu sein scheint, dann kann Google 20 oder 50 oder auch 70 riesige Rechenzentren an geheimen Orten auf der ganzen Welt bauen, von denen jedes einzelne so viel Strom verbraucht wie eine Kleinstadt. Anfang des Monats gab Google den Kauf eines Unternehmens namens AdMob für 750 Millionen in Aktien bekannt; AdMob ist spezialisiert auf Bannerwerbung für Handys. "Wenn man mal eine gewisse Größe erreicht hat, muss man sich nach neuen Wachstumsmöglichkeiten umsehen", ließ sich Auletta von Ivan Seidenberg erklären, dem Geschäftsführer von Verizon. "Und dann mischt man sich in die Geschäftsbereiche von allen anderen ein." Jetzt versteht man auch, warum die von Auletta befragten Topmanager nicht gut auf Google zu sprechen sind.
    Google produziert weiterhin fleißig seine kleinen Perlen: Google Voice, das gesprochene Mailbox-Nachrichten in Emails umwandelt; Chrome, ein schneller und intelligenter Webbrowser und Android, das neue Handy-Betriebssystem. Eines der neuesten Projekte ist die Espresso Book Machine, die Bücher on Demand ausdruckt und bindet. Aber vielleicht wird hier zu viel auf einem Gelände produziert; vielleicht werden die Leute es bald leid, dass überall "Google" draufsteht. Googles berühmter Slogan "Don´t be evil" klingt mehr und mehr wie eine düstere Prophezeiung. Als sie noch an der Uni waren, wetterten Page und Brin gegen Suchmaschinen, die zu viel Werbung hatten. "Die waren strikt gegen Werbung", zitiert Auletta Ram Shriram, einer der ersten Google-Investoren, "das waren Puristen." Inzwischen sehen sie das nicht mehr so eng. Jetzt geht es darum, ständig neues Futter für ein hungriges, 180 Milliarden schweres Monstrum aufzutreiben. Auletta berichtet von einem ungewöhnlichen Einstellungstest, den Brin einmal mit einer Bewerberin für eine Anwaltsposition machte: "Setzen Sie mir einen Vertrag auf", sagte Brin zu der Anwältin, "und zwar für den Verkauf meiner Seele an den Teufel." Das war 2002, dem Jahr, als Google die interne Arbeit an einem Projekt aufgenommen hatte, das später mal AdSense werden sollte. Mittlerweile fliegen Page und Brin in ihrer privaten Boing 767 herum und sprechen ganz ernsthaft über Green IT, während der Strom für die Gratis-Videos auf YouTube Berge von Kohle verbraucht. Noch ist ihnen keine Idee gekommen, wie sie das Verlustgeschäft YouTube "monetisieren" - d.h. also Profit damit erwirtschaften - können. Allerdings ist mir schon aufgefallen, dass auf Philip DeFrancos beliebten YouTube-Videos inzwischen Werbebanner von Samsung laufen. "Der Vorteil, etwas gratis anzubieten, besteht darin, dass man 100 Prozent Marktanteile hat", erklärt Googles Geschäftsführer Eric Schmidt. "Gratis ist das richtige Konzept." Vielleicht eine Weile lang - aber die Frage ist, ob es auf Dauer funktioniert. "Für Zeitungen", schreibt Auletta, "bedeutet das Gratis-Konzept den Untergang." Vielleicht bekommt man am Ende - sogar im Internet - nur noch das, wofür man auch bezahlt hat."
  11. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.077463254 = product of:
      0.15492651 = sum of:
        0.116619386 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.116619386 = score(doc=6206,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.038307127 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.038307127 = score(doc=6206,freq=22.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  12. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.07521996 = product of:
      0.15043992 = sum of:
        0.09995948 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.09995948 = score(doc=1729,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.050480437 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.050480437 = score(doc=1729,freq=52.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  13. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.07
    0.07472981 = product of:
      0.14945962 = sum of:
        0.09995948 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.09995948 = score(doc=195,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.04950014 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.04950014 = score(doc=195,freq=50.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  14. Gehring, P.: Vergesst den freien Willen : Über den eigentümlichen Reiz deterministischer Thesen (2005) 0.07
    0.073007315 = product of:
      0.14601463 = sum of:
        0.039046235 = weight(_text_:und in 4400) [ClassicSimilarity], result of:
          0.039046235 = score(doc=4400,freq=70.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.2899418 = fieldWeight in 4400, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=4400)
        0.106968395 = weight(_text_:helden in 4400) [ClassicSimilarity], result of:
          0.106968395 = score(doc=4400,freq=2.0), product of:
            0.5421551 = queryWeight, product of:
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.060719278 = queryNorm
            0.1973022 = fieldWeight in 4400, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.015625 = fieldNorm(doc=4400)
      0.5 = coord(2/4)
    
    Content
    "Wir sind genetisch bestimmt - diese Befürchtung prägt die Diskussion um Genforschung, Gentechnik und Gentests seit Jahren. Die zum Menschheitsdatum erklärte so genannte Entzifferung des menschhchen Genoms hat die Debatte im Jahre 2001 noch einmal auflodern lassen. Heute wird nicht über Genomforschung geredet, sondern über Neuroforschung. Wir sind nicht genetisch, sondern neuronal bestimmt: Der freie Wille ist eine Illusion. Das Gehirn setzt unsere Entschlüsse in Gang, bevor wir vermeintlich selbst getroffene Entscheidungen überhaupt bewusst denken können. Die Liste der Meldungen ließe sich verlängern. "Biochemie der Emotionen": Duftstoffe und Hormone ent scheiden, wen wir lieben und wen nicht! "Künstliche Intelligenz": Computerprogramme übertreffen und lenken letztlich, was das Menschengehirn zu leisten vermag! "Nanoforschung": Mikroskopische Maschinen wandern in unseren Körper ein und steuern uns unbemerkt! Deterministische Thesen verdrängen einander förmlich aus em Rampenlicht - wobei, wenn ein neuer Deter minismus auftaucht, bemerkenswert wenig über sein Verhältnis zu den vorhe-rigen, ganz anders gelagerten Determinationsthesen zu hören ist. Auch werden gerade die spektakulären Szenarien selten zurückgenommen oder "widerlegt" <- sehr ernst scheint die Wissenschaft selbst sie nicht zu nehmen. Die Behauptungen altern eherund verblassen. Irgendwann werden sie belächelt. Ein altes Prinzip, denn die Galerie außer Kurs gekommener Determinationsthesen ist lang. Für Unabänderlichkeit sorgte früher das Schicksal, dann die göttliche Prädestination. Seit dem 18. Jahrhundert sind es dann vor allem Formen von "Natur", aber auch der Lauf der Geschichte, das "Leben", das Unbewusste, das soziale Milieu. Im Wissenschaftssystem von heute gibt es durchschaubare Gründe für das laute Geklapper. Wer einen Determinis mus glaubhaft machen kann, hat eine Mediensensation in der Tasche und kann mit zusätzlichen Forschungsgeldern rechnen. Auch öffentliche Mittel fließen. Nicht zuletzt steckt ja in jedem Determinismus ein politische Gleichung: Was am Menschen sich in der Experimentalforschung als "determiniert" herausstellt, das könnte auf lange Sicht auch außerhalb des Labors mit technischen Mitteln kontrollierbar sein. Erbkrankheiten eliminieren, Erbgut verbessern, -Verbrechen beseitigen: Determinismusthesen bergen stets sozialtechnologische Verlockungen. In der Theorie wurden detenninistische Naturwissenschaftlerphilosophien noch jedes Mal widerlegt. Im Kern beruhen sie auf einem einfachen logischen Kurzschluss. Sie universalisieren blind; sie verfügen über keine Wissenschaftsheorie ihrer selbst und stützen sich pauschal auf die "Wissenschaftlichkeit" überspezialisierter Aussagen, Für die Hirnforschung gilt das in, besonderem Maße: Sie besitzt keine Theorie darüber, was ihre eigenen Geräte messen; sie hat wenig positives Wissen über ihren beeindruckend komplexen Gegenstand, und sie verfügt über keinerlei Erkenntnistheorie, die darlegt, woher der plötzliche Wissensvorsprung ihrer eigenen Disziplin - die gleichsam der Natur selbst . über die Schulter schaut - wohl kommt.
    In der Praxis, wie gesagt, widerlegen sich Determinismen nicht, sie erledigen sich eher- zumeist durch allmäh liche Modifizierung. So relativierte die Arbeit am "entschlüsselten" Genom bislang alle mitgebrachten Modelle und hat im Grunde ständig neue Unbestimmtheiten erbracht. Trotz ihrer fachlichen Schwäche haben deterministische Thesen unter Umständen jedoch erhebliche Wirk lichkeitsmacht. Wissenschaftler können auf "das bürgerliche Reich wissenschaftlicher Konsistenzvorstellungen"1 schlicht pfeifen und bewusst auf Gesellschaftsveränderung setzen: auf eine Anpassung der Welt an ihre Theorien. Wollen Deterministen eine sozialpolitische Zukunftsvision realisieren und lösen sich - von der Öffentlichkeit beflügelt - von den methodischen Standards ihres Fachs, so sind nahezu beliebige Selffulfilling-Prophecy-Effekte denkbar. Die Reihe der falschen, experimentell aber "beweisbaren" Determinationsthesen ist lang. Unter den Prozeduren der Teu felsaustreibung erweist sich der Beses: sene als vom Teufel determiniert; der der sozialen Anerkennung für immer beraubte Straftäter zeigt sich als "von Natur aus" gefährlich; ohne Zugang zu Bildung sind Frauen und Neger "objektiv messbar" dumm. Ist der Mensch nun determiniert? Ich schlage vor, die Fragestellung zu verändern. Fassen wir nicht die Thesen selbst, sondern ihren Resonanzboden ins Auge: Was eigentlich fasziniert am Determinismus so sehr? Derzeit könne man unbesorgt Bücher in Höchstauflagen drucken, sobald nur im Titel das Wort "Gehirn" fällt, das hörte ich. aus Verlagskreisen. Warum? Worin liegt das Magnetische der Feuilletonthesen der Neuroforscher Gerhard Roth und Wolf Singer, die behaupten, Willensfreiheit sei nur eine "Illusion" und das Soziale erkläre sich als "Wechselwirkung zwischen Gehirnen"2? Was fesselt die Leser der vor einigen Jahren neu auf dem Markt aufgetauchten populärwissenschaftlichen Illustrierten Geist und Gehirn? Blicken wir zurück in: die Zeit der Gen-Debatten, so gibt es Parallelfragen: Was war der Charme eines evolutionis-tischen Reißers wie "Das egoistische Gen" von Richard Dawkins, der 1976 mit der These aufwartete, wir seien "als Genmaschinen gebaut worden, dazu geschaffen, unsere Gene zu vererben"s? oder, um noch ältere Beispiele zu nennen: Wodurch faszinierten seinerzeit die (heute nicht nur überholten, sondern durch Fälschungsvorwürfe diskreditierten) Instinktbindungs- und Prägungstheoreme von Konrad Lorenz? Was genau reizte an Ernst Haeckels "Monismus"? Et cetera. Erste Vermutung: Man erschrickt ganz einfach, wenn man mit einer im vollen Ornat der naturwissenschaftli chen Wahrheit daherkommenden Entzauberungsformel konfrontiert wird. Die Idee eines alles regierenden inneren Prinzips-des eigenen Seins hat etwas Bedrohliches. Unsere säkulare Normalsicht der Welt ist zwar an die Relativitäten des Alltags gewöhnt, man lebt gut mit dem Zusammenspiel aus Freiheit und Unübersichtlichkeit, das zum modernen Selbst= und Handlungsverständnis gehört. Gleichwohl weiß man nicht recht, ob man Schlagzeilen wie "Wir sind determinier"" oder "Ich bin mein Gehirn"5 oder die an Eltern ausgegebene Forderung nach einer "Neuropädagogik" einfach ignorieren darf. Unangenehme Vorstellung, aber 0b nicht vielleicht doch etwas dran ist? Habe ich tatsächlich in einer "Illusion" gelebt? Pflichtschuldig verunsichert, bangen wir um unser freiheitliches Selbstverständnis, und dieser Sorge verdankt sich das Aufmerken in Sachen Gene oder Gehirn.
    Gerade wer sich Sorgen macht, könnte freilich mit wenig Mühe erkennen, wie fragwürdig der Charakter die ser schockierenden Thesen ist. Wer zweifelt, ist nicht allein. Stets klärten in den "Debatten" seriöse Stimmen, w0 die Spekulation beginnt und was vorläufig als heiße Luft betrachten werden kann. Im Falle der Genetik überwog die öffentliche Skepsis über jahre. Im Falle der Hirnforschung ist es geradezu frappant: Die deutsche Neurodebatte betreiben ganz wenige Protagonisten, die sich überdies auf anderswo längst ausdiskutierte Forschungsergebnisse aus den 1980er Jahren-stützen. Die große Mehrzahl der Teilnehmer an der Neurodebatte schüttelt über die schlichten Thesen der Hirnforscher den Kopf. Gleichwohl hält das Thema die Republik in Atem. Für die Debatte um die Nanotechnologie gilt Ähnliches. Angefeuert von den transhumanistischen Zukunftspro gnosen des US-amerikanischen Ingenieurs Eric Drexler, will das Gedankenspiel und staubkleine Roboter, die am Ende sich und uns umbauen werden, einfach nicht enden. Ist es wirklich nur die Sorge, die die Debatten trägt? Zweite Vermutung: Die Sache macht dem Publikum Freude. Es muss da eine gewisse Lust mit im Spiel sein, ein spezieller Reiz, der gerade von Determinismusthesen ausgeht. Bietet die Vorstellung eines durch naturwissenschaftlich erschlossene Kausalgesetze regierten Universums vielleicht Trost? Entlastet sie von Verantwortung? Vermittelt die Vision eines die Menschheit programmierenden Genstroms oder des uns alle regierenden GehirnS ein Gefühl des Erhabenen? Verhielte es sich so, dann wäre es wohl eine religiöse Regung, die sich im Interesse am übermächtigen Naturgesetz manifestiert. In diese Richtung weist die zentrale Rolle der Bilder dessen, was da fasziniert: Farbige Darstellungen haben in den 1960er Jahren das Weltall und das Satellitenbild der Erde, später die DNA-Spirale und heute die bunten Rasteraufnahmen des Gehirns zur Ikone gemacht. Das determinierende Naturobjekt erstrahlt in sakralem Glanz: unnahbar, gebieterisch, schön. "Fürchte dich nicht", lautet die Botschaft des Hochglanzbildes: Fürchte dich nicht, die Natur ist groß, doch das wunder Wissenschaft macht sie dem Fortschritt der Menschheit dienstbar. So überwiegt die Lust im heiligen Schauder angesichts verborgener übermacht. Dritte Vermutung: Religiöse Anmutungen mögen im Spiel sein, aber sie erklären nicht den hohen streitwert deter ministischer Thesen. Bleibt ein weiterer, der quasiaufklärerische Zug, der die deterministische Geste prägt: Vergesst das bisher Dagewesene! Entlarvt mit uns die alltägliche Sicht der schlecht Informierten als "Illusion"! Die nüchterne Wahrheit ist hart, so lautet die Botschaft, aber wer es wagt, ihr mannhaft ins Auge zu blicken, dem enträtselt sich eine nur für die Dummen und Ängstlichen unerklärbare Welt - zumal die Erklärung ja viel einfacher ist als die komplizierte Weltsicht der Ewiggestrigen. Weg mit langatmigen Einwänden: Alles nur "Gefühl". Populäre Determinismen locken mit einem Wissensvorsprung, den der naturwissenschaftlich interessierte Laie mit der vermeintlichen Avantgarde der Forschung teilen kann. Aus dieser Sicht läge der Reiz der Frage, 0b "wir alle" programmiert sind oder 0b das Gehirn "uns" denkt, im Grunde darin, dass ich als Leser mich wahlweise als Opfer oder als kleiner Experte fühlen kann. Unter den als unfrei Entlarvten kann man sich selbst immerhin zu denen mit Durchblick, zu den Entdeckern und Verkündern einer These zählen.
    Mein persönlicher Eindruck - gewonnen im Dunstkreis öffentlicher Bildungseinrichtungen - ist der, dass gar nicht einmal Techniker und Ingenieure, sondern besonders gern Lehrer, auch gern ältere Lehrer (und auf jeden Fall Männer) die umstürzende Bedeutung der Neuroforschung im Munde führen. Sie sind nicht besorgt, sie bestaunen' nichts Erhabenes, vielmehr lieben sie es, sich auf den Einblick in die Wissenschaft zu berufen, und haben gern das letzte Wort. Unter den Unfreien trumpft der Anwalt des Naturgesetzes auf. Es ist, als wachse ihm eine Freiheit zweiter Stufe zu. Hier zeigt der Determinismus sein vielleicht unschönstes Gesicht: Er liefert Totschlagargumente. Er hat eine strukturelle Affinität nicht nur zum Vorgriff auf die Zukunft, sondem auch - sehr gegenwärtig - zur autoritären Rechthaberei. Bedienen deterministische Thesen männliche Allmachtsfantasien? Zu gern wüsste ich mehr über - sagen wir. über Geschlecht, Ausbildung, Position und Sozialprofil der typischen Leser der Zeitschrift Geist und Gehirn. Auch über die Aura, die Männerwie James Watson, Marvin Minsky, Craig Venter oder Eric Drexler umgibt. Faustische Figuren? Helden, in deren Fußstapfen man treten möchte? Überväter, denen man sich unterwirft? So oder so entwickeln Determinismusdebatten einen Sog, der auch kluge Köpfe-und manche sicher widerwillig - zum Mitreden zwingt. Dieser Punkt ist besorgniserregender, als er scheint, denn im Dialog mit einer allzu simplen Position nehmen leicht die eigenen Argumente Schaden. Die differenziertere Position braucht Platz. Schon deshalb sieht sie schlecht aus. Wie beweise ich eben schnell, dass eins und eins nicht drei ist? Man lese nach, mitwie viel Hilflosigkeit auf die zwar hummeldumme, von der Neuroforschung jedoch hartnäckig wiederholte Annahme reagiert wurde, aus dem zeitlichen Nacheinander zweier Ereignisse in einem bestimmten Versuchsaufbau sei zu folgern, das frühere Ereignis sei für das spätere kausal! Bin naturalistischer Zirkelschluss lässt sich ähnlich schwer widerlegen wie die Behauptung, hinter unserem Rücken würden uns regelmäßig Außerirdische besuchen. Wer sich mit Deterministen anlegt, muss daher Acht geben: Ihr Denkstil färbt ab. Nicht selten verfangen sich Kritiker des Determinismus in einem apokalyptischen Determinismus umgekehrter Art. So geschehen bei Jürgen Habermas. Er tritt der Klonierung .(also der gentechnischen Zwillingsherstellung) mit dem Argument entgegen, .der Klon werde als Sklave geboren, denn durch den Einsatz der Technik erscheine ein Fremder als der "Autor" von dessen Biografie: An den Genen entschiede sich demnach die Frage von Freiheit oder Sklaverei, die Frage der "Autorschaft" für ein ganzes Leben? In der Absicht, drastisch vor den Folgen der Klonierung zu warnen, übernimmt hier ein Kritiker selbst das Denkmodell der genetischen Determination. Ein großer Denker scheint in die Falle getappt zu sein. Dergleichen passiert. Aber noch einmal die Frage: Warum war das fatale Denkmuster so attraktiv? Und warum wird der Stand punkt der Freiheit so überaus rasch und bereitwillig einer - auch als Gefahrenszenario - viel zu einfachen Sichtweise preisgegeben: Aus Sorge? Aus Angstlust? Als Totschlagargument?"
  15. Hentschel, A.: Was Google & Co. wirklich finden (2007) 0.07
    0.0709462 = product of:
      0.1418924 = sum of:
        0.034924015 = weight(_text_:und in 1488) [ClassicSimilarity], result of:
          0.034924015 = score(doc=1488,freq=56.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.25933182 = fieldWeight in 1488, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=1488)
        0.106968395 = weight(_text_:helden in 1488) [ClassicSimilarity], result of:
          0.106968395 = score(doc=1488,freq=2.0), product of:
            0.5421551 = queryWeight, product of:
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.060719278 = queryNorm
            0.1973022 = fieldWeight in 1488, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.015625 = fieldNorm(doc=1488)
      0.5 = coord(2/4)
    
    Content
    "Das Internet wächst und wächst: Im Juni wurde es laut einer Erhebung des englischen Branchendienstes Netcraft aus 122 Millionen Webservern gebildet - im Vergleich zum Vormonat ein Plus von vier Millionen. Wahre Größe zeigt das Web aber erst bei der Anzahl der einzelnen Webseiten: Es sind schätzungsweise 500 Milliarden! Ohne eine gute Suchmaschine geht da nichts, zumal sich die Inhalte ständig ändern: Blogs und Videoportale haben aus dem statischen Web ein dynamisches Medium gemacht, das die Suchtechnologien vor neue Hürden stellt. Die Webindizes müssen immer mehr und sich immer schneller verändernde Dokumenttypen analysieren. Und das sollten die Suchmaschinen zuverlässig tun, denn die Suche ist die wichtigste Anwendung im Internet: 80 Prozent aller deutschen Websurfer recherchieren in Suchmaschinen, statt direkt eine URL in das Browser-Fenster einzutippen. Bei der Wahl der Suchmaschine obsiegt offenbar die Macht der Gewohnheit: Die absolute Mehrheit der Deutschen sucht mit Google - 87 Prozent. Yahoo und Microsofts Live Search (ehemals MSN) bringen es auf mickrige drei Prozent Marktanteil, AOL und T-Online auf jeweils zwei Prozent.
    Wir wollten wissen, ob das scheinbar unerschütterliche Vertrauen in Google gerechtfertigt ist und haben fünf Suchmaschinen gegen Google antreten lassen: Neben Google befinden sich die beiden weiteren Großen Yahoo und Microsoft Live Search im Testfeld, sowie die Websuchen von Ask.com, Abacho und Seekport. Nicht dabei sind Portale wie T-Online oder AOL. Auch wenn diese für viele Nutzer das Einfallstor ins Internet sind: Sie nutzen keine eigenen Suchtechnologien, sondern bedienen sich bei Google oder Yahoo - die Testergebnisse wären hier also identisch gewesen. Soviel vorneweg: Google ist zu recht Marktführer. Denn kein Testkandidat lieferte durchgängig eine so hohe Trefferqualität. Das heißt allerdings nicht, dass die Konkurrenz so schlecht ist, wie es die nackten Marktzahlen vermuten ließen. Bei der Video- oder News-Suche beispielsweise ist Ask.com besser als Google. Eine komplette Enttäuschung ist Microsofts Live Search, die bei der Qualität der Suchergebnisse selbst vom kleinen Anbieter Abacho geschlagen wurde. Für den Test fütterten wir jede Suchmaschine mit insgesamt 25 Suchbegriffen. Je zehnmal stellten wir allgemeine Suchanfragen, je fünfmal suchten wir nach News, Bildern und Videos. Bei allgemeinen Fragen ist Google unschlagbar. Nur ein paar Beispiele: Sie suchen nach "Wetter in Merching" und bekommen oberhalb der Trefferliste die Wettervorhersage angezeigt - selbst für ein kleines Dorf. "Zugverbindung Hamburg München" führt Sie mit einem Klick zur Übersicht mit den nächsten Zügen. Der Wunsch nach "Download Firmware Plextor PX716" wird mit dem direkten Link zur Plextor-Webseite belohnt. "15,66 Dollar in Euro" zeigt direkt den aktuellen Umrechnungskurs an.
    Wie hat uns dagegen die Konkurrenz in die Irre geschickt: Statt Wetter in Merching bekamen wir die Seite der freiwilligen Feuerwehr (Ask.com), statt einer Zugverbindung das Angebot, einen Flug zu buchen (Seekport), statt Firmware Spam, statt Umrechnungskursen Börsennachrichten. Ein wenig schwächelte Google bei zwei Begriffen: "Aktienkurs Telekom" und "Strompreis Übersicht". Hier zeigte Yahoo bessere Ergebnisse - beispielsweise gleich oberhalb der Trefferliste einen Kurs-Chart für die T-Aktie. Für eine wichtige Frage blieben uns alle Suchmaschinen die Antwort schuldig: "Wie heißt der Soldat bei Biene Maja?" Auch bei der Bildersuche überzeugte Google auf der ganzen Linie - zu jedem unserer fünf Begriffe fanden wir genügend gute Treffer. Alle anderen leisteten sich dagegen Ausrutscher: So findet Ask Apples "iPhone" und das CD-Cover des Wir-sind-Helden-Albums "Soundso" nicht. Abacho, Yahoo und Live Search können mit Gilbert & Georges Kunstwerk "Are You Angry Or Are You Boring" nichts anfangen. Bei Seekport konnten wir uns die Mühe sparen - es gibt keine Bildersuche. Videos werden von Seekport ebenfalls ignoriert. Auch bei Abacho fehlt diese Spezialsuche, allerdings hilft die ordinäre Websuche bisweilen: Die Anfrage "Stromberg Herr Loermann" führte uns beispielsweise zum Videoportal Maxdome mit Trailern und dem Stream der Comedy-Serie. Ask, Live Search und Google unterscheiden sich in der Videosuche nur marginal. Bei Google werden Treffer aus dem eigenen Videoportal YouTube offenbar bevorzugt behandelt, dafür gibt es leichten Punktabzug. Ansonsten schwankt die Qualität der Ergebnisse je nach Suchbegriff. Mit "White Stripes Icky Thump" fanden wir bei dem Trio zuverlässig zum neuen Video der amerikanischen Rockband. Auch der "Apple 1984 Superbowl" Werbespot war für die drei kein Problem, lediglich bei der Stromberg-Episode blieben die Ergebnislisten nahezu leer.
    Leere Listen sahen wir bei der Yahoo-Video-Suche hingegen entschieden zu oft - sie enttäuschte weitgehend. Mit seiner News-Suche überzeugte Yahoo schon eher und landete hier nur knapp hinter Google. Google selbst hat manchmal Probleme mit News-Übersichten und interpretiert Schlagzeilen-Übersichten als eigene Artikel. Das führt zu falschen Ergebnissen. Die besten News-Treffer landeten wir bei Ask.com, allerdings ist die Suche versteckt - in einem Reiter unter Blog-Suche. Einmal gefunden, bekommt man aber zuverlässig sehr viele relevante Nachrichten. Abacho hat keine eigene News-Suche, immerhin wird der Index aber so schnell aktualisiert, dass wir zu unseren News-Fragen "Saul Friedländer Friedenspreis" oder "Telekom Verdi" wenigstens ein paar verwertbare Webseiten fanden. Bei Live Search hingegen erhielten wir bei tagesaktuellen Suchbegriffen praktisch keine brauchbaren News. Jede Suche fördert Unmassen von Treffern zu Tage. Auf die relevanten Ergebnisse eingrenzen lassen sich diese nur mit Filtern oder gezielteren Suchanfragen. Allgemein verbreiteter Suchmaschinen-Standard sind die Boolschen Verknüpfungen mehrerer Suchbegriffe (und/oder/nicht). Die Begrenzung der Suche auf bestimmte Sprachen oder Zeiträume lassen auch die meisten Testkandidaten zu (siehe Testtabelle, S 76). Vermisst haben wir bei Live Search, Abacho und Seekport die Möglichkeit, nach verschiedenen Dokumenttypen zu suchen. Mit Google und Yahoo lässt sich die Suche auf Word-, Excel-Dateien oder PDFs beschränken - bei Ask immerhin auf diverse Videoformate. Ein sehr nettes Feature bieten bisher erstaunlicherweise nur die kleinen Suchmaschinen an: die Seitenvorschau. Ask, Abacho und Seekport blenden auf Maus-klick den Treffer direkt auf der Suchmaschinenseite ein - so kann man sich schnell einen Eindruck verschaffen, ob einem die gefundene Webseite weiterhilft. Besonders schön ist die Lösung von Ask: Die Vorschau wird hier als kleines Popup eingeblendet, sobald man mit der Maus über den Vorschau-Link fährt. Begeistern konnten wir uns auch für die Video-Vorschau von Ask, die als einzige Suchmaschine einige Sekunden des Clips anzeigt, wenn man mit der Maus auf das Vorschaubildchen geht.
    Im Web stößt man schnell auf dubiose Seiten. Gut, wenn die Suchmaschine schon in der Trefferliste Porno und Schadcode aussortiert. Am sichersten surfen Sie diesbezüglich mit Google. Sie werden beim Testsieger bereits in der Trefferliste vor Seiten gewarnt, die im Verdacht stehen, Malware zu verbreiten. Das bietet sonst keine andere Suchmaschine. Außerdem können Sie einen dreistufigen Filter setzen, der nicht jugendfreie Seiten aus den Trefferlisten entfernt - ein Service, den bis auf Live Search und Seekport aber auch alle anderen bieten. Kritikpunkt: Diese erweiterten Sicherheitsfunktionen lassen sich nur nutzen, wenn Sie Cookies akzeptieren - obwohl es technisch auch anders lösbar wäre. Dahinter steckt nur das Interesse an genauen Nutzerprofilen. Weil wir eher für einen sensiblen Umgang mit Daten plädieren, gibt es dafür leichte Punktabzüge. Suchmaschinen wie Google und Ask sind an Simplizität nicht mehr zu übertreffen. Außer dem Suchfeld und Reitern für Bilder-, News- oder Produktsuche bleibt die Seite leer. Kritisch sehen wir die Kennzeichnung der Werbung. Die meisten Suchmaschinen hinterlegen die verkauften Links dezent farbig. Aber bisweilen so dezent, dass es bei schlecht kalibrierten Monitoren nicht zu sehen ist. Seekport und Abacho machen es anders - aber nicht besser. Sie grenzen die Werbung durch grafische Elemente ab, die eher verschleiern als verdeutlichen, dass es sich um gesponserte Links handelt. Die Hilfe-Funktionen sind durchweg brauchbar, bis auf eine kleine Ausnahme: Live Search verspricht in seiner Hilfe Funktionen, die es noch gar nicht gibt - immerhin erlauben diese offenbar einen Blick in die weiteren Planungen. Abachos Hilfe ist eher minimalistisch - mehr als die Boolschen Filter werden nicht erklärt. Google und Yahoo hingegen haben umfangreiche Dokumentationen. Wer sich ausführlich damit beschäftigt, kann durchaus zu besseren Ergebnissen gelangen. Bei Yahoo beispielsweise fanden wir den Hilfe-Hinweis auf den Yahoo-Service "Answers", bei dem andere Nutzer offene Fragen beantworten. Wir fragten dort noch einmal nach dem Namen des Soldaten bei Biene Maja. Die Antwort kam innerhalb von drei Minuten: Er heißt Paul Emsig."
  16. Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998) 0.07
    0.06663965 = product of:
      0.2665586 = sum of:
        0.2665586 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
          0.2665586 = score(doc=6134,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.62291753 = fieldWeight in 6134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6134)
      0.25 = coord(1/4)
    
    Abstract
    Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
  17. Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004) 0.06
    0.064616874 = product of:
      0.12923375 = sum of:
        0.08329956 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
          0.08329956 = score(doc=3183,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.19466174 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.045934185 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.045934185 = score(doc=3183,freq=62.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.34108895 = fieldWeight in 3183, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
      0.5 = coord(2/4)
    
    Abstract
    Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
    Content
    "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
    Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
    Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
    Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
    Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
  18. Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008) 0.06
    0.064616874 = product of:
      0.12923375 = sum of:
        0.08329956 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
          0.08329956 = score(doc=3331,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.19466174 = fieldWeight in 3331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
        0.045934185 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
          0.045934185 = score(doc=3331,freq=62.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.34108895 = fieldWeight in 3331, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
      0.5 = coord(2/4)
    
    Abstract
    Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
    Footnote
    Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
    Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
    Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
    Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
  19. Bühler, A.: Antirealismus und Verifikationismus (1992) 0.03
    0.02582666 = product of:
      0.10330664 = sum of:
        0.10330664 = weight(_text_:und in 615) [ClassicSimilarity], result of:
          0.10330664 = score(doc=615,freq=10.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.7671139 = fieldWeight in 615, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=615)
      0.25 = coord(1/4)
    
    Series
    Philosophie und Geschichte der Wissenschaften; Bd.18
    Source
    Wirklichkeit und Wissen: Realismus, Antirealismus und Wirklichkeits-Konzeptionen in Philosophie und Wissenschaften. Hrsg.: H.J. Sandkühler
  20. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.03
    0.025428282 = product of:
      0.10171313 = sum of:
        0.10171313 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
          0.10171313 = score(doc=1190,freq=76.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.75528115 = fieldWeight in 1190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1190)
      0.25 = coord(1/4)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Series
    Sprache und Information ; 33

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1870
  • el 890
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications