-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.09
0.091334656 = product of:
0.18266931 = sum of:
0.1332793 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.1332793 = score(doc=346,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.049390018 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.049390018 = score(doc=346,freq=28.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.09
0.08950278 = product of:
0.17900556 = sum of:
0.1332793 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.1332793 = score(doc=6889,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.045726273 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.045726273 = score(doc=6889,freq=24.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.09
0.08950278 = product of:
0.17900556 = sum of:
0.1332793 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.1332793 = score(doc=1642,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.045726273 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.045726273 = score(doc=1642,freq=24.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
Thesaurus der exakten Wissenschaften : Unter Mitarb. von Charles Auffray u.a (2001)
0.09
0.08788877 = product of:
0.17577754 = sum of:
0.042067032 = weight(_text_:und in 3414) [ClassicSimilarity], result of:
0.042067032 = score(doc=3414,freq=52.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.312373 = fieldWeight in 3414, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3414)
0.1337105 = weight(_text_:helden in 3414) [ClassicSimilarity], result of:
0.1337105 = score(doc=3414,freq=2.0), product of:
0.5421551 = queryWeight, product of:
8.928879 = idf(docFreq=15, maxDocs=44421)
0.060719278 = queryNorm
0.24662776 = fieldWeight in 3414, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.928879 = idf(docFreq=15, maxDocs=44421)
0.01953125 = fieldNorm(doc=3414)
0.5 = coord(2/4)
- Abstract
- Wissen, Wissenschaft, Wissensmacht. Das Informationszeitalter blickt misstrauisch und -mutig, aber immer noch mit Respekt, mit Ehrfurcht, auf die Jahrhunderte hinter uns zurück: in denen es eine Einheit gab von Wissen, Reflexion und Handeln. Heute ist Information alles, aber was kann da Wissen noch sein? Vor drei Jahren haben Michel Serres. und Nayla Farouki mit ihren Kollegen eine praktische Antwort versucht - einen "Thesaurus der exakten Wissenschaften", der nun auf Deutsch vorliegt. Ein Thesaurus, eine Schatzkammer also. Jener Ort, in einem Heiligtum, wo ein Schatz gehütet wurde. Der Schatz des Wissens, der exakten Wissenschaften genau gesagt, umfasst Astrophysik, Biochemie, Chemie, Genetik, Geowissenschaften, Informatik, Mathematik und Physik. Was ist dieses Wissen und wie kann es sich darstellen: "Jorge Luis Borges erzählt eine wunderbare Geschichte, in der berichtet wird, hier und da seien auf der Welt noch die Reste einer im Maßstab 1:1 angefertigten Weltkarte zu besichtigen ... Im Extremfall stößt die Geometrie auf den leeren, glatten homogenen, transparenten Raum oder das Fraktal verliert sich in seien sich endlos auffächernden Singularitaten. Das sind die beiden Grenzen, die die unüberbrückbare, widersprüchliche Kluft zwischen Realem und Formalem markieren. Welt und platonische Vernunft behalten wir immer beide zugleich in den Augen. Freilich nicht ohne zu schielen." Dieser Strabismus ist der schönste Effekt des gewaltigen Buches von Serres / Farouki, gerade richtig für ein Werk, in dem sich Hypertrophie und Bescheidenheit paaren. Das Wissen der Welt noch einmal zwischen zwei Buchdeckeln zu sammeln - was könnte absurder, verführerischer, beunruhigender sein. "Wir suchen nach dem Wissen nicht mehr wie nach einer einsamen Insel im unermesslichen Meer des Nichtwissens. Unser Streben gilt vielmehr einem besonderen, ausgewählten, bestätigten Wissen im Meer der Erkenntnis, einem 'Schatz' in der unförmigen Masse des Wissens. Hier ist er beschrieben, dieser 'Schatz', dieser Thesaurus, und doch auch immer wieder in Frage gestellt von Autoren, die sich als Forscher verstehen, dem Leser aber kaum voraus sind. Kein Buch für den wissenschaftlichen Zirkel - der circulus vitiosus zwischen Lesern und Autoren hat seit vielen Jahren seine Kraft verloren. Das ThesaurusProjekt, das klingt wie ein Roman von Robert Ludlum, dem großen Spannungsautor, der vor wenigen Tagen gestorben ist. ... von einem exakten Thriller - die reine Neugier ist der Antrieb, beim Leser, bei den Schreibenden. Das Buch spannt ein Netz des Wissens auf - aber mit den nervösen Internet-Link-Geschichten, von denen heute vollmundig die Rede ist, hat es nichts zu tun. Das Buch beansprucht Dauer, auch wenn es sich im Moment seines Erscheinens bereits als überholt erweisen könnte. Es ist modern, weil. es sich den Postulaten der Moderne widersetzt, nimmt Zeitlosigkeit in Anspruch für sich, wenigstens für einen Augenblick. Serres hat sich in seiner Arbeit von Anfang an auf Borges und Jules Verne berufen - beide hätten sich für die neuen Kommunikationsmedien sicher aufgeschlossen gezeigt. Im Moment engagiert Serres selbst sich für die Möglichkeiten der Wissenschaft im E-Book-Bereich. Enzyklopädie, Wissensbilanz ... Die meisten der Artikel des Thesaurus haben keinen einzelnen Autor, sind von zwei, drei, manchmal von allen Mitarbeitern verfasst worden. Das erklärt ihre nüchterne Zurückhaltung - die immer wieder aber in einen magischen Surrealismus umschlägt. Der Roman des Jahrhunderts, auch dies ein Fazit des Thesaurus, wird also nicht von den Literaten geschrieben, sondern wahrscheinlich von den Wissenschaftlern. "Das Ganze erzählt sich anders als die Summe aller Unterschiede. Jede einzelne Wissenschaft deduziert, experimentiert und räsonniert in ihrem eigentümlichen Dialekt, die Umgangsspraehe erzählt die Wissenschaft. Die Erzählung vervollständigt die Wissensbereiche. Wie zur Entlastung Körperfunktionen oder seelische Fähigkeiten auf äußere Objekte ausgelagert werden, um für Neues gewappnet zu sein, so werden die Konzepte der Wissenschaft in dieser Erzählung oder diesem Lexikon deponiert und befreien den Forscher, entlasten uns alle, damit sie und wir uns neuen Anschauungen zuwenden können ... Einst stand die Wissenschaft in förmlichem Gegensatz zu den Erzählungen, heute übernimmt die Erkenntnis deren Form." Wissen, Wissenschaft, Wissensdurst. Das Buch ist auf merkwürdige Weise anachronistisch, und am Ende durch und durch moralisch - wie jede Moderne moralisch ist. Wissen verpflichtet, so finden wir am Ende der Einleitung eine Art hippokratischen Eid
- Footnote
- Rez. in: Spektrum der Wissenschaft 2001, H.9, S.95 (C. Pöppe: "Ein Mammutprojekt einer Gruppe französischer Wissenschaftler ist zu einem bewundernswerten Werk gediehen. "Le Tresor. Dictionnaire des Sciences", im Original 1997 erschienen, ist kein Lexikon im üblichen Sinne. Es beschränkt sich ausdrücklich auf Grundkonzepte der Wissenschaften und erläutert diese in langen, inhaltsreichen Artikeln. Das Bemühen der Autoren um verständliche Sprache und die Kommentare vieler Probeleser haben prachtvolle Früchte getragen; Übersetzer und Bearbeiter haben sie wohlbehalten in die deutsche Sprache transportiert. Dass die Helden dieser Wissenschaftsgeschichte in ihrer großen Mehrheit Franzosen sind - wen stört's? Persönliche Vorlieben der Autoren schlagen - unvermeidlich - aufs Endergebnis durch. Die Mathematik nimmt, ihrer Bedeutung und der landesüblichen Wertschätzung entsprechend, breiten Raum ein. Die Autoren scheuen sich nicht, einen mathematischen Begriff wie "Linearität" in drei Stufen einzuführen: sehr erdnah und dann in zwei Abstraktions- und Verallgemeinerungsschritten. So kommen auch militante Formelhasser wenigstens in den Genuss eines oder zweier Absätze. Der Chemiker fühlt sich zu Höherem berufen - und rutscht gelegentlich aus: Der Artikel "Chemie" kippt nach wundervoll anwendungsbezogenem Beginn ("Silber putzen") in pseudophilosophisches Geschwätz ab, erholt sich allerdings wieder. Lassen Sie sich bloß nicht von der 40-seitigen Einleitung des Herausgebers Michel Serres abschrecken! Den verschlungenen und zweifellos hochgeistigen Ausführungen zum Trotz ist die Benutzung des Werkes ganz einfach: Es genügt, das Alphabet zu beherrschen.")
- Issue
- Aus dem Französischen von Michael Bischoff und Ulrike Bischoff.
-
Tsai, B.-s.: Infomapping in information retrieval (1997)
0.09
0.086567454 = product of:
0.34626982 = sum of:
0.34626982 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
0.34626982 = score(doc=3877,freq=6.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.8091937 = fieldWeight in 3877, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3877)
0.25 = coord(1/4)
- Abstract
- Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
-
Internet: The editor's choice (2002)
0.08
0.08329956 = product of:
0.33319825 = sum of:
0.33319825 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.33319825 = score(doc=1854,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Hawk, J.: OCLC SiteSearch (1998)
0.08
0.082462355 = product of:
0.32984942 = sum of:
0.32984942 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
0.32984942 = score(doc=3079,freq=4.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.7708211 = fieldWeight in 3079, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3079)
0.25 = coord(1/4)
- Abstract
- Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.08
0.082462355 = product of:
0.32984942 = sum of:
0.32984942 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.32984942 = score(doc=2673,freq=4.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
-
Lewandowski, D.: Wikipedia in großen Suchmaschinen (2005)
0.08
0.082289636 = product of:
0.16457927 = sum of:
0.030868761 = weight(_text_:und in 4576) [ClassicSimilarity], result of:
0.030868761 = score(doc=4576,freq=28.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.22921911 = fieldWeight in 4576, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4576)
0.1337105 = weight(_text_:helden in 4576) [ClassicSimilarity], result of:
0.1337105 = score(doc=4576,freq=2.0), product of:
0.5421551 = queryWeight, product of:
8.928879 = idf(docFreq=15, maxDocs=44421)
0.060719278 = queryNorm
0.24662776 = fieldWeight in 4576, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.928879 = idf(docFreq=15, maxDocs=44421)
0.01953125 = fieldNorm(doc=4576)
0.5 = coord(2/4)
- Abstract
- Die großen Suchmaschinen Google und Yahoo setzen beide auf die Inhalte des freien Nachschlagewerks Wikipedia. Sie wollen die Inhalte bei entsprechenden Anfragen prominent platziert vor der eigentlichen Trefferliste anzeigen. Google verwendet sie auch, um an die Suchmaschine gestellte Fragen zu beantworten. Damit gewinnt die nicht unumstrittene Freiwilligen-Enzyklopädie weiter an Bedeutung.
- Content
- "Google hat im April die aus dem US-Angebot bekannte bekannte Funktion der Begriffsdefinitionen für die deutschsprachige Seite vorgestellt. Leitet man eine Anfrage mit "definiere" ein, so wird an erster Stelle (noch vor der regulären Trefferliste) eine Definition des entsprechenden Begriffs angezeigt. Zwar werden andere Quellen aus dem offenen Web eingebunden, es zeigt sich aber, dass die Wikipedia-Einträge an erster Stelle platziert sind. Es wird jeweils der erste Abschnitt aus dem Wikipedia-Artikel präsentiert, der vollständige Text kann über einen Link abgerufen werden. Klickt man die Oberschrift "Definitionen von ... im Web" an, bekommt man, wenn vorhanden, weitere Treffer aus anderen Quellen angezeigt. Ein Beispiel zeigt die Bandbreite der Definitionen: Die Suche nach einer Definition für Glück ergibt neben dem ausführlichen Wikipedia-Artikel unter anderem Treffer von skat.com ("Faktor, der beim Skatspiel nicht wegzudenken ist") und von jesubotschaft.de. Hier muss sich Google (wieder einmal) den Vorwurf gefallen lassen, nicht die Autoritäten, also die hochwertigsten Quellen einzubeziehen, sondern irgendwelche, die (vermeintlich) etwas zum Thema zu melden haben. Eine weitere Einbindung der Wikipedia-Quellen wird bereits auf Googles US-Site getestet: Stellt man der Suchmaschine eine Frage (und nicht wenige Suchmaschinennutzer tun dies tatsächlich!), so bekommt man mit etwas Glück direkt eine Antwort angezeigt, zum Beispiel auf die Frage "Who is David Bowie?" die Antwort: "is a British rock and roll musician, actor, and artist who has had a profound influence an rock". Unter jedem Treffer ist ein Link auf die Quelle angegeben. Die Informationen kommen nicht nur aus der Wikipedia, sondern zum Beispiel auch aus dem World Fact Book (bei geographischen Anfragen) oder von Seiten wie "Pub Quiz Help". Die aus den Webseiten gezogenen Exzerpte sind von unterschiedlicher Qualität: Fragt man nach (populären) Zahlenangaben wie etwa der Höhe des Mount Everest, funktioniert es gut, bei den Fragen nach Personen wird manchmal ein etwas unpassender Teil des Artikels angezeigt, so dass man sich auf den vollständigen Artikel weiterklicken muss. Bislang geht Yahoo einen anderen Weg als Google. Gibt man in der US-amerikanischen Version Begriffe ein, die auf ein klassisches "Nachschlage-Bedürfnis" hindeuten, wird ähnlich wie bei Google mit den Definitionen ein "Shortcut" angezeigt (Password 2/2004 und 11 /2004). Die Quellen dort sind allerdings direkt in das Yahoo-Angebot eingebaut, d.h. man verlässt nicht das Yahoo-Portal, wenn man sich die vollständigen Artikel ansehen möchte. Und die Quellen wirken wesentlich vertrauenerweckender: Die Enzyklopädie-Einträge kommen aus der Columbia Electronic Encyclopedia. Sucht man nach Ländernamen, so bekommt man Treffer aus dem World Fact Book, "the U.S. government's complete geographical handbook". Nun hat Yahoo angekündigt, die Einträge aus der Wikipedia bei solchen Anfragen prominent platziert anzeigen zu wollen. Bisher sind allerdings nur einzelne Beispiele zu sehen: Gibt man beim französischen Ableger von Yahoo einen Ländernamen ein, so wird bereits ein Treffer aus der Wikipedia angezeigt. Des weiteren stellt Yahoo den Betreibern der Wikipedia Serverplatz zur Verfügung. Es wird jedoch betont, dass dies nicht das Ende der Gespräche zwischen Wikipedia und Google bedeute.
Mit der sehr umfangreichen Wikipedia bietet sich für die Suchmaschinenbetreiber eine Möglichkeit, durch die manuelle Einbindung einer einzigen Quelle vermeintlich alle Fragen kompetent abzudecken. Der bisher zumindest bei Yahoo betriebene technische Aufwand, verschiedene Quellen (für die man als Suchmaschinenbetreiber vielleicht sogar bezahlen muss!) einzubinden und trotzdem nicht auf jede Frage eine schnelle Antwort liefern zu können, kann gespart werden. Letztlich stellt sich allerdings die Frage nach der Qualität der Treffer aus Wikipedia. Die Wikipedia wird von Freiwilligen erstellt, wobei es sich nicht um eine geschlossene Gruppe handelt. Vielmehr wird jeder Internet-Nutzer dazu eingeladen, sich an der Erstellung der Enzyklopädie zu beteiligen. Artikel werden gemeinschaftlich erarbeitet und sollen so dem Ideal nach mit der Zeit immer besser werden. Gibt es aktuelle Entwicklungen, so können diese direkt in die Artikel eingebunden werden. Es ist aber zu fragen, ob die Artikel durchweg die von einem Nachschlagewerk zu erwartende Qualität liefern können. Sicherlich gibt es in der Wikipedia sehr gute Artikel. Allerdings gibt es auch einen großen Anteil von schlechten, unsystematischen und fragwürdigen Eintragungen. Ein Blick auf das "Portal Bibliothek, Information, Dokumentation" zeigt exemplarisch einige Schwachstellen: Zunächst ist das Portal unvollständig. Das ist verständlich und wäre nicht besonders schlimm, wenn dies für den Nutzer immer ersichtlich wäre. Zwar ist dies klar, wenn zu einem Begriff kein Artikel angezeigt wird. Artikel, die sich noch in einem "frühen Stadium" befinden (und deshalb noch nicht oder nur marginal überarbeitet wurden), sind jedoch nicht als solche gekennzeichnet. Sie können deshalb, insbesondere wenn Suchmaschinen an prominenter Stelle auf sie verweisen, in ihrer Qualität leicht mit Einträgen aus echten Enzyklopädien verwechselt werden. Viele Nutzer werden ihnen damit eine vergleichbare Autorität zumessen. Ein weiterer Kritikpunkt betrifft den unsystematische Aufbau der Wikipedia. Wieder ein Beispiel aus dem Portal BID: Ein Artikel zum Booleschen Retrieval ist nicht vorhanden, wohl aber zum Erweiterten Booleschen Retrieval. Dieser besteht hauptsächlich aus einer Ansammlung von Formeln und hat damit wenig mit einem enzyklopädischen Artikel zu tun.
Eine Enzyklopädie sollte etwas über die Bedeutung der behandelten Themen aussagen. Klassisch bekommen die wichtigeren Themen längere Artikel, die weniger wichtigen entsprechend kürzere. Die Wikipedia gibt hier keine Orientierung: Alle Themen scheinen gleich bedeutend zu sein, zumindest drückt sich die Bedeutung nicht in der Länge aus. So ist der Artikel über den Computerspiel-Helden Super Mario, bei dem man sich ja schon generell fragen darf, was er in einer Enzyklopädie zu suchen hat, ca. 30.000 Zeichen lang, der über Gerhard Schröder nur 17.000. Was bedeutet die zumindest zu hinterfragende Qualität der Wikipedia und ihre Einbindung in die Suchmaschinen für den Such maschinen-Nutzer? Der Kernpunkt wurde bereits erwähnt: Die Nutzer werden der Wikipedia eine Autorität beimessen, die diese nicht hat. Die Suchmaschinen unterstützen mit der Einbindung die Annahme, die Wikipedia könne die Qualität und Orientierung einer echten Enzyklopädie bieten. Die Suchmaschinen wären besser beraten, verstärkt auf die Einbindung geprüfter, hochwertiger Quellen zu setzen. Einen solchen Ansatz verfolgt MSN mit der Einbindung der hauseigenen Encarta-Enzyklopädie. Deren Nutzung ist immerhin für jeden Nutzer zwei Stunden lang kostenlos, dann muss bezahlt werden."
-
Baker, N.: Seelenverkäufer oder Helden? : Ken Aulettas Buch über die weltbeherrschende Suchmaschine Google (2009)
0.08
0.07883205 = product of:
0.1576641 = sum of:
0.050695706 = weight(_text_:und in 211) [ClassicSimilarity], result of:
0.050695706 = score(doc=211,freq=118.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.3764461 = fieldWeight in 211, product of:
10.862781 = tf(freq=118.0), with freq of:
118.0 = termFreq=118.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=211)
0.106968395 = weight(_text_:helden in 211) [ClassicSimilarity], result of:
0.106968395 = score(doc=211,freq=2.0), product of:
0.5421551 = queryWeight, product of:
8.928879 = idf(docFreq=15, maxDocs=44421)
0.060719278 = queryNorm
0.1973022 = fieldWeight in 211, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.928879 = idf(docFreq=15, maxDocs=44421)
0.015625 = fieldNorm(doc=211)
0.5 = coord(2/4)
- Content
- "Ich gebe zu, ich mag Google. Ich mag Larry Page, der zumindest auf den Youtube-Videos, die ich gesehen habe, mit seiner graumelierten Ponyfrisur zwar schüchtern, aber sehr intelligent wirkt. Sergey Brin mag ich auch, der nicht so schüchtern zu sein scheint, aber genauso intelligent und auch witzig ist. Ken Auletta, der Autor dieses fesselnden, etwas wirren Buches, in dem jede Menge berühmte Personen vorkommen, scheint beide nicht leiden zu können. Von Page sagt er, er habe "eine Stimme wie Kermit der Frosch", was nicht besonders nett ist, und Brin wird als arroganter Streber und Prahlhans beschrieben, der auf der Uni nur die besten Noten hatte, Schlösser knackte, um sich Computer-Zubehör "auszuleihen" und einmal alle Türen im Informatik-Trakt neu nummerierte. "Die Chefs von Google sind keine kaltschnäuzigen Geschäftsleute; sie sind kaltschnäuzige Ingenieure", schreibt Auletta, wobei "kaltschnäuzig" aber nicht wirklich zuzutreffen scheint. Aulettas eigene Kaltschnäuzigkeit mag teilweise auf Brins und Pages Widerwillen zurückzuführen sein, sich für das Buch befragen zu lassen. "Es hat Monate gedauert, bis man mich endlich empfing", schreibt er in den Danksagungen. "Die Gründer und Manager von Google sind ganz wild darauf, Bücher zu digitalisieren, haben aber wenig Interesse daran, welche zu lesen." Aulettas Buch werden sie wohl schon etwas genauer ansehen. Ich las es in drei langen Sitzungen und habe viel gelernt - über Googles "Kalten Krieg" mit Facebook, über Googles Rangeleien mit Viacom, über Googles Rolle in den "Yahoo-Microsoft-Kämpfen" und über den langsamen Entfremdungsprozess zwischen Google und seinem ehemaligen Verbündeten Apple. Auletta bedient sich gerne militärischer Vergleiche und Metaphern und führt dabei genauso Fürst von Metternich ins Feld wie auch Beispiele moderner Kriegsführung: "Datenschutz-Probleme werden weiterhin wie bewaffnete Drohnen über uns fliegen", schreibt er, "bereit, das Vertrauen zu torpedieren, auf das die Unternehmen angewiesen sind, die mit persönlichen Daten betraut sind." Aber er lässt auch die menschlichen Züge nicht aus: An dem Tag des für Google so überaus erfolgreichen Aktienangebotes zückt Larry Page sein Handy und sagt: "Das muss ich gleich meiner Mutter erzählen!"
Der Autor unterhält sich allerdings hauptsächlich mit Managern vom Fach, und darin liegt die große Stärke des Buches. Auletta hat anscheinend jeden Geschäftsführer der Branche in Nordamerika interviewt, und die meisten haben an Google, so wie es heute ist, irgendetwas auszusetzen. Google sei unersättlich, sagen sie, es wolle zu hoch hinaus, es sei zu reich, zu selbstgefällig, es verdiene Geld mit den Inhalten anderer Leute. Ein ungenannter "prominenter Geschäftsführer" lehnte sich während der Google-Zeitgeist-Konferenz 2007 zu Auletta hinüber und flüsterte ihm eine rhetorische Frage ins Ohr: Welchen realen Wert, so wollte er wissen, produziert Google für die Gesellschaft? Moment mal. Welchen realen Wert? Mein lieber Herr prominenter Geschäftsführer - ist das Ihr Ernst? Haben Sie schon mal was von Street View und Google Maps gehört? Haben Sie schon mal Gebrauch gemacht von der kleinen, aber feinen Taschenrechner-Funktion im Google-Suchfeld? Oder sich von Google das lokale Kinoprogramm anzeigen lassen? Oder sich mal eben schnell etwas von Google übersetzen lassen? Sind Sie nicht auch schon in Google Books auf interessante Entdeckungsreisen durch die Literatur des 19. Jahrhunderts gegangen oder haben mit dem dynamischen Graphen von Google Finance gespielt? Und bestimmt haben Sie sich schon als Architekt versucht mit Google SketchUp. Und als Sie zum ersten Mal sahen, wie bei Google Earth die Erde sich dreht und näher rückt, da haben Sie bestimmt auch einen Aufschrei des Entzückens von sich gegeben. Und es würde mich sehr wundern, wenn Sie nicht für das ein oder andere Thema bei den automatischen Benachrichtigungen von Google News angemeldet wären. Es gibt sicher kein anderes Software-Unternehmen, das so viele Produkte entwickelt hat, die so intelligent gebaut sind, so schnell arbeiten, so viel Spaß machen und obendrein noch umsonst sind. Haben Sie denn noch nie im Internet etwas gesucht?
Denn das eine kann ich Ihnen sagen - ich erinnere mich noch, wie es früher war, vor Google. Nicht dass es ein dunkles Zeitalter gewesen wäre: Es gab schnurlose Telefone, und die Leute durften bequeme Pullis tragen. Es gab AltaVista und AskJeeves, HotBot und Excite, Infoseek und Northern Light - mit seinen tief verzweigten Ergebnislisten und dem eleganten Segelschiff im Logo. Und wenn man mal mehrere Gewässer gleichzeitig durchkämmen wollte, gab es MetaCrawler. Aber die Ausbeute war ziemlich wahllos und dauerte vor allem lange. Man saß da, mampfte seine Chips und wartete darauf, dass der Bildschirm sich füllte. 1998 kam dann Google, sauber und unglaublich schnell. Es war wie eine aufgeräumte weiße Schreibtischplatte mit einer einzelnen reifen Tomate darauf. Keine Werbung - Google war damals noch gegen Werbung eingestellt. Außerdem war es hochintelligent; man bekam fast nie einen falschen Treffer. Man musste die beiden unzertrennlichen Studenten Page und Brin, die ihre geheimen Suchalgorithmen zur Anwendung gebracht hatten, nicht kennen, um zu wissen, dass es sich um zwei geniale Computerfreaks in Turnschuhen, aber mit viel Selbstvertrauen handelte. Der weiße Bildschirm und der Button mit der Aufschrift "I´m Feeling Lucky" brachte das klar zum Ausdruck. Google würde uns allen Glück bringen; das war die Botschaft. Und so kam es dann auch.Warum sind die prominenten Geschäftsführer dann nicht zufrieden? Weil Google viel Geld mit Werbung verdient, und die Werbeetats sind begrenzt. Im letzten Jahr kam der Gewinn fast ausschließlich aus der einzig wirklich lästigen Sparte, die das Unternehmen betreibt - den kleinen, billigen Textanzeigen. Die so genannten AdWords- oder AdSense-Anzeigen sind schnell geladen und angeblich "höflich", in dem Sinne, dass sie nicht blinken und keine Popup-Fenster aufmachen, und man sieht sie jetzt überall - auf Seiten wie dem Portal der Washington Post, auf MySpace und Discovery.com und auch auf Hunderttausenden von kleinen Seiten und Blogs. "Das ist unsere eigentliche Einnahmequelle", sagte Larry Page in einer Sitzung, an der Auletta 2007 teilnahm. Geworben wird für "Laser-Haarentfernung", "Gläubige Singles", "Mit Verkehrsstaus Geld verdienen", "Haben Sie Anspruch auf Schmerzensgeld?", "Anti-Bauchfett-Rezepte", "Bloggen Sie sich reich", "Jeder kann ein Buch schreiben" und so weiter. Unzählige Internetseiten sind aufgetaucht, die nur dazu dienen, AdSense-Anzeigen zu schalten. Sie benutzen gestohlene Inhalte oder schmeißen Texte von Wikipedia und ähnlichen Seiten zusammen und säumen die Ränder mit Google-Anzeigen. Diese funktionieren pro Klick, das heißt, der Auftraggeber zahlt nur dann an Google, wenn auch tatsächlich jemand auf die Anzeige klickt. Pro Aufruf zahlt er dann 25 Cent oder einen Dollar oder (für ganz besonders beliebte Stichworte wie "Schmerzensgeldanspruch") auch zehn Dollar oder mehr.
Aber denken Sie mal nach - wann haben Sie das letzte Mal auf eine dieser Anzeigen geklickt? Eigentlich noch nie? Ich auch nicht. Und doch verdiente Google im letzten Jahr 21,8 Milliarden Dollar, wovon 95 Prozent aus den AdWords- und AdSense-Anzeigen kamen. (Der kleine Rest kam aus Banner- und Video-Anzeigen und einigen anderen Produkten.) Diese plumpen, ziemlich aufdringlichen kleinen Anzeigen (denen Schönheit oder Humor abgehen, die wir von der Werbung für Fernsehen, Zeitschriften oder Radio gewöhnt sind) sind die Grundlage von Googles Finanzimperium, auch wenn das schwer zu glauben ist - ein Imperium der kommerziellen Querverweise. Die Werbeeinnahmen sorgen bei Google für hohe Aktienpreise, und das gibt dem Unternehmen absolute Handlungsfreiheit. Als 2006 Googles Aktienwert bei 132 Milliarden Dollar lag, wurde You- Tube für 1,65 Milliarden eingekauft. "Die können alles kaufen, was sie wollen, und Geld für alles mögliche rauswerfen", zitiert Auletta Irwin Gottlieb, den Chef von GroupM, einem der größten Konkurrenten Googles. Wenn Microsoft sich um DoubleClick bemüht, kann Google mal eben 3,1 Milliarden auf den Tisch legen und DoubleClick kaufen. Wenn Cloud Computing eine lukrative Investition zu sein scheint, dann kann Google 20 oder 50 oder auch 70 riesige Rechenzentren an geheimen Orten auf der ganzen Welt bauen, von denen jedes einzelne so viel Strom verbraucht wie eine Kleinstadt. Anfang des Monats gab Google den Kauf eines Unternehmens namens AdMob für 750 Millionen in Aktien bekannt; AdMob ist spezialisiert auf Bannerwerbung für Handys. "Wenn man mal eine gewisse Größe erreicht hat, muss man sich nach neuen Wachstumsmöglichkeiten umsehen", ließ sich Auletta von Ivan Seidenberg erklären, dem Geschäftsführer von Verizon. "Und dann mischt man sich in die Geschäftsbereiche von allen anderen ein." Jetzt versteht man auch, warum die von Auletta befragten Topmanager nicht gut auf Google zu sprechen sind.
Google produziert weiterhin fleißig seine kleinen Perlen: Google Voice, das gesprochene Mailbox-Nachrichten in Emails umwandelt; Chrome, ein schneller und intelligenter Webbrowser und Android, das neue Handy-Betriebssystem. Eines der neuesten Projekte ist die Espresso Book Machine, die Bücher on Demand ausdruckt und bindet. Aber vielleicht wird hier zu viel auf einem Gelände produziert; vielleicht werden die Leute es bald leid, dass überall "Google" draufsteht. Googles berühmter Slogan "Don´t be evil" klingt mehr und mehr wie eine düstere Prophezeiung. Als sie noch an der Uni waren, wetterten Page und Brin gegen Suchmaschinen, die zu viel Werbung hatten. "Die waren strikt gegen Werbung", zitiert Auletta Ram Shriram, einer der ersten Google-Investoren, "das waren Puristen." Inzwischen sehen sie das nicht mehr so eng. Jetzt geht es darum, ständig neues Futter für ein hungriges, 180 Milliarden schweres Monstrum aufzutreiben. Auletta berichtet von einem ungewöhnlichen Einstellungstest, den Brin einmal mit einer Bewerberin für eine Anwaltsposition machte: "Setzen Sie mir einen Vertrag auf", sagte Brin zu der Anwältin, "und zwar für den Verkauf meiner Seele an den Teufel." Das war 2002, dem Jahr, als Google die interne Arbeit an einem Projekt aufgenommen hatte, das später mal AdSense werden sollte. Mittlerweile fliegen Page und Brin in ihrer privaten Boing 767 herum und sprechen ganz ernsthaft über Green IT, während der Strom für die Gratis-Videos auf YouTube Berge von Kohle verbraucht. Noch ist ihnen keine Idee gekommen, wie sie das Verlustgeschäft YouTube "monetisieren" - d.h. also Profit damit erwirtschaften - können. Allerdings ist mir schon aufgefallen, dass auf Philip DeFrancos beliebten YouTube-Videos inzwischen Werbebanner von Samsung laufen. "Der Vorteil, etwas gratis anzubieten, besteht darin, dass man 100 Prozent Marktanteile hat", erklärt Googles Geschäftsführer Eric Schmidt. "Gratis ist das richtige Konzept." Vielleicht eine Weile lang - aber die Frage ist, ob es auf Dauer funktioniert. "Für Zeitungen", schreibt Auletta, "bedeutet das Gratis-Konzept den Untergang." Vielleicht bekommt man am Ende - sogar im Internet - nur noch das, wofür man auch bezahlt hat."
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.08
0.077463254 = product of:
0.15492651 = sum of:
0.116619386 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
0.116619386 = score(doc=6206,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.2725264 = fieldWeight in 6206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.038307127 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.038307127 = score(doc=6206,freq=22.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.5 = coord(2/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
-
Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000)
0.08
0.07521996 = product of:
0.15043992 = sum of:
0.09995948 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
0.09995948 = score(doc=1729,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.23359407 = fieldWeight in 1729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.050480437 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
0.050480437 = score(doc=1729,freq=52.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.3748476 = fieldWeight in 1729, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.5 = coord(2/4)
- Abstract
- In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
-
Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006)
0.07
0.07472981 = product of:
0.14945962 = sum of:
0.09995948 = weight(_text_:java in 195) [ClassicSimilarity], result of:
0.09995948 = score(doc=195,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.23359407 = fieldWeight in 195, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.04950014 = weight(_text_:und in 195) [ClassicSimilarity], result of:
0.04950014 = score(doc=195,freq=50.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.3675683 = fieldWeight in 195, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.5 = coord(2/4)
- Abstract
- Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
- Content
- Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
-
Gehring, P.: Vergesst den freien Willen : Über den eigentümlichen Reiz deterministischer Thesen (2005)
0.07
0.073007315 = product of:
0.14601463 = sum of:
0.039046235 = weight(_text_:und in 4400) [ClassicSimilarity], result of:
0.039046235 = score(doc=4400,freq=70.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.2899418 = fieldWeight in 4400, product of:
8.3666 = tf(freq=70.0), with freq of:
70.0 = termFreq=70.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4400)
0.106968395 = weight(_text_:helden in 4400) [ClassicSimilarity], result of:
0.106968395 = score(doc=4400,freq=2.0), product of:
0.5421551 = queryWeight, product of:
8.928879 = idf(docFreq=15, maxDocs=44421)
0.060719278 = queryNorm
0.1973022 = fieldWeight in 4400, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.928879 = idf(docFreq=15, maxDocs=44421)
0.015625 = fieldNorm(doc=4400)
0.5 = coord(2/4)
- Content
- "Wir sind genetisch bestimmt - diese Befürchtung prägt die Diskussion um Genforschung, Gentechnik und Gentests seit Jahren. Die zum Menschheitsdatum erklärte so genannte Entzifferung des menschhchen Genoms hat die Debatte im Jahre 2001 noch einmal auflodern lassen. Heute wird nicht über Genomforschung geredet, sondern über Neuroforschung. Wir sind nicht genetisch, sondern neuronal bestimmt: Der freie Wille ist eine Illusion. Das Gehirn setzt unsere Entschlüsse in Gang, bevor wir vermeintlich selbst getroffene Entscheidungen überhaupt bewusst denken können. Die Liste der Meldungen ließe sich verlängern. "Biochemie der Emotionen": Duftstoffe und Hormone ent scheiden, wen wir lieben und wen nicht! "Künstliche Intelligenz": Computerprogramme übertreffen und lenken letztlich, was das Menschengehirn zu leisten vermag! "Nanoforschung": Mikroskopische Maschinen wandern in unseren Körper ein und steuern uns unbemerkt! Deterministische Thesen verdrängen einander förmlich aus em Rampenlicht - wobei, wenn ein neuer Deter minismus auftaucht, bemerkenswert wenig über sein Verhältnis zu den vorhe-rigen, ganz anders gelagerten Determinationsthesen zu hören ist. Auch werden gerade die spektakulären Szenarien selten zurückgenommen oder "widerlegt" <- sehr ernst scheint die Wissenschaft selbst sie nicht zu nehmen. Die Behauptungen altern eherund verblassen. Irgendwann werden sie belächelt. Ein altes Prinzip, denn die Galerie außer Kurs gekommener Determinationsthesen ist lang. Für Unabänderlichkeit sorgte früher das Schicksal, dann die göttliche Prädestination. Seit dem 18. Jahrhundert sind es dann vor allem Formen von "Natur", aber auch der Lauf der Geschichte, das "Leben", das Unbewusste, das soziale Milieu. Im Wissenschaftssystem von heute gibt es durchschaubare Gründe für das laute Geklapper. Wer einen Determinis mus glaubhaft machen kann, hat eine Mediensensation in der Tasche und kann mit zusätzlichen Forschungsgeldern rechnen. Auch öffentliche Mittel fließen. Nicht zuletzt steckt ja in jedem Determinismus ein politische Gleichung: Was am Menschen sich in der Experimentalforschung als "determiniert" herausstellt, das könnte auf lange Sicht auch außerhalb des Labors mit technischen Mitteln kontrollierbar sein. Erbkrankheiten eliminieren, Erbgut verbessern, -Verbrechen beseitigen: Determinismusthesen bergen stets sozialtechnologische Verlockungen. In der Theorie wurden detenninistische Naturwissenschaftlerphilosophien noch jedes Mal widerlegt. Im Kern beruhen sie auf einem einfachen logischen Kurzschluss. Sie universalisieren blind; sie verfügen über keine Wissenschaftsheorie ihrer selbst und stützen sich pauschal auf die "Wissenschaftlichkeit" überspezialisierter Aussagen, Für die Hirnforschung gilt das in, besonderem Maße: Sie besitzt keine Theorie darüber, was ihre eigenen Geräte messen; sie hat wenig positives Wissen über ihren beeindruckend komplexen Gegenstand, und sie verfügt über keinerlei Erkenntnistheorie, die darlegt, woher der plötzliche Wissensvorsprung ihrer eigenen Disziplin - die gleichsam der Natur selbst . über die Schulter schaut - wohl kommt.
In der Praxis, wie gesagt, widerlegen sich Determinismen nicht, sie erledigen sich eher- zumeist durch allmäh liche Modifizierung. So relativierte die Arbeit am "entschlüsselten" Genom bislang alle mitgebrachten Modelle und hat im Grunde ständig neue Unbestimmtheiten erbracht. Trotz ihrer fachlichen Schwäche haben deterministische Thesen unter Umständen jedoch erhebliche Wirk lichkeitsmacht. Wissenschaftler können auf "das bürgerliche Reich wissenschaftlicher Konsistenzvorstellungen"1 schlicht pfeifen und bewusst auf Gesellschaftsveränderung setzen: auf eine Anpassung der Welt an ihre Theorien. Wollen Deterministen eine sozialpolitische Zukunftsvision realisieren und lösen sich - von der Öffentlichkeit beflügelt - von den methodischen Standards ihres Fachs, so sind nahezu beliebige Selffulfilling-Prophecy-Effekte denkbar. Die Reihe der falschen, experimentell aber "beweisbaren" Determinationsthesen ist lang. Unter den Prozeduren der Teu felsaustreibung erweist sich der Beses: sene als vom Teufel determiniert; der der sozialen Anerkennung für immer beraubte Straftäter zeigt sich als "von Natur aus" gefährlich; ohne Zugang zu Bildung sind Frauen und Neger "objektiv messbar" dumm. Ist der Mensch nun determiniert? Ich schlage vor, die Fragestellung zu verändern. Fassen wir nicht die Thesen selbst, sondern ihren Resonanzboden ins Auge: Was eigentlich fasziniert am Determinismus so sehr? Derzeit könne man unbesorgt Bücher in Höchstauflagen drucken, sobald nur im Titel das Wort "Gehirn" fällt, das hörte ich. aus Verlagskreisen. Warum? Worin liegt das Magnetische der Feuilletonthesen der Neuroforscher Gerhard Roth und Wolf Singer, die behaupten, Willensfreiheit sei nur eine "Illusion" und das Soziale erkläre sich als "Wechselwirkung zwischen Gehirnen"2? Was fesselt die Leser der vor einigen Jahren neu auf dem Markt aufgetauchten populärwissenschaftlichen Illustrierten Geist und Gehirn? Blicken wir zurück in: die Zeit der Gen-Debatten, so gibt es Parallelfragen: Was war der Charme eines evolutionis-tischen Reißers wie "Das egoistische Gen" von Richard Dawkins, der 1976 mit der These aufwartete, wir seien "als Genmaschinen gebaut worden, dazu geschaffen, unsere Gene zu vererben"s? oder, um noch ältere Beispiele zu nennen: Wodurch faszinierten seinerzeit die (heute nicht nur überholten, sondern durch Fälschungsvorwürfe diskreditierten) Instinktbindungs- und Prägungstheoreme von Konrad Lorenz? Was genau reizte an Ernst Haeckels "Monismus"? Et cetera. Erste Vermutung: Man erschrickt ganz einfach, wenn man mit einer im vollen Ornat der naturwissenschaftli chen Wahrheit daherkommenden Entzauberungsformel konfrontiert wird. Die Idee eines alles regierenden inneren Prinzips-des eigenen Seins hat etwas Bedrohliches. Unsere säkulare Normalsicht der Welt ist zwar an die Relativitäten des Alltags gewöhnt, man lebt gut mit dem Zusammenspiel aus Freiheit und Unübersichtlichkeit, das zum modernen Selbst= und Handlungsverständnis gehört. Gleichwohl weiß man nicht recht, ob man Schlagzeilen wie "Wir sind determinier"" oder "Ich bin mein Gehirn"5 oder die an Eltern ausgegebene Forderung nach einer "Neuropädagogik" einfach ignorieren darf. Unangenehme Vorstellung, aber 0b nicht vielleicht doch etwas dran ist? Habe ich tatsächlich in einer "Illusion" gelebt? Pflichtschuldig verunsichert, bangen wir um unser freiheitliches Selbstverständnis, und dieser Sorge verdankt sich das Aufmerken in Sachen Gene oder Gehirn.
Gerade wer sich Sorgen macht, könnte freilich mit wenig Mühe erkennen, wie fragwürdig der Charakter die ser schockierenden Thesen ist. Wer zweifelt, ist nicht allein. Stets klärten in den "Debatten" seriöse Stimmen, w0 die Spekulation beginnt und was vorläufig als heiße Luft betrachten werden kann. Im Falle der Genetik überwog die öffentliche Skepsis über jahre. Im Falle der Hirnforschung ist es geradezu frappant: Die deutsche Neurodebatte betreiben ganz wenige Protagonisten, die sich überdies auf anderswo längst ausdiskutierte Forschungsergebnisse aus den 1980er Jahren-stützen. Die große Mehrzahl der Teilnehmer an der Neurodebatte schüttelt über die schlichten Thesen der Hirnforscher den Kopf. Gleichwohl hält das Thema die Republik in Atem. Für die Debatte um die Nanotechnologie gilt Ähnliches. Angefeuert von den transhumanistischen Zukunftspro gnosen des US-amerikanischen Ingenieurs Eric Drexler, will das Gedankenspiel und staubkleine Roboter, die am Ende sich und uns umbauen werden, einfach nicht enden. Ist es wirklich nur die Sorge, die die Debatten trägt? Zweite Vermutung: Die Sache macht dem Publikum Freude. Es muss da eine gewisse Lust mit im Spiel sein, ein spezieller Reiz, der gerade von Determinismusthesen ausgeht. Bietet die Vorstellung eines durch naturwissenschaftlich erschlossene Kausalgesetze regierten Universums vielleicht Trost? Entlastet sie von Verantwortung? Vermittelt die Vision eines die Menschheit programmierenden Genstroms oder des uns alle regierenden GehirnS ein Gefühl des Erhabenen? Verhielte es sich so, dann wäre es wohl eine religiöse Regung, die sich im Interesse am übermächtigen Naturgesetz manifestiert. In diese Richtung weist die zentrale Rolle der Bilder dessen, was da fasziniert: Farbige Darstellungen haben in den 1960er Jahren das Weltall und das Satellitenbild der Erde, später die DNA-Spirale und heute die bunten Rasteraufnahmen des Gehirns zur Ikone gemacht. Das determinierende Naturobjekt erstrahlt in sakralem Glanz: unnahbar, gebieterisch, schön. "Fürchte dich nicht", lautet die Botschaft des Hochglanzbildes: Fürchte dich nicht, die Natur ist groß, doch das wunder Wissenschaft macht sie dem Fortschritt der Menschheit dienstbar. So überwiegt die Lust im heiligen Schauder angesichts verborgener übermacht. Dritte Vermutung: Religiöse Anmutungen mögen im Spiel sein, aber sie erklären nicht den hohen streitwert deter ministischer Thesen. Bleibt ein weiterer, der quasiaufklärerische Zug, der die deterministische Geste prägt: Vergesst das bisher Dagewesene! Entlarvt mit uns die alltägliche Sicht der schlecht Informierten als "Illusion"! Die nüchterne Wahrheit ist hart, so lautet die Botschaft, aber wer es wagt, ihr mannhaft ins Auge zu blicken, dem enträtselt sich eine nur für die Dummen und Ängstlichen unerklärbare Welt - zumal die Erklärung ja viel einfacher ist als die komplizierte Weltsicht der Ewiggestrigen. Weg mit langatmigen Einwänden: Alles nur "Gefühl". Populäre Determinismen locken mit einem Wissensvorsprung, den der naturwissenschaftlich interessierte Laie mit der vermeintlichen Avantgarde der Forschung teilen kann. Aus dieser Sicht läge der Reiz der Frage, 0b "wir alle" programmiert sind oder 0b das Gehirn "uns" denkt, im Grunde darin, dass ich als Leser mich wahlweise als Opfer oder als kleiner Experte fühlen kann. Unter den als unfrei Entlarvten kann man sich selbst immerhin zu denen mit Durchblick, zu den Entdeckern und Verkündern einer These zählen.
Mein persönlicher Eindruck - gewonnen im Dunstkreis öffentlicher Bildungseinrichtungen - ist der, dass gar nicht einmal Techniker und Ingenieure, sondern besonders gern Lehrer, auch gern ältere Lehrer (und auf jeden Fall Männer) die umstürzende Bedeutung der Neuroforschung im Munde führen. Sie sind nicht besorgt, sie bestaunen' nichts Erhabenes, vielmehr lieben sie es, sich auf den Einblick in die Wissenschaft zu berufen, und haben gern das letzte Wort. Unter den Unfreien trumpft der Anwalt des Naturgesetzes auf. Es ist, als wachse ihm eine Freiheit zweiter Stufe zu. Hier zeigt der Determinismus sein vielleicht unschönstes Gesicht: Er liefert Totschlagargumente. Er hat eine strukturelle Affinität nicht nur zum Vorgriff auf die Zukunft, sondem auch - sehr gegenwärtig - zur autoritären Rechthaberei. Bedienen deterministische Thesen männliche Allmachtsfantasien? Zu gern wüsste ich mehr über - sagen wir. über Geschlecht, Ausbildung, Position und Sozialprofil der typischen Leser der Zeitschrift Geist und Gehirn. Auch über die Aura, die Männerwie James Watson, Marvin Minsky, Craig Venter oder Eric Drexler umgibt. Faustische Figuren? Helden, in deren Fußstapfen man treten möchte? Überväter, denen man sich unterwirft? So oder so entwickeln Determinismusdebatten einen Sog, der auch kluge Köpfe-und manche sicher widerwillig - zum Mitreden zwingt. Dieser Punkt ist besorgniserregender, als er scheint, denn im Dialog mit einer allzu simplen Position nehmen leicht die eigenen Argumente Schaden. Die differenziertere Position braucht Platz. Schon deshalb sieht sie schlecht aus. Wie beweise ich eben schnell, dass eins und eins nicht drei ist? Man lese nach, mitwie viel Hilflosigkeit auf die zwar hummeldumme, von der Neuroforschung jedoch hartnäckig wiederholte Annahme reagiert wurde, aus dem zeitlichen Nacheinander zweier Ereignisse in einem bestimmten Versuchsaufbau sei zu folgern, das frühere Ereignis sei für das spätere kausal! Bin naturalistischer Zirkelschluss lässt sich ähnlich schwer widerlegen wie die Behauptung, hinter unserem Rücken würden uns regelmäßig Außerirdische besuchen. Wer sich mit Deterministen anlegt, muss daher Acht geben: Ihr Denkstil färbt ab. Nicht selten verfangen sich Kritiker des Determinismus in einem apokalyptischen Determinismus umgekehrter Art. So geschehen bei Jürgen Habermas. Er tritt der Klonierung .(also der gentechnischen Zwillingsherstellung) mit dem Argument entgegen, .der Klon werde als Sklave geboren, denn durch den Einsatz der Technik erscheine ein Fremder als der "Autor" von dessen Biografie: An den Genen entschiede sich demnach die Frage von Freiheit oder Sklaverei, die Frage der "Autorschaft" für ein ganzes Leben? In der Absicht, drastisch vor den Folgen der Klonierung zu warnen, übernimmt hier ein Kritiker selbst das Denkmodell der genetischen Determination. Ein großer Denker scheint in die Falle getappt zu sein. Dergleichen passiert. Aber noch einmal die Frage: Warum war das fatale Denkmuster so attraktiv? Und warum wird der Stand punkt der Freiheit so überaus rasch und bereitwillig einer - auch als Gefahrenszenario - viel zu einfachen Sichtweise preisgegeben: Aus Sorge? Aus Angstlust? Als Totschlagargument?"
-
Hentschel, A.: Was Google & Co. wirklich finden (2007)
0.07
0.0709462 = product of:
0.1418924 = sum of:
0.034924015 = weight(_text_:und in 1488) [ClassicSimilarity], result of:
0.034924015 = score(doc=1488,freq=56.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.25933182 = fieldWeight in 1488, product of:
7.483315 = tf(freq=56.0), with freq of:
56.0 = termFreq=56.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=1488)
0.106968395 = weight(_text_:helden in 1488) [ClassicSimilarity], result of:
0.106968395 = score(doc=1488,freq=2.0), product of:
0.5421551 = queryWeight, product of:
8.928879 = idf(docFreq=15, maxDocs=44421)
0.060719278 = queryNorm
0.1973022 = fieldWeight in 1488, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.928879 = idf(docFreq=15, maxDocs=44421)
0.015625 = fieldNorm(doc=1488)
0.5 = coord(2/4)
- Content
- "Das Internet wächst und wächst: Im Juni wurde es laut einer Erhebung des englischen Branchendienstes Netcraft aus 122 Millionen Webservern gebildet - im Vergleich zum Vormonat ein Plus von vier Millionen. Wahre Größe zeigt das Web aber erst bei der Anzahl der einzelnen Webseiten: Es sind schätzungsweise 500 Milliarden! Ohne eine gute Suchmaschine geht da nichts, zumal sich die Inhalte ständig ändern: Blogs und Videoportale haben aus dem statischen Web ein dynamisches Medium gemacht, das die Suchtechnologien vor neue Hürden stellt. Die Webindizes müssen immer mehr und sich immer schneller verändernde Dokumenttypen analysieren. Und das sollten die Suchmaschinen zuverlässig tun, denn die Suche ist die wichtigste Anwendung im Internet: 80 Prozent aller deutschen Websurfer recherchieren in Suchmaschinen, statt direkt eine URL in das Browser-Fenster einzutippen. Bei der Wahl der Suchmaschine obsiegt offenbar die Macht der Gewohnheit: Die absolute Mehrheit der Deutschen sucht mit Google - 87 Prozent. Yahoo und Microsofts Live Search (ehemals MSN) bringen es auf mickrige drei Prozent Marktanteil, AOL und T-Online auf jeweils zwei Prozent.
Wir wollten wissen, ob das scheinbar unerschütterliche Vertrauen in Google gerechtfertigt ist und haben fünf Suchmaschinen gegen Google antreten lassen: Neben Google befinden sich die beiden weiteren Großen Yahoo und Microsoft Live Search im Testfeld, sowie die Websuchen von Ask.com, Abacho und Seekport. Nicht dabei sind Portale wie T-Online oder AOL. Auch wenn diese für viele Nutzer das Einfallstor ins Internet sind: Sie nutzen keine eigenen Suchtechnologien, sondern bedienen sich bei Google oder Yahoo - die Testergebnisse wären hier also identisch gewesen. Soviel vorneweg: Google ist zu recht Marktführer. Denn kein Testkandidat lieferte durchgängig eine so hohe Trefferqualität. Das heißt allerdings nicht, dass die Konkurrenz so schlecht ist, wie es die nackten Marktzahlen vermuten ließen. Bei der Video- oder News-Suche beispielsweise ist Ask.com besser als Google. Eine komplette Enttäuschung ist Microsofts Live Search, die bei der Qualität der Suchergebnisse selbst vom kleinen Anbieter Abacho geschlagen wurde. Für den Test fütterten wir jede Suchmaschine mit insgesamt 25 Suchbegriffen. Je zehnmal stellten wir allgemeine Suchanfragen, je fünfmal suchten wir nach News, Bildern und Videos. Bei allgemeinen Fragen ist Google unschlagbar. Nur ein paar Beispiele: Sie suchen nach "Wetter in Merching" und bekommen oberhalb der Trefferliste die Wettervorhersage angezeigt - selbst für ein kleines Dorf. "Zugverbindung Hamburg München" führt Sie mit einem Klick zur Übersicht mit den nächsten Zügen. Der Wunsch nach "Download Firmware Plextor PX716" wird mit dem direkten Link zur Plextor-Webseite belohnt. "15,66 Dollar in Euro" zeigt direkt den aktuellen Umrechnungskurs an.
Wie hat uns dagegen die Konkurrenz in die Irre geschickt: Statt Wetter in Merching bekamen wir die Seite der freiwilligen Feuerwehr (Ask.com), statt einer Zugverbindung das Angebot, einen Flug zu buchen (Seekport), statt Firmware Spam, statt Umrechnungskursen Börsennachrichten. Ein wenig schwächelte Google bei zwei Begriffen: "Aktienkurs Telekom" und "Strompreis Übersicht". Hier zeigte Yahoo bessere Ergebnisse - beispielsweise gleich oberhalb der Trefferliste einen Kurs-Chart für die T-Aktie. Für eine wichtige Frage blieben uns alle Suchmaschinen die Antwort schuldig: "Wie heißt der Soldat bei Biene Maja?" Auch bei der Bildersuche überzeugte Google auf der ganzen Linie - zu jedem unserer fünf Begriffe fanden wir genügend gute Treffer. Alle anderen leisteten sich dagegen Ausrutscher: So findet Ask Apples "iPhone" und das CD-Cover des Wir-sind-Helden-Albums "Soundso" nicht. Abacho, Yahoo und Live Search können mit Gilbert & Georges Kunstwerk "Are You Angry Or Are You Boring" nichts anfangen. Bei Seekport konnten wir uns die Mühe sparen - es gibt keine Bildersuche. Videos werden von Seekport ebenfalls ignoriert. Auch bei Abacho fehlt diese Spezialsuche, allerdings hilft die ordinäre Websuche bisweilen: Die Anfrage "Stromberg Herr Loermann" führte uns beispielsweise zum Videoportal Maxdome mit Trailern und dem Stream der Comedy-Serie. Ask, Live Search und Google unterscheiden sich in der Videosuche nur marginal. Bei Google werden Treffer aus dem eigenen Videoportal YouTube offenbar bevorzugt behandelt, dafür gibt es leichten Punktabzug. Ansonsten schwankt die Qualität der Ergebnisse je nach Suchbegriff. Mit "White Stripes Icky Thump" fanden wir bei dem Trio zuverlässig zum neuen Video der amerikanischen Rockband. Auch der "Apple 1984 Superbowl" Werbespot war für die drei kein Problem, lediglich bei der Stromberg-Episode blieben die Ergebnislisten nahezu leer.
Leere Listen sahen wir bei der Yahoo-Video-Suche hingegen entschieden zu oft - sie enttäuschte weitgehend. Mit seiner News-Suche überzeugte Yahoo schon eher und landete hier nur knapp hinter Google. Google selbst hat manchmal Probleme mit News-Übersichten und interpretiert Schlagzeilen-Übersichten als eigene Artikel. Das führt zu falschen Ergebnissen. Die besten News-Treffer landeten wir bei Ask.com, allerdings ist die Suche versteckt - in einem Reiter unter Blog-Suche. Einmal gefunden, bekommt man aber zuverlässig sehr viele relevante Nachrichten. Abacho hat keine eigene News-Suche, immerhin wird der Index aber so schnell aktualisiert, dass wir zu unseren News-Fragen "Saul Friedländer Friedenspreis" oder "Telekom Verdi" wenigstens ein paar verwertbare Webseiten fanden. Bei Live Search hingegen erhielten wir bei tagesaktuellen Suchbegriffen praktisch keine brauchbaren News. Jede Suche fördert Unmassen von Treffern zu Tage. Auf die relevanten Ergebnisse eingrenzen lassen sich diese nur mit Filtern oder gezielteren Suchanfragen. Allgemein verbreiteter Suchmaschinen-Standard sind die Boolschen Verknüpfungen mehrerer Suchbegriffe (und/oder/nicht). Die Begrenzung der Suche auf bestimmte Sprachen oder Zeiträume lassen auch die meisten Testkandidaten zu (siehe Testtabelle, S 76). Vermisst haben wir bei Live Search, Abacho und Seekport die Möglichkeit, nach verschiedenen Dokumenttypen zu suchen. Mit Google und Yahoo lässt sich die Suche auf Word-, Excel-Dateien oder PDFs beschränken - bei Ask immerhin auf diverse Videoformate. Ein sehr nettes Feature bieten bisher erstaunlicherweise nur die kleinen Suchmaschinen an: die Seitenvorschau. Ask, Abacho und Seekport blenden auf Maus-klick den Treffer direkt auf der Suchmaschinenseite ein - so kann man sich schnell einen Eindruck verschaffen, ob einem die gefundene Webseite weiterhilft. Besonders schön ist die Lösung von Ask: Die Vorschau wird hier als kleines Popup eingeblendet, sobald man mit der Maus über den Vorschau-Link fährt. Begeistern konnten wir uns auch für die Video-Vorschau von Ask, die als einzige Suchmaschine einige Sekunden des Clips anzeigt, wenn man mit der Maus auf das Vorschaubildchen geht.
Im Web stößt man schnell auf dubiose Seiten. Gut, wenn die Suchmaschine schon in der Trefferliste Porno und Schadcode aussortiert. Am sichersten surfen Sie diesbezüglich mit Google. Sie werden beim Testsieger bereits in der Trefferliste vor Seiten gewarnt, die im Verdacht stehen, Malware zu verbreiten. Das bietet sonst keine andere Suchmaschine. Außerdem können Sie einen dreistufigen Filter setzen, der nicht jugendfreie Seiten aus den Trefferlisten entfernt - ein Service, den bis auf Live Search und Seekport aber auch alle anderen bieten. Kritikpunkt: Diese erweiterten Sicherheitsfunktionen lassen sich nur nutzen, wenn Sie Cookies akzeptieren - obwohl es technisch auch anders lösbar wäre. Dahinter steckt nur das Interesse an genauen Nutzerprofilen. Weil wir eher für einen sensiblen Umgang mit Daten plädieren, gibt es dafür leichte Punktabzüge. Suchmaschinen wie Google und Ask sind an Simplizität nicht mehr zu übertreffen. Außer dem Suchfeld und Reitern für Bilder-, News- oder Produktsuche bleibt die Seite leer. Kritisch sehen wir die Kennzeichnung der Werbung. Die meisten Suchmaschinen hinterlegen die verkauften Links dezent farbig. Aber bisweilen so dezent, dass es bei schlecht kalibrierten Monitoren nicht zu sehen ist. Seekport und Abacho machen es anders - aber nicht besser. Sie grenzen die Werbung durch grafische Elemente ab, die eher verschleiern als verdeutlichen, dass es sich um gesponserte Links handelt. Die Hilfe-Funktionen sind durchweg brauchbar, bis auf eine kleine Ausnahme: Live Search verspricht in seiner Hilfe Funktionen, die es noch gar nicht gibt - immerhin erlauben diese offenbar einen Blick in die weiteren Planungen. Abachos Hilfe ist eher minimalistisch - mehr als die Boolschen Filter werden nicht erklärt. Google und Yahoo hingegen haben umfangreiche Dokumentationen. Wer sich ausführlich damit beschäftigt, kann durchaus zu besseren Ergebnissen gelangen. Bei Yahoo beispielsweise fanden wir den Hilfe-Hinweis auf den Yahoo-Service "Answers", bei dem andere Nutzer offene Fragen beantworten. Wir fragten dort noch einmal nach dem Namen des Soldaten bei Biene Maja. Die Antwort kam innerhalb von drei Minuten: Er heißt Paul Emsig."
-
Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998)
0.07
0.07068202 = product of:
0.28272808 = sum of:
0.28272808 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
0.28272808 = score(doc=4593,freq=4.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.6607038 = fieldWeight in 4593, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=4593)
0.25 = coord(1/4)
- Abstract
- Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
-
Reed, D.: Essential HTML fast (1997)
0.07
0.06663965 = product of:
0.2665586 = sum of:
0.2665586 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
0.2665586 = score(doc=6851,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.62291753 = fieldWeight in 6851, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6851)
0.25 = coord(1/4)
- Abstract
- This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
-
Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997)
0.07
0.06663965 = product of:
0.2665586 = sum of:
0.2665586 = weight(_text_:java in 171) [ClassicSimilarity], result of:
0.2665586 = score(doc=171,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.62291753 = fieldWeight in 171, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=171)
0.25 = coord(1/4)
- Abstract
- Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
-
Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996)
0.07
0.06663965 = product of:
0.2665586 = sum of:
0.2665586 = weight(_text_:java in 604) [ClassicSimilarity], result of:
0.2665586 = score(doc=604,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.62291753 = fieldWeight in 604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=604)
0.25 = coord(1/4)
- Abstract
- Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
-
Ameritech releases Dynix WebPac on NT (1998)
0.07
0.06663965 = product of:
0.2665586 = sum of:
0.2665586 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
0.2665586 = score(doc=2782,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.62291753 = fieldWeight in 2782, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=2782)
0.25 = coord(1/4)
- Abstract
- Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac