-
Vonhoegen, H.: Einstieg in XML (2002)
0.12
0.11836237 = product of:
0.23672473 = sum of:
0.17356487 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.17356487 = score(doc=5002,freq=4.0), product of:
0.45033762 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06390027 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.06315986 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.06315986 = score(doc=5002,freq=54.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Hehl, H.: Ein Linksystem zur Integration von Literatursuche und Literaturbeschaffung : Medline-LINK (2000)
0.12
0.11550547 = product of:
0.23101094 = sum of:
0.042534065 = weight(_text_:und in 5832) [ClassicSimilarity], result of:
0.042534065 = score(doc=5832,freq=12.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.30011827 = fieldWeight in 5832, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=5832)
0.18847688 = weight(_text_:hyperlinks in 5832) [ClassicSimilarity], result of:
0.18847688 = score(doc=5832,freq=2.0), product of:
0.46692044 = queryWeight, product of:
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.06390027 = queryNorm
0.40365952 = fieldWeight in 5832, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.0390625 = fieldNorm(doc=5832)
0.5 = coord(2/4)
- Abstract
- Die durch das WWW gegebenen Möglichkeiten, von den Suchergebnissen einer Datenbank über Hyperlinks auf elektronische Volltexte zuzugreifen, einzelne Titel online zu bestellen oder mit anderen Datenbanken oder Katalogen zu verknüpfen, werden mittlerweile von vielen Datenbankanbietern genutzt oder standardmässig angeboten. Das hier besprochene Linksystem weist dieselben Möglichkeiten auf und verbindet Suchergebnisse mit lokal verfügbaren elektronischen Zeitschriften bzw. mit Bibliotheks-Katalogen. Auch eine automatische Bestellfunktion ist vorhanden. Dieses auf Javascript basierende Linksystem verwendet ein einfaches, bisher aber noch wenig bekanntes Verfahren, bei dem jeweils die gesamte Ergebnisliste einer Datenbank (50 bis 200 Titel) in das Texteingabefeld eines Formulars eingefügt und dann weiter mit Javascript bearbeitet wird. Vorteilhaft ist die gross Anpassungsfähigkeit des Programms an die speziellen oder sogar individuellen Bedürfnisse. Medline-LINK wendet dieses Linkverfahren auf die besonders effiziente und zudem entgeltfreie Datenbank PubMed an. In dieser Testversion bilden die von der UB Regensburg abonnierten E-Zeitschriften zusätzlich eines großen Teils von elsevier-Zeitschriften den Grundbestand der zu verknüpfenden Zeitschriften. Über die dynamisch ermittelte ISSN kann die Verbindung von der Ergebnisanzeige zu den Bestandsanzeigen des BVB und GBV hergestellt werden. Die automatische Bestellfunktion wird am Beispiel des Fernleihbestellformulars der UB Regensburg demonstriert
- Source
- nfd Information - Wissenschaft und Praxis. 51(2000) H.4, S.209-216
-
Kemp, A. de: DOI (Digital Object Identifier) ermöglicht Online-Veröffentlichungen vor Drucklegung (1998)
0.11
0.111602895 = product of:
0.22320579 = sum of:
0.03472892 = weight(_text_:und in 2509) [ClassicSimilarity], result of:
0.03472892 = score(doc=2509,freq=8.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.24504554 = fieldWeight in 2509, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2509)
0.18847688 = weight(_text_:hyperlinks in 2509) [ClassicSimilarity], result of:
0.18847688 = score(doc=2509,freq=2.0), product of:
0.46692044 = queryWeight, product of:
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.06390027 = queryNorm
0.40365952 = fieldWeight in 2509, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.0390625 = fieldNorm(doc=2509)
0.5 = coord(2/4)
- Abstract
- Schon seit über 12 Jahren setzt sich die wissenschaftliche Verlagsgruppe Springer mit den sich ständig weiterentwickelnden und effektiveren Wegen und Möglichkeiten der elektronische Informationsverarbeitung auseinander - zunächst primär mit Offline-Produkten, dann auch immer stärker im Online-bereich. 1995 erschien die erste von zwischenzeitlich 10 rein elektronischen Zeitschriften. Seit Anfang 1997 gibt es LINK - den Springer Online Informationsservice, in dem derzeit bereits mehr als 290 der mehr als 400 Springer-Zeitschriften als Volltext online verfügbar sind. LINK bietet gezielte Recherchen in den aufgelegten Informationen: Blättern in den Inhaltsverzeichnissen, differenzierte Suchfunktionalitäten, FAQ-Seiten, Testabos und vieles andere mehr runden das LINK-Servicepaket ab. Neu in LINK ist 'Online First' zur Publikation freigegebene Artikel werden lange noch vor ihrem Erscheinen in der gedruckten Zeitschrift online publiziert. Der LINK-Vorabservice LINK alert bietet allen LINK-Nutzern kostenlos die Möglichkeit, sich per Mailingliste die bibliographischen Angaben und Hyperlinks zu den Abstracts der Artikel zuschicken zu lassen, wenn von einer Zeitschrift z.B. ein neues Heft erschienen ist. Schließlich eröffnen sich mit dem LINK Alliance-Konzept auch verlagsfremden Informationsanbietern vielfältige Publikationsmöglichkeiten von Zeitschriften, elektronischen Büchern etc. in LINK als Online-Publikationsplattform in einem wissenschaftlichen Umfeld
-
Lehmann, K.; Machill, M.; Sander-Beuermann, W.: Blackbox Suchmaschine : Politik für Neue Medien. Interview mit Marcel Machill und Wolfgang Sander-Beuermann (2005)
0.11
0.1092765 = product of:
0.218553 = sum of:
0.030076126 = weight(_text_:und in 4490) [ClassicSimilarity], result of:
0.030076126 = score(doc=4490,freq=6.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.21221566 = fieldWeight in 4490, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4490)
0.18847688 = weight(_text_:hyperlinks in 4490) [ClassicSimilarity], result of:
0.18847688 = score(doc=4490,freq=2.0), product of:
0.46692044 = queryWeight, product of:
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.06390027 = queryNorm
0.40365952 = fieldWeight in 4490, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.0390625 = fieldNorm(doc=4490)
0.5 = coord(2/4)
- Abstract
- Google & Co. sind die zentralen Marktplätze im Internet; ohne sie würden sich nur wenige Menschen im Web zurechtfinden. Über 90 Prozent aller Internet-Nutzer greifen deshalb auf Suchmaschinen zurück - nicht immer als kundige Verbraucher, denn sowohl das WWW als auch die Suchmaschinen haben ihre Untiefen. Es beginnt beim Netz der Hyperlinks: Die Zahl der weltweit vorhandenen Webseiten ist technisch nicht zu bestimmen. Die Universität Bielefeld schätzt die Größe des frei zugänglichen WWW Anfang 2005 auf 10-15 Milliarden Seiten; Informationen in Datenbanken, auf geschlossenen und dynamischen Webseiten sowie die mit Webseiten verknüpften Dokumente hier nicht mit eingerechnet. Bei dieser Zahl wird klar, wie wichtig Suchmaschinen sind, um Informationen zu finden. Doch erfassen diese bei weitem nicht alles: Zwar verzeichnete Google im Januar 2005 laut eigener Aussage rund 8 Milliarden Webseiten, doch dürfte ein erheblicher Teil des WWW fehlen. Für Deutschland errechnete Andreas Pothe in einer Untersuchung für das Regionale Rechenzentrum für Niedersachsen, dass von den geschätzten 320 Millionen deutschen Webseiten nur 60 Prozent beim Marktführer Google zu finden seien. Schlusslicht Fireball kennt gerade einmal jede zweite deutsche Domain - und entsprechend weniger Webseiten.
-
Mainberger, C.: Aktuelles aus der Digital Library (2003)
0.11
0.10722034 = product of:
0.21444067 = sum of:
0.06365916 = weight(_text_:und in 2547) [ClassicSimilarity], result of:
0.06365916 = score(doc=2547,freq=42.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.4491759 = fieldWeight in 2547, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2547)
0.15078151 = weight(_text_:hyperlinks in 2547) [ClassicSimilarity], result of:
0.15078151 = score(doc=2547,freq=2.0), product of:
0.46692044 = queryWeight, product of:
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.06390027 = queryNorm
0.32292762 = fieldWeight in 2547, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.03125 = fieldNorm(doc=2547)
0.5 = coord(2/4)
- Abstract
- Digitales Bibliotheksgut bildet neben dem Verbundsystem und Lokalsystemen schon seit einigen Jahren einen der Schwerpunkte des Bibliotheksservice-Zentrum Baden-Württemberg (BSZ). Dazu wurden in einer Reihe von Projekten unterschiedliche Gesichtspunkte dieser vergleichsweise neuen Medien berücksichtigt. Viele dieser Projekte sind mittlerweile abgeschlossen, einige in einen regelrechten Routinebetrieb übergegangen. Video- und Audiofiles, aber auch Image- und Textdateien stellen zunächst durch ihre technische Form spezielle Anforderungen an ihre Erzeugung, Aufbewahrung und Nutzung. Daran schließt sich die Entwicklung geeigneter Verfahren und Hilfsmittel zur Verzeichnung und Erschließung an. Spezielle Suchmaschinen und Austauschprotokolle ermöglichen ein adäquates Retrieval elektronischer Ressourcen und ihre Distribution. Ein eigenes Feld stellt der Einsatz von multimedialen Lehr- und Lernmaterialien im Hochschulunterricht dar. Die technischen Eigenschaften und Möglichkeiten führen darüber hinaus zu anderen inhaltlichen Strukturen als bei "konventioneller" Literatur und schließlich zu einer andersartigen rechtlichen Verortung dieser Bestände. Zu allen diesen Themen war das BSZ tätig, meist in Kooperationen mit Partnern wie z.B. den OPUS-Anwendern oder der DLmeta-Initative. Im Mittelpunkt dieses Engagements steht der Virtuelle Medienserver, der die Metadaten der dezentral vorgehaltenen Objekte enthält, diese über Hyperlinks erreichen kann und der mit der Verbunddatenbank synchronisiert ist. Die "digitale" Bibliotheksarbeit orientiert sich dabei an den Methoden und Prinzipien der "analogen" Bibliotheksarbeit, passt diese teils den neuen, digitalen Möglichkeiten an, insbesondere der Online-Zugänglichkeit, vermeidet aber Brüche in den Nachweisinstrumenten. Im Folgenden soll dies an vier zentralen Aspekten deutlich gemacht werden, die Teil jeder Bibliotheksarbeit sind und entsprechend in aktuellen Projekten der Digital Library im BSZ ihren Niederschlag finden: Recherche- und Zugangsmöglichkeiten oder "Portale", Inhalte und Medien oder "Content", Regelwerke und Formate oder "Metadaten", Sprachverwendung oder "Normvokabular und Klassifikationen". Illustriert werden diese Themen anhand aktueller Projekte, zunächst die Sprachverwendung anhand des BAM-Portals: Das BAM-Portal wird in einem DFG-Projekt in Kooperation des BSZ mit der Landesarchivdirektion Baden-Württemberg und dem Landesmuseum für Technik und Arbeit entwickelt. Es zielt darauf ab, in Bibliotheken, Archiven und Museen vorhandene digitale Bestände unter einer einheitlichen Oberfläche übers World Wide Web zugänglich zu machen. Eine Recherche im BAMPortal führt auf eine fachübergreifende Trefferliste, in der jeder Treffer über Internetlinks mit einer ausführlichen, herkunftsgerechten Beschreibung verknüpft ist. Von dort ist gegebenenfalls ein zugehöriges Digitalisat bzw. eine multimediale Veranschaulichung erreichbar. Da übliche Suchaspekte, wie der Autor für Literatur oder die Provenienz für das Archivalien im gemeinsamen Kontext nicht fachübergreifende Resultate ergeben, treten hier themenbezogene Recherchen in den Vordergrund. Daher widmen wir im BAM-Portal der thematischen Erschließung der verschiedenen Datenbestände die größte Aufmerksamkeit.
-
Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999)
0.11
0.1051962 = product of:
0.4207848 = sum of:
0.4207848 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
0.4207848 = score(doc=1743,freq=2.0), product of:
0.45033762 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06390027 = queryNorm
0.9343763 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Abstract
- Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
-
Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996)
0.11
0.1051962 = product of:
0.4207848 = sum of:
0.4207848 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
0.4207848 = score(doc=2137,freq=2.0), product of:
0.45033762 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06390027 = queryNorm
0.9343763 = fieldWeight in 2137, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2137)
0.25 = coord(1/4)
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.11
0.10502796 = product of:
0.21005592 = sum of:
0.175327 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.175327 = score(doc=729,freq=2.0), product of:
0.45033762 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06390027 = queryNorm
0.38932347 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.03472892 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.03472892 = score(doc=729,freq=8.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
-
Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996)
0.10
0.10344161 = product of:
0.20688322 = sum of:
0.1402616 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
0.1402616 = score(doc=2567,freq=2.0), product of:
0.45033762 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06390027 = queryNorm
0.31145877 = fieldWeight in 2567, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.06662162 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
0.06662162 = score(doc=2567,freq=46.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.47007886 = fieldWeight in 2567, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.5 = coord(2/4)
- Abstract
- Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
- Classification
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
- RVK
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
-
Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998)
0.10
0.10270157 = product of:
0.20540313 = sum of:
0.175327 = weight(_text_:java in 617) [ClassicSimilarity], result of:
0.175327 = score(doc=617,freq=2.0), product of:
0.45033762 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06390027 = queryNorm
0.38932347 = fieldWeight in 617, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.030076126 = weight(_text_:und in 617) [ClassicSimilarity], result of:
0.030076126 = score(doc=617,freq=6.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.21221566 = fieldWeight in 617, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.5 = coord(2/4)
- Abstract
- Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
-
Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996)
0.10
0.096119545 = product of:
0.19223909 = sum of:
0.1402616 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
0.1402616 = score(doc=2121,freq=2.0), product of:
0.45033762 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06390027 = queryNorm
0.31145877 = fieldWeight in 2121, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.051977485 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
0.051977485 = score(doc=2121,freq=28.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.36675057 = fieldWeight in 2121, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.5 = coord(2/4)
- Content
- Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.10
0.096119545 = product of:
0.19223909 = sum of:
0.1402616 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.1402616 = score(doc=346,freq=2.0), product of:
0.45033762 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06390027 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.051977485 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.051977485 = score(doc=346,freq=28.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.09
0.0941917 = product of:
0.1883834 = sum of:
0.1402616 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.1402616 = score(doc=6889,freq=2.0), product of:
0.45033762 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06390027 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.048121803 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.048121803 = score(doc=6889,freq=24.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.09
0.0941917 = product of:
0.1883834 = sum of:
0.1402616 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.1402616 = score(doc=1642,freq=2.0), product of:
0.45033762 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06390027 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.048121803 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.048121803 = score(doc=1642,freq=24.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
Schmidt, A.P.: ¬Der Wissensnavigator : Das Lexikon der Zukunft (1999)
0.09
0.09376757 = product of:
0.18753514 = sum of:
0.036753632 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
0.036753632 = score(doc=4315,freq=14.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.25933182 = fieldWeight in 4315, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4315)
0.15078151 = weight(_text_:hyperlinks in 4315) [ClassicSimilarity], result of:
0.15078151 = score(doc=4315,freq=2.0), product of:
0.46692044 = queryWeight, product of:
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.06390027 = queryNorm
0.32292762 = fieldWeight in 4315, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.03125 = fieldNorm(doc=4315)
0.5 = coord(2/4)
- Abstract
- Der Wissensnavigator ist ein Lexikon der Zukunft auf dem Weg zu einer interaktiven Enzyklopädie. Wenn Sie die elektronische Fassung online benutzen, können Sie von den einzelnen Artikeln über Hyperlinks zu Seiten im World Wide Web gelangen, die noch mehr Informationen zum jeweiligen Zukunftsbegriff enthalten. Bei der elektronischen Ausgabe des Wissensnavigators, die auch im Internet zugänglich ist handelt es sich um eine "lebende" Anwendung, die sich gerade auch durch die Mitwirkung der Nutzer weiterentwickelt. Sie sind herzlich eingeladen, zum Teilnehmer dieses Evolutionsprozesses zu werden - etwa, indem Sie neue Begriffe vorschlagen, die aufgenommen werden sollen, oder Experten benennen, die zur Bearbeitung neuer Begriffe in Frage kommen, oder auch sich selbst als Experte zu erkennen geben. Eine Redaktion, die aus dem Autor und einem Expertenteam im Verlag besteht, wird über die Aufnahme neuer Begriffe entscheiden
- BK
- 81.68 / Computereinsatz in Unterricht und Ausbildung
- Classification
- 81.68 / Computereinsatz in Unterricht und Ausbildung
- Content
- Immer öfter verlieren wir die Orientierung im Meer des Wißbaren. Die 256 Begriffe, in denen Artur Schmidts Wissensnavigator die wesentlichen Technologien, Managementgrundlagen, Lebensperspektiven und Werterhaltungen unserer Zeit zusammenfaßt, haben zum Ziel, uns auf Kurs in Richtung Zukunft zu bringen. Artikel zu den wichtigsten neuen Wissensgebieten und Technologien beiten dem Leser einen 'Leitfaden', der durch die Einzeldisziplinen hindurchführt und sie zusammenführt, um daraus eine Perspektive für die Welt von morgen zu entwickeln. Mit Hilfe der beigefügten CD kann das Lexikon der Zukunft auf dem Internet frei schwimmen, ohne dabei seine eigentliche Funktion zu verlieren - eine geistige Landkarte zur Verfügung zu stellen, mit deren Hilfe such zielführend und erfolgreich in Wissensnetzen navigieren läßt
-
Internet: The editor's choice (2002)
0.09
0.0876635 = product of:
0.350654 = sum of:
0.350654 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.350654 = score(doc=1854,freq=2.0), product of:
0.45033762 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06390027 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Widhalm, R.; Mück, T.: Topic maps : Semantische Suche im Internet (2002)
0.09
0.08742121 = product of:
0.17484242 = sum of:
0.024060901 = weight(_text_:und in 731) [ClassicSimilarity], result of:
0.024060901 = score(doc=731,freq=6.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.16977254 = fieldWeight in 731, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=731)
0.15078151 = weight(_text_:hyperlinks in 731) [ClassicSimilarity], result of:
0.15078151 = score(doc=731,freq=2.0), product of:
0.46692044 = queryWeight, product of:
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.06390027 = queryNorm
0.32292762 = fieldWeight in 731, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.03125 = fieldNorm(doc=731)
0.5 = coord(2/4)
- Abstract
- Das Werk behandelt die aktuellen Entwicklungen zur inhaltlichen Erschließung von Informationsquellen im Internet. Topic Maps, semantische Modelle vernetzter Informationsressourcen unter Verwendung von XML bzw. HyTime, bieten alle notwendigen Modellierungskonstrukte, um Dokumente im Internet zu klassifizieren und ein assoziatives, semantisches Netzwerk über diese zu legen. Neben Einführungen in XML, XLink, XPointer sowie HyTime wird anhand von Einsatzszenarien gezeigt, wie diese neuartige Technologie für Content Management und Information Retrieval im Internet funktioniert. Der Entwurf einer Abfragesprache wird ebenso skizziert wie der Prototyp einer intelligenten Suchmaschine. Das Buch zeigt, wie Topic Maps den Weg zu semantisch gesteuerten Suchprozessen im Internet weisen.
- Content
- Topic Maps - Einführung in den ISO Standard (Topics, Associations, Scopes, Facets, Topic Maps).- Grundlagen von XML (Aufbau, Bestandteile, Element- und Attributdefinitionen, DTD, XLink, XPointer).- Wie entsteht ein Heringsschmaus? Konkretes Beispiel einer Topic Map.Topic Maps - Meta DTD. Die formale Beschreibung des Standards.- HyTime als zugrunde liegender Formalismus (Bounded Object Sets, Location Addressing, Hyperlinks in HyTime).- Prototyp eines Topic Map Repositories (Entwicklungsprozess für Topic Maps, Prototyp Spezifikation, technische Realisierung des Prototyps).- Semantisches Datenmodell zur Speicherung von Topic Maps.- Prototypische Abfragesprache für Topic Maps.- Erweiterungsvorschläge für den ISO Standard.
-
Bekavac, B.: Metainformationsdienste des Internet (2004)
0.09
0.0861239 = product of:
0.1722478 = sum of:
0.04031398 = weight(_text_:und in 3936) [ClassicSimilarity], result of:
0.04031398 = score(doc=3936,freq=22.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.28445345 = fieldWeight in 3936, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3936)
0.13193381 = weight(_text_:hyperlinks in 3936) [ClassicSimilarity], result of:
0.13193381 = score(doc=3936,freq=2.0), product of:
0.46692044 = queryWeight, product of:
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.06390027 = queryNorm
0.28256166 = fieldWeight in 3936, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.02734375 = fieldNorm(doc=3936)
0.5 = coord(2/4)
- Abstract
- Diverse Metainformationsdienste, allen voran natürlich die Suchmaschinen, ermöglichen das Auffinden von Informationen im Internet. Diese Aufgabe ist nicht leicht, denn die Problematik liegt nicht nur darin, dass inzwischen Milliarden von Dokumenten über das Internet zugreifbar sind, sondern auch in der hohen Dynamik bezüglich neuer oder geänderter Inhalte, den heterogenen Datenformaten und medialen Formen und uneinheitlich strukturierten Inhalten, einer großen Vielfalt an unterschiedlichen natürlichen Sprachen zur Bildung der textuellen Daten sowie einer hohen Anzahl von Dokument-Dubletten, die u.a. durch das Kopieren (Spiegeln bzw. Mirroring) von Inhalten zu Stande kommen. Die Web-Seiten der zahlreichen Anbieter sind nicht nur inhaltlich umfangreich, sondern auch vom Aufbau her komplex. Oft kommt der Text aus Deutschland, die Grafiken z.B. aus den USA. Die angegebenen Links führen dann nach England oder Japan. Die Quellen der publizierten Informationen spielen dabei nur eine untergeordnete Rolle. Kann man sich bei kommerziellen Online-Datenbanken noch weitgehend sicher sein, dass hinter den Informationsbeständen seriöse und kompetente Produzenten und Anbieter stehen, so ist die Einspeisung von Informationen in das WWW prinzipiell von jeder Person möglich, der Speicherplatz auf einem Web-Server (i.d.R. Provider oder Arbeitgeber) zur Verfügung steht. Beim Betrachten der multimedialen WWW-Dokumente ist die inhaltliche Kompetenz der dahinterstehenden Autoren daher nur schwer abzuschätzen, oft können diese nicht einmal eindeutig bestimmt werden. Von einer Konsistenz im Sinne von Wiederauffindbarkeit, Aktualität oder gar Qualität der Informationsbestände im WWW kann nicht die Rede sein. Inhalte einzelner WWW Seiten oder deren URLs werden laufend verändert bzw. gelöscht. Die zentralen Technologien des WWW, das Übertragungsprotokoll HTTP und die Seitenbeschreibungssprache HTML bieten weder die Möglichkeit einer automatischen Aktualisierung der auf diese Seiten verweisenden Hyperlinks noch kann ein tatsächliches Erstellungs- bzw. Änderungsdatum für die Inhalte der einzelnen Dokumente identifiziert werden. Nützliche formal-inhaltliche Dokumentattribute wie Titel, Autor, Erscheinungsjahr usw. sind im WWW häufig nicht vorhanden oder unzutreffend und sind, wenn überhaupt, nur über die Inhalte der WWW Dokumente selbst ausfindig zu machen. Alle diese Eigenschaften erschweren zusätzlich zu der immensen im Web verfügbaren Dokumentenmenge die Suche und Lokalisierung von Informationen.
Auf der anderen Seite stehen Benutzer, die nach Eingabe weniger Suchbegriffe von den Suchmaschinen wahre Wunder in Form von relevanten Dokumenten erwarten. Jedoch ist die Dokumentmenge, die zu den eingegebenen Suchbegriffen passt, nicht selten so groß, dass es für die Benutzer zu aufwändig wäre sich alles anzuschauen. Die von den Suchmaschinen angewandten Sortierverfahren (Ranking), welche versuchen die relevantesten Dokumente unter den ersten Plätzen der Ergebnisseiten zu platzieren, scheitern zu oft an der großen "Ähnlichkeit" der Dokumente. Alternativ zu den Suchmaschinen können auch Web-Kataloge bzw. -Verzeichnisse verwendet werden, über die ganz bestimmte Interessensgebiete gezielt angesteuert werden können. Der größte Vorteil hierbei ist sicherlich der Kontext der gefundenen Informationen, der sich durch die ausgewählten Rubriken und Sachgebiete während der Navigation widerspiegelt. Nachteilig ist die sehr geringe Abdeckung des weltweiten Informationsraumes, da Kataloge im Gegensatz zu den Suchmaschinen die Quell-Informationen nicht automatisiert beziehen. Ganz anders hingegen Meta-Suchdienste, die selbst weder einen eigenen Index besitzen noch sich Gedanken über eine inhaltliche Strukturierung des Internet machen. Sie befragen ganz einfach andere Metainformationsdienste verschiedenster Art und sehen ihre Leistung in der benutzergerechten Zusammenführung der erhaltenen Treffermengen. Auch wenn die Suchoberflächen der im Internet befindlichen Suchdienste in der Regel mehrere der hier genannten Suchmöglichkeiten anbieten, die dahinter verborgenen Suchverfahren, vor allem die Gewinnung von Metainformationen, sind recht unterschiedlich.
- Source
- Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
-
Blittkowsky, R.: ¬Das World Wide Web gleicht einer Fliege : Studien versuchen zu erklären, warum Suchmaschinen nicht immer fündig werden (2001)
0.09
0.08555912 = product of:
0.17111824 = sum of:
0.03784496 = weight(_text_:und in 2090) [ClassicSimilarity], result of:
0.03784496 = score(doc=2090,freq=38.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.26703218 = fieldWeight in 2090, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2090)
0.13327329 = weight(_text_:hyperlinks in 2090) [ClassicSimilarity], result of:
0.13327329 = score(doc=2090,freq=4.0), product of:
0.46692044 = queryWeight, product of:
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.06390027 = queryNorm
0.2854304 = fieldWeight in 2090, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.3070183 = idf(docFreq=80, maxDocs=44421)
0.01953125 = fieldNorm(doc=2090)
0.5 = coord(2/4)
- Abstract
- Einer möchte wissen, auf welchen Webseiten sein Name vorkommt. Die andere sucht nach den neusten Sportergebnissen. Ein Dritter recherchiert den Wissensstand über Schrödingers Katze. Internetnutzer befragen jede Minute zu Hunderttausenden Suchmaschinen und Webkataloge. Die wurden, seit das Internet zum Masseninedium herangereift ist, zu Info- (Mono-) Polen für den Zugang zur heterogenen Welt des Web. Dahinter steckt viel Arbeit. Die Suchmaschinen schicken unentwegt Roboter und Agenten los, die Seiten lesen - und Inhalte oder Verweise an mächtige Datenbankservermelden. Täglich entstehen mehrere hunderttausend Webseiten; die Zahl der Adressen, die verarbeitet werden müsste, ist mittlerweile auf mehr als eine Milliarde gewachsen. Nicht nur deshalb wird die automatische Recherche zunehmend schwierig. Eine Untersuchung der Firmen Altavista, Compac und IBM, die die Verbindungen auf 500 Millionen Seiten auswertete, ergab: Im WWW wächst ein Bereich heran, den konventionelle Suchtechnologien nicht erfassen können. Das widerspricht früheren Studien, nach denen zwei beliebige Webadressen höchstens 19 Hyperlinks voneinander entfernt liegen - sich prinzipiell also alles finden lässt. Die Forscher um Altavista-Chefwissenschaftler Andrei Broder vergleichen den Aufbau des World Wide Weh mit der Form einer Fliege. Das Netz gliedert sich demnach in vier Bereiche. Etwa ein Drittel der Seiten fügen den zentralen Kein, um den sich die anderen Gebiete lagern. Den Knoten beschreiben die Fachleute als Giant Strongly Connected Components (SCC): Die Seiten sind untereinander eng verknüpft; es bestehen gute Linkverbindungen zwischen den Angeboten; sie sind leicht zu finden. Ein Viertel der Adressen macht eine Schicht aus, die sich als eine Schleife der Fliege sehen lässt. Es handelt sich vorwiegend um Anfangsseiten, Einstiegspunkte zu Webseiten und inhaltlich sortierende Kataloge.
Von dort aus sind die zentralen Seiten im Knoten gut erreichbar. Eine zweite Schleife, ein weiteres Viertel aller Webseiten, bilden die Endpunkte - Angebote ohne Links. Sie sind nur über den Knoten erreichbar. Verbleibt etwa ein Fünftel aller Seiten, die gar nicht oder nur indirekt mit dem Knoten verknüpft sind. Letztere werden als Tendrils bezeichnet. Diese Webangebote basieren beispielsweise auf Datenbanken von Unternehmen, Verbänden oder Organisationen. Sie entstehen erst in den wenn sie abgerufen werden - oft in kryptischen Dateiformaten und mit Animationen, Bildern oder Audiodateien angereichert. Surfer können diese Informationen mit Recherchen in den Webseiten der Schleifen aufspüren. Die Agenten der Suchmaschinen dagegen sind darauf trainiert, ständig verfügbare Dokumente im html-Format zu finden. Ihnen entgeht dieser Teil des World Wide Web. Das US-Softwareunternehmen Bright Planet schätzt, das WWW umfasst 2000-mal so viele Seiten, wie alle Suchsysteme zusammen glauben. Auch wenn sie systembedingt nicht alle Seiten kennen: Insgesamt liefern die automatischen Maschinen mehr Ergebnisse als Kataloge wie Yahoo, Dino-Online oder Looksmart. Deren Macher beschäftigen Redaktionsstäbe, die Inhalte recherchieren, sichten und in die Verzeichnisse einordnen. Webkataloge bauen also auf die humane Intelligenz ihrer Rechercheure, die Themen und Seiten verknüpfen sowie Inhalte kommentieren und einordnen. Yahoo, Lieblingskind der New Economy, bringt es indes gerade einmal auf 15 Millionen katalogisierter Webseiten. Gleichwohl kauft Yahoo bei einigen Themen mancher Suchmaschine den Schneid ab: Eine vorstrukturierte, handverlesene Einarbeitung von Inhalten in die Rubriken eines Katalogs kann genauer Auskunft geben.
Die Spitzenreiter unter den Suchmaschinen sehen sich im Zugzwang, ihren Service zu verbessern. Schließlich sollen die Kunden immer wieder Anfragen starten und damit indirekt die üppigen Werbepreise rechtfertigen. Alltheweb, Google und Altavista erkunden das Netz unterschiedlich. Alltheweb, betrieben vom norwegisch-amerikanischen Unternehmens Fast, setzt bei der Verwaltung der Index-Datenbank auf superschnelle Rechenleistungen und Servertechnologie, damit die richtigen Hyperlinks oben stehen. Etwa 500 Millionen indizierter Webseiten bedeuten für Alltheweb die Pole-Position. Die rein maschinelle Verarbeitung scheint ein gutes Konzept zu sein: Allthewebs Resultatslisten warten mit den besten mehrsprachigen Kommentaren auf. Die Suchmaschine Google, die ihren Namen der Zahl Googol verdankt und eine eins mit hundert Nullen bezeichnet, speichert alle Webseiten lokal auf einer Computerfarm mit 6000 Zentraleinheiten. Sie verwendet ein mathematisches Verfahren, um Webseiten nach inhaltlichen Kriterien zu ordnen. Larry Page und Sergej Brin, die Entwickler des kalifornischen Projekts an der Stanford University, setzen bei der internen Bewertung von Webseiten, dem Page-Ranking, auf die Einschätzungen der Internet-Surfer: Wenn sie einem Verweis auf eine andere Adresse folgen, treffen sie eine intuitive Entscheidung. Sie rufen ein Angebot auf, von dem sie bessere Informationen, eine konkrete Antwort auf ihre Frage erwarten. Page und Brin überlegten, die Summe der Surfentscheidungen kann ihren Inhalt indirekt qualifizieren: Je häufiger eine Webseite ausgewählt wird, desto höher kann ihre Qualität sein - in Bezug auf die inhaltliche Relevanz hinsichtlich eines Themas. Mit einem komplizierten Bewertungsverfahren filtern die Datenbankserver von Google permanent und ohne menschliches Zutun die Entscheidungen unzähliger Surfer Die Ergebnisse von Google gehören nachweisbar zu den besten, die Maschinen weltweit bieten. Altavista ist schon lange im Geschäft. Auch die Manager dieses Unternehmens setzen auf einen hohen technologischen Aufwand. Sie schicken Suchroboter, genannt Scooter, los, die Tag für Tag ungefähr 24 Millionen Dokumente überprüfen und gegebenenfalls der Datenbank hinzufügen. Das entspricht einer Kapazität von 800 DIN-A4-Seiten pro Sekunde. Die Datenbank erfasst alle Worte eines Dokuments. Der Vorteil der Volltext-Indizierung ist offenkundig: Jedes Dokument kann theoretisch auf Grund eines darin enthaltenen Worts sekundenschnell gefunden werden. Altavista kennt 50 Millionen deutschsprachiger Webseiten. Als Spezialität findet sie auch Produktinformationen und Markenbezeichnungen - und sicher auch das Neueste zu Schrödingers Katze
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.08
0.08152144 = product of:
0.16304287 = sum of:
0.1227289 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
0.1227289 = score(doc=6206,freq=2.0), product of:
0.45033762 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06390027 = queryNorm
0.2725264 = fieldWeight in 6206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.04031398 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.04031398 = score(doc=6206,freq=22.0), product of:
0.14172435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06390027 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.5 = coord(2/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."