Search (13210 results, page 4 of 661)

  1. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.10115033 = product of:
      0.4046013 = sum of:
        0.4046013 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.4046013 = score(doc=2035,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  2. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.10115033 = product of:
      0.4046013 = sum of:
        0.4046013 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.4046013 = score(doc=2050,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  3. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.10098856 = product of:
      0.20197712 = sum of:
        0.16858388 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.16858388 = score(doc=729,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.033393238 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.033393238 = score(doc=729,freq=8.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  4. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.09946322 = product of:
      0.19892643 = sum of:
        0.1348671 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.1348671 = score(doc=2567,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.06405933 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.06405933 = score(doc=2567,freq=46.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  5. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.098751634 = product of:
      0.19750327 = sum of:
        0.16858388 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.16858388 = score(doc=617,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.028919391 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.028919391 = score(doc=617,freq=6.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  6. Ovid announces strategic partnerships : Java-based interface (1997) 0.10
    0.09536544 = product of:
      0.38146177 = sum of:
        0.38146177 = weight(_text_:java in 397) [ClassicSimilarity], result of:
          0.38146177 = score(doc=397,freq=4.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.8809384 = fieldWeight in 397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=397)
      0.25 = coord(1/4)
    
    Abstract
    Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
  7. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.09242276 = product of:
      0.18484552 = sum of:
        0.1348671 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.1348671 = score(doc=2121,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.049978416 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.049978416 = score(doc=2121,freq=28.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  8. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.09242276 = product of:
      0.18484552 = sum of:
        0.1348671 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.1348671 = score(doc=346,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.049978416 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.049978416 = score(doc=346,freq=28.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  9. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.090569064 = product of:
      0.18113813 = sum of:
        0.1348671 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.1348671 = score(doc=6889,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.046271026 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.046271026 = score(doc=6889,freq=24.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  10. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.090569064 = product of:
      0.18113813 = sum of:
        0.1348671 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.1348671 = score(doc=1642,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.046271026 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.046271026 = score(doc=1642,freq=24.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  11. Herwig, O.: ¬Die Arche mit dem Leck : Ein Abgesang auf die Institution Bibliothek (2011) 0.09
    0.08765459 = product of:
      0.17530918 = sum of:
        0.05078078 = weight(_text_:und in 611) [ClassicSimilarity], result of:
          0.05078078 = score(doc=611,freq=74.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.37263846 = fieldWeight in 611, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=611)
        0.12452841 = weight(_text_:heben in 611) [ClassicSimilarity], result of:
          0.12452841 = score(doc=611,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.23660383 = fieldWeight in 611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.01953125 = fieldNorm(doc=611)
      0.5 = coord(2/4)
    
    Abstract
    Das Internet verändert alles. Erst traf es Enzyklopädien, die unter dem Ansturm von Wikipedia verschwanden, dann folgten normale Bücher, aufgesaugt von digitalen Plattformen und dem iPad. Ein Abgesang auf die Institution Bibliothek.
    Content
    "Von "Peak Oil" muss kein Autofahrer gehört haben, er spürt dessen Bedrohung, wenn er an der Zapfsäule über steigende Preise flucht und ahnt, dass wir am Gipfel des fossilen Zeitalters stehen. Bald könnte der Schreckensruf "Peak Book" unter Bibliophilen erschallen. Denn womöglich überschreiten wir gerade den Höhepunkt der traditionellen Buchkultur. Das Internet verändert alles. Erst traf es Enzyklopädien, die unter dem Ansturm von Wikipedia verschwanden, dann folgten normale Bücher, aufgesaugt von digitalen Plattformen und dem iPad. Nun könnten ganze Bibliotheken folgen, die Gedächtnisse unserer Zivilisation. Das jedenfalls insinuiert die seltsam melancholische Ausstellung "Die Weisheit baut sich ein Haus. Architektur und Geschichte von Bibliotheken" in der Pinakothek der Moderne. Mit einer Phalanx von Folianten, Plänen, Modellen, Fotos und Filmen stimmt das Architekturmuseum der Technischen Universität München einen Abgesang an auf die Welt der Büchereien, der Ausleihschalter und Kataloge. Die Bibliothek als Arche, dahinter steht die Angst, im Mahlstrom des Netzes unterzugehen, das erst alles Wissen verschlingt und später in wohl dosierten Bits und Bytes kommerziell verwertet.
    Zwischen Wissensspeicher Bibliothek und Geldspeicher Suchmaschine liegt freilich mehr als ein Knopfdruck. Die kluge Schau eröffnet zunächst ein Panorama der Ideen-Geschichte. Vom digitalen Epochenschnitt geht der Blick zurück zur historischen "Strukturierung und architektonischen Verfestigung des Wissens". Bezeichnenderweise fragt die Ausstellung an dieser Stelle weniger nach der Korrespondenz von Herrschaft und Wissensmonopol, sondern allgemein, wie gesellschaftlicher Fortschritt und gesellschaftliche Wissenskonservierung voranschreiten. Bibliotheken sind zweifellos der Versuch, die chaotische Welt zu ordnen und ihr ein anderes, ein aufklärerisches Antlitz zu verleihen. In der Systematik der Kataloge, die wiederum ein Abbild der jeweiligen Hierarchie des Wissens bilden, wird aus dem zerstreuten Einzeltitel ein kultureller Baustein. Vielleicht 70000 Bände umfasste die Bibliothek von Alexandria. Sie avancierte zum Symbol der allumfassenden, absoluten Sammlung, nur dass sich bezeichnenderweise kein Überrest und auch kein Bild von ihr erhalten hat, nur eine dürre Beschreibung bei Strabo. Ihr Untergang wirft ein bezeichnendes Licht auf die weiteren Bemühungen, den Wissensbergen Herr zu werden, die nach dem Ende der antiken Bibliotheken in mönchischen Schreibstuben zunächst konserviert werden, um mit der Renaissance erneut zu wachsen.
    Nach Jahrhunderten kultureller Sammelwut entsteht in der Frühen Neuzeit ein Gebäudetyp, der dem Wandel der Wissenskultur Rechnung trägt: die moderne Bibliothek. Sie vereint Geist und Hülle, Schönheit und Systematik. Hier liegt die Stärke dieser Ausstellung, die mit wunderbaren Modellen und Plänen Meisterstücke von Michelangelo über Étienne-Louis Boullée bis hin zu Dominique Perrault plastisch vor Augen führt und somit den Typus Bibliothek erklärt, einsichtig macht, wie sich etwa das Verhältnis zwischen Lesesaal und Magazin wandelt und was der enorme Wissenszuwachs für das Gebäude bedeutet, in der Bildung ausgestellt und zugänglich gemacht werden soll. Mit dem Nationalstaatsgedanken wächst im Buchspeicher eine andere Spielart kultureller Einheit. Nationalbibliotheken in London, Paris und Washington wurden zum Spiegel nationaler Produktivität, ihre Kuppellesesäle konfrontierten die Wissbegierigen mit der Expansion der Wissenssphäre, welche bald schon die Möglichkeiten der Kataloge und Lager überstieg. So sehr auch Etats und Magazine wuchsen, sie konnten nicht mehr Schritt halten mit der Produktion. Weltwissen war plötzlich nicht mehr unter einen Hut (oder eine Rotunde) zu kriegen, es war auch kaum mehr zu indizieren, wie es die fiktiven Bibliothekare von Umberto Ecos "Name der Rose" versuchten, Weltwissen hatte stets auch revolutionären Charakter.
    Wer die Gesellschaft aus den Angeln heben will, muss erst die Kräfte verstehen, die sie zusammenbinden. Karl Marx war so ein Suchender in den Bücherbergen der British Library. Moderner erscheint aber heute Benjamins in der Pariser Nationalbibliothek geschaffenes "Passagenwerk". Das Ganze ist verloren wie die Bibliothek von Alexandria, was bleibt, sind Fragmente. Angst ist ein guter Baumeister. Das Wesen der Bibliothek ist wehrhaft. Wissen soll gesichtet, gesichert, vielleicht gar gerettet werden. Konrad Gessner betreibt seine 1545 erschiene Bibliographie "Bibliotheca universalis" aus der Furcht, das Wissen gehe sonst womöglich verloren und mit ihm die Kultur. Wer sich so umsieht in der Ausstellung und sich durch das gewichtige Katalogbuch arbeitet, erhält einen ähnlichen Eindruck. Hier wird ein Epitaph verfasst für eine fragil gewordene Kulturleistung, eine leckgeschlagene Arche. Wie Mehltau legt sich über die Ausstellung die Angst vor der virtuellen Welt ortloser Datenströme: Aus der örtlichen und geistigen Sammlung, dem Zwiegespräch zwischen Leser und Autor wird Zerstreuung, aus größtmöglicher Konzentration an einem Punkt räumliche Entgrenzung und geistige Diffusion. Das zeigt sich an neueren Bibliotheksbauten, die ihre Form verlieren und als spektakuläre Amöben oder kantig zersplitterte Wissensberge in den Städten stehen. Wer braucht noch Studierzimmer und Lesesaal, der über Breitbandinternet und WLAN verfügt? Nach dieser Lesart wird der überall feststellbare Neubauboom der letzten Jahrzehnte zum "letzten Aufbäumen" (Winfried Nerdinger) vor der endgültigen Digitalisierung. Eine düstere Aussicht für all jene, die ihre Sozialisierung im Lesesaal der Universitäten erfuhren, die Bücher als überzeitliche Kulturgüter schätzen und denen Lesen mehr bedeutet als schneller Informationsgewinn.
    Was aber bedeutet Bibliothek heute? Wer etwa die wunderbar offene und leutselige Stadtbücherei von Amsterdam erlebt hat, ahnt, warum inzwischen auch in der Stadtteilbibliothek München-Pasing eine Espressomaschine steht. Büchereien wandeln sich zu Wohlfühlorten, auch wenn Kritiker darauf verweisen, dass sie immer noch weniger bildungsfernen Familien dienen als bürgerlichen Bildungsfreunden zur Selbstvergewisserung. Doch davon schweigt die Ausstellung. So beschleicht einen das Gefühl, dass diese gelehrte Schau vor allem der Welt analoger Wissensdarstellung nachtrauert. Bücher mögen verschwinden und später als digitale Schatten wiederauferstehen. Datenströme und digitale Medien mögen die Wissenschaftslandschaft verändern, die Institution Bibliothek mag sich wandeln. Sie wird sich weiter öffnen müssen. Die beste Sicherung ist womöglich keine aus Mauern, ahnte schon Gessner, sondern eine aus Seiten, und diese können auch digital sein. Am Ende der Ausstellung steht wieder ein Buch. 416 Seiten hat es, gebunden, ein schönes Nachschlagewerk mit klugen Gedanken, ein Wälzer für die heimische Bibliothek, sofern sie über Ordnung verfügt. Für alle anderen bedeutet das Werk womöglich nur ein fast anderthalb Kilo mächtiges Umzugserschwernis."
  12. Tsai, B.-s.: Infomapping in information retrieval (1997) 0.09
    0.087598756 = product of:
      0.35039502 = sum of:
        0.35039502 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
          0.35039502 = score(doc=3877,freq=6.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.8091937 = fieldWeight in 3877, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3877)
      0.25 = coord(1/4)
    
    Abstract
    Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
  13. Internet: The editor's choice (2002) 0.08
    0.08429194 = product of:
      0.33716777 = sum of:
        0.33716777 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.33716777 = score(doc=1854,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  14. Hawk, J.: OCLC SiteSearch (1998) 0.08
    0.08344476 = product of:
      0.33377904 = sum of:
        0.33377904 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
          0.33377904 = score(doc=3079,freq=4.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.7708211 = fieldWeight in 3079, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3079)
      0.25 = coord(1/4)
    
    Abstract
    Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
  15. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.08
    0.08344476 = product of:
      0.33377904 = sum of:
        0.33377904 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
          0.33377904 = score(doc=2673,freq=4.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.7708211 = fieldWeight in 2673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2673)
      0.25 = coord(1/4)
    
    Abstract
    The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
  16. Hosbach, W.: Suche: Nadel : Desktop-Suchmaschinen (2006) 0.08
    0.082282744 = product of:
      0.16456549 = sum of:
        0.040037084 = weight(_text_:und in 5730) [ClassicSimilarity], result of:
          0.040037084 = score(doc=5730,freq=46.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.29379928 = fieldWeight in 5730, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5730)
        0.12452841 = weight(_text_:heben in 5730) [ClassicSimilarity], result of:
          0.12452841 = score(doc=5730,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.23660383 = fieldWeight in 5730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5730)
      0.5 = coord(2/4)
    
    Content
    "Manche Menschen halten auf ihrer Festplatte penibel Ordnung. Bei anderen sieht es so aus: E-Mails, Text-Dokumente, Bilder und Musik-Stücke wabern in verschiedenen Formaten zwischen den Ordnern und Festplatten hin und her. Da gibt es E-Mails in Outlook, News und Blogs in Thunderbird, Briefe in Word, Berichte in PDF, Adressen in den Kontakten und weitere in einer Excel-Tabelle. Die Musik liegt teilweise auf einer externen Festplatte, andere Stücke befinden sich noch im Tauschordner. Bilder sehen im TWAIN-Ordner dem ewigen Vergessen entgegen. Manche Informationen wurden nie aus den Anhängen der Mails gelöscht, andere verschickt und dann gelöscht. Wenn Ihre Festplatte diesen Zustand erreicht, hilft Ihnen nur noch eine Suchmaschine für den Desktop. Dann können Sie sich das schlechte Gewissen, weil Sie nicht aufgeräumt haben, künftig schenken. Das bekannteste Tool dieser Art ist Google Desktop. Doch unser Test zeigt, dass es einige weitaus bessere gibt, die ebenfalls kostenlos sind. Ein gutes Tool sollte Folgendes können: so viele Formate wie möglich erkennen und durchsuchen; einen Index anlegen, der das Suchen beschleunigt; Ergebnisse ansprechend präsentieren; und merken, wenn etwas Neues hinzukommt. Schon bei den unterstützten Formaten gibt es erhebliche Unterschiede. Thunderbird-Freunde finden in Copernic das beste Tool, da es auch dessen News- und Blogordner indiziert. Für Outlook-Freaks hingegen ist X1 die beste Wahl, denn es findet alle PST-Archive auf der Platte, auch die, die nicht mehr im OutlookOrdnerbaum hängen. Der Hersteller von X1 bietet auch eine Notes-Version, die wir nicht getestet haben.
    Komplett vermisst in allen Tools haben wir die Unterstützung von Access. Ein Sprecher von X1 beteuerte, das Tool verstehe Access bis zur Version 2. Das haben wir nicht nachgeprüft (nur Access 2003). Oft stellten wir Probleme mit Umlauten fest. Blinkx verzichtet komplett auf alles, was nicht Englisch ist. Früher gab es eine deutsche Version, und eine Sprecherin versicherte, es soll bald eine internationale folgen, die auch Deutsch beherrscht. Die vorliegende 3.5 ist hierzulande jedenfalls nicht zu verwenden. Copernic versteht keine Umlaute in HTML-Seiten, da diese als &xyz; vorliegen: K&uuml; statt Küche. Auch hier soll die nächste Version Abhilfe schaffen. In unserem letzten Test hatte Google ähnliche Probleme, das ist aber nicht mehr der Fall. Dafür filtert es HTML-Tags nicht richtig: z.B. Fe<b>tt<lb> findet es nicht als Fett sondern F ett. Der Anwender sollte sich genau klar machen und prüfen, in welchen Formaten seine Daten vorliegen. Das Suchtool sollte alle unterstützen. In den Index Nach der Installation stellt derAnwenderbei den meisten Tools ein, welche Ordner und Mail-Programme es in den Index einbeziehen soll. Dann beginnt der Indexer mit derArbeit, was je nach Größe einige Stunden dauern kann. Der fertige Index ist sozusagen eine Karte der Daten. Erenthält alle suchbaren Begriffe und den zugehörigen Dateinamen, wie ein Register der Festplatte. In diesem findet sich ein Suchbegriff viel schneller, als wenn das Tool jede Datei öffnen müsste. Google macht es sich besonders einfach: Es bricht die Indizierung bei etwa lOOk ab. Das konnten wir bei mehreren Dateiformaten (RTF, DOC, HTML) feststellen. Die erste Hälfte ist suchbar, die zweite nicht. Dieses Verhalten macht im Web sicher Sinn, den die ersten Seiten eines Dokuments geben Aufschluss über den Inhalt, nach dem der Anwender später sucht. Auf seinem Desktop sucht der An wender oft aber anders. Er hat eine ganz bestimmte Info, deren Ort erfin den möchte. Dazu müssen die Dokumente im Indexvollständig abgebildet sein. Google gab keine Stellungnahme dazu ab.
    Die Aktualisierung des Indexes geschieht meist in Echtzeit. Sobald eine Datei oder Mail geöffnet und geändert wird, registriert dies das Tool. Google und Copernic sind hier sehr sicher. Damit die Aktualisierung auch in Echtzeit stattfindet, muss das Tool mit einer gewissen Priorität arbeiten, was man bei den meisten regeln kann. Sonst registriert es zwar die Änderung, bringt sie aber erst in den Index ein, wenn der Rechner im Leerlauf ist. Damit ist es jedoch nicht getan. In regelmäßigen Abständen muss ein Suchtool den gesamten index prüfen, falls sich Änderungen ergeben haben, die es nicht mitbekommen hat (z.B. Kopien über das Netzwerk). Günstig ist es, wenn derAnwender das Intervall selbst einstellen kann. X1 verzichtet komplett auf eine automatische Anpassung. Bei Copernic funktioniert sie nur mit Outlook, nicht hingegen mit Thunderbird. In diesen Fällen sollte der Anwender das Intervall entsprechend kurz hatten. Meist kann man auch mit einem Befehl den Index sofort komplett neu einlesen. Das ist nach größeren Kopierund Löschmaßnahmen sinnvoll. Zur Suche Nach dem Start des Programms öffnet sich das Suchfenster. Am schnellsten kommt der Suchende mit einer inkrementellen Suche zum Ergebnis. Ergibt den ersten Buchstaben ein, und sofort erscheinen Ergebnisse - erst einmal zu viele. Aber nach dem zweiten oder dritten Buchstaben wird die Ergebnisliste oft schon so kurz, dass das Gesuchte dabei ist. Copernic und X1 beherrschen das perfekt. Die Suchtools mit einer benutzerfreundlichen Oberfläche berücksichtigen in der Such- und Ergebnismaske die verschiedenen Dateiformate. Bei der Suche nach einer Mail sucht der Anwender nach einem Absender, fahndet er hingegen nach einem Musikstück, so ist der Interpret wichtig. Das Tool sollte daher die MP3-Metadaten auslesen können. Viele Tools heben noch Favoriten, Verlauf oder Kontakte hervor. Eine Suchmaske, die die einfachen Operatoren nicht beherrschtsei es +/- oderAND/NOT- wird schnell ärgerlich (z.B. Superior Search in der Indexsuche). MSN bietet als einziges Toot die Möglichkeit, das Ende eines Wortes zu finden: *oskana. Bei der Präsentation erwarten wir ein Vorschaufenster, das die Suchbegriffe hervorhebt und gleich zur ersten Fundstelle springt. Auch hierbei ist Google Desktop unterlegen. Denn es zeigt die Ergebnisse in einer Websei te - ä la Google eben. Doch damit gibt es wenige Möglichkeiten, die Suche thematisch einzuschränken und dateispezifische Angaben zu machen. Ferner fehlt eine Vorschau komplett, nur bei E-Mails öffnet sich ein eigenes Fenster. Deutlich überlegen sind da eigenständige Tools. Absolut spitze in der Darstellung ist Copernic. Es gruppiert die Ergebnisse z.B. nach Datum: heute, gestern, vor zwei Wochen, letztes Jahr... X1 und MSN bleiben bei strengen Tabellen, die sich nach allen Spalten sortieren lassen und dafür eine Vielzahl an Informationen beinhalten. MSN verzichtet leider auf die inkrementelte Suche und auf ein Vorschaufenster, das den ersten Suchbegriff anspringt. Ordnung ist eine Frage des Aufräumens. Auf dem Desktop aber reicht es aus, wenn ein Tool diese Ordnung aufrecht hält, zumindest in seinem Index. Dann ist Wiederfinden auch ohne Aufräumen möglich. Schade, dass das auf dem Schreibtisch nicht funktioniert ... oder im Kinderzimmer..."
  17. Charisius, H.: Gängige Suchmaschinen übersehen weite Bereiche des Internet, neue Dienste helfen beim Heben der Info-Schätze : Mehr drin, als man denkt (2003) 0.08
    0.081392586 = product of:
      0.16278517 = sum of:
        0.038256757 = weight(_text_:und in 2721) [ClassicSimilarity], result of:
          0.038256757 = score(doc=2721,freq=42.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.28073493 = fieldWeight in 2721, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2721)
        0.12452841 = weight(_text_:heben in 2721) [ClassicSimilarity], result of:
          0.12452841 = score(doc=2721,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.23660383 = fieldWeight in 2721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2721)
      0.5 = coord(2/4)
    
    Abstract
    Unendlich weit. Über Jahrzehnte wuchs das Internet zum Wissenskosmos. Neue Suchstrategien erschließen Nutzern die verborgenen Informationen. Mit Bezugnahme auf das Invisible Web (Grafik) und Stellungnahmen von W.G. Stock (Bild), W. Sander-Beuermann (MetaGer) (Bild) u. M. Henzinger (google.de) (Bild)
    Content
    "Wenn Chris Sherman über das Internet spricht, schweift er mitunter ab zu den Sternen. "Wie das Universum ist auch das Web voll dunkler Materie", sagt der Suchmaschinenexperte aus Los Angeles. "Die Astronomen erzählen uns, dass selbst das stärkste Teleskop höchstens zehn Prozent der Himmelskörper im All aufspüren kann. " Der Rest sei dunkel und somit unsichtbar. Genauso verhalte es sich mit Informationen im Web. "Das meiste Wissen", so Sherman, "bleibt selbst den besten Suchmaschinen verborgen." Höchstens ein Zehntel des Internet können die digitalen Spürhunde durchwühlen. Der Rest bleibt unter der Oberfläche im so genannten Deep Web verborgen, verteilt auf Datenbanken, Archive und Foren, oder treibt unverlinkt im Info-Meer - unerreichbar für Suchmaschinen. Eine Studie von Brightplanet, einer US-Firma für Suchtechnologie, rechnet vor, dass im Deep Web 400- bis 550-mal mehr Daten liegen als im oberflächlichen Surface-Web, in dem Google & Co. fischen können." Wenn Informationen die wichtigste Ware im 21. Jahrhundert sind, dann ist das tiefe Web unschätzbar wertvoll", sagt Michael Bergman aus dem Brightplanet-Vorstand. Um ihren Index zu pflegen und zu erweitern, schicken Suchmaschinen ihre Spione, so genannte Spider oder Crawler, durchs Netz. Diese Software-Roboter hangeln sich von Link zu Link und speichern jede neue Seite, die sie erreichen. "Millionen unverlinkter Web-Auftritte oder dynamisch aus Datenbanken erzeugte Dokumente gehen ihnen dabei durch die Maschen", schätzt Wolfgang Sander-Beuermann, Leiter des Suchmaschinenlabors der Uni Hannover. Andere Seiten sperren die Agenten bewusst aus. Ein versteckter Hinweis oder eine Passwortabfrage blockt die Spider ab, zum Beispiel am Eingang zu Firmen-Intranets. An manche Inhalte kommen die Spider nicht heran, weil sie mit deren Datenformat nichts anfangen können: Musikdateien, Bilder und Textdokumente sind schwer verdauliche Brocken für die Agenten, die auf den Internet-Code HTML spezialisiert sind. Den größten Teil des Deep Web füllen "Datenbanken mit gesichertem und für jedermann zugänglichem Wissen", weiß Netz-Ausloter Sherman, der zusammen mit dem Bibliothekar und Informationsspezialisten Gary Price in dem Buch "The Invisible Web" die Tiefenregionen des Internet erstmals für die breite Masse der Anwender sichtbar macht. Zu den wertvollsten Informationsquellen zählen kostenlose Archive, die Kataloge öffentlicher Bibliotheken, Datenbanken von Universitäten, Behörden, Patentämtern oder des Statistischen Bundesamts, ferner Newsgroups, das sind themenspezifische Schwarze Bretter im Netz, und digitale Produktkataloge. "Die Suchmaschinen können nicht in diesen Schätzen stöbem, weil sie erst gar nicht hineingelangen", erklärt Sherman. Vor dem Zugriff zum Beispiel auf das kostenlose Archiv von FOCUS muss der Nutzer per Eingabemaske nach Schlagwörtern recherchieren. Die Crux für Google & Co. bringt Sherman auf den Punkt: "Sie können nicht tippen" -und müssen deshalb draußen bleiben. Dasselbe Spiel beim größten deutschen Buchkatalog: Die digitalen Fahnder finden ihn zwar und führen den Suchenden zur Deutschen Bibliothek unter www.ddb.de. In dem Verzeichnis, das über acht Millionen Druckerzeugnisse listet, muss der Gast dann selbst weitersuchen. Für Suchmaschinen ist der Index unsichtbar. Auch an der gezielten Recherche nach Albert Einsteins Lebenslauf scheitern automatische Findhilfen. So meldet Google zwar 680 000 Treffer für Albert Einstein. Nur die Vita, die neben 25 000 weiteren im Archiv von www.biography.com liegt, findet der beliebte Generalist nicht.
    Auch an die Daten der Flugverbindungen zwischen Berlin und New York kommt Google nicht heran. Die spuckt hingegen www.trip.com binnen Sekunden inklusive Preisen und Buchungsmöglichkeit aus. Um solche Quellen künftig anzuzapfen, verfolgen Suchdienste unterschiedliche Strategien. Die in South Dakota ansässige Firma Brightplanet katalogisiert unter der ambitionierten Adresse www.completeplanet.com nach eigenen Angaben 103 000 Datenbanken und Spezialsuchmaschinen. Dazu verkauft das Unternehmen den Rechercheautomaten Lexibot, ein kleines Programm, das mehr als 4300 Wissenssammlungen auf einen Rutsch abfragen kann. Andere Hersteller bieten ähnliche Software-Agenten, die im Deep Web schürfen (s. Kasten). Auch die klassischen Suchhilfen dringen in immer tiefere Regionen vor. Der deutsche Anbieter Acoon liefert testweise Links zu Musikdateien in der Tauschbörse eDonkey in der Trefferliste. Wolfgang Sander-Beuermann entwickelt derzeit mit Kollegen im Hannoveraner Suchmaschinenlabor das forschungsportal.net "für das deutsche Hochschulwissen, das bei den beliebten Allzwecksuchern in der Treffermasse untergeht", so Sander-Beuermann. Branchenprimus Google kann seit geraumer Zeit News von 4000 ausgewählten Nachrichtenquellen abgreifen, Textdokumente lesen, Fotos und Grafiken finden und in einem riesigen Archiv nach Newsgroups-Einträgen fahnden. "Das Archiv unter groups.google.com beherbergt Foren zu fast jedem denkbaren Thema", erklärt Suchspezialist Sander-Beuermann. "Immer wenn ich im Web nicht weiterkomme, suche ich in diesem Teil des Internet." Den jüngsten Coup landete der beliebte Dienst, der inzwischen fast 3,1 Milliarden Dokumente erfasst hat, vor einigen Tagen mit dem auf Produkte spezialisierten Zusatzangebot froogle.com. "Wir haben Froogle auf vielfachen Wunsch unserer Nutzer entwickelt", erzählt die Leiterin der Google-Forschungsabteilung Monika Henzinger. Auch Konkurrent Altavista fahndet nach Musikdateien, Fotos, Videos und Nachrichten. Eine viel versprechende Strategie verfolgt auch Northem Light. Der Dienst durchsucht gleichzeitig den von Spidem erstellten Index und ausgewählte Spezialdatenbanken. "Solche Hybride vereinigen die unterschiedlichen Welten des Web, ein sinnvoller Ansatz", meint Wolfgang Stock, Professor für Informationswissenschaft an der Uni Düsseldorf und FH Köln. Leider sei der Index teilweise veraltet und recht klein, klagt der Computerexperte, der mit seinen Studenten die Qualität von Suchmaschinen untersucht hat. Den Umfang des in Datenbanken schlummernden Wissens schätzt Stock nüchterner ein als Michael Bergman von Brightplanet: "Das Unternehmen hat nicht die einzelnen Dokumente ausgewertet, sondem den benötigten Speicherplatz ermittelt." Wenn man sich an der Zahl der Datensätze orientiere, sei "deren Größenschätzung wahrscheinlich zehnmal zu hoch", kalkuliert Stock. Solange die meisten Suchdienste nur den kleineren Teil des Internet im Blick haben, bleibt der Expertenstreit über die Größe des gesamten Netzes folgenlos. "Trotz aller Verbesserungen kann keine Suchmaschine alle Anfragen gleichermaßen gut beantworten", sagt der Berliner Suchmaschinenspezialist und Betreiber des Ratgebers at-web.de, Klaus Patzwaldt. "Dazu müssten Computer so intelligent wie Menschen sein." "
  18. Time, quantum and information (2003) 0.08
    0.07843064 = product of:
      0.15686128 = sum of:
        0.032332864 = weight(_text_:und in 3900) [ClassicSimilarity], result of:
          0.032332864 = score(doc=3900,freq=30.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.23726434 = fieldWeight in 3900, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3900)
        0.12452841 = weight(_text_:heben in 3900) [ClassicSimilarity], result of:
          0.12452841 = score(doc=3900,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.23660383 = fieldWeight in 3900, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3900)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2004, H.11., S.92-96 (S. Stier): "Nach Einsteins Allgemeiner Relativitätstheorie gibt es im Kosmos Objekte von so ungeheurer Gravitationskraft, dass aus ihrem Inneren keinerlei Informationen, auch nicht in Form von Licht, nach außen dringen können; sie werden deshalb als Schwarze Löcher bezeichnet. Eines der vielen Rätsel, die sie umgeben, war lange Zeit die Größe ihrer Entropie (siehe »Das holografische Universum« von Jacob Bekenstein, Spektrum der Wissenschaft 11/ 2003, S. 34). Nach der herkömmlichen Definition ist die Entropie ein Maß für den Informationsgehalt eines Objekts; sie berechnet sich aus der Zahl seiner inneren Zustände, in denen es dieselben Eigenschaften hat. Damit hängt sie davon ab, welche Eigenschaften man zur Beschreibung des Objekts wählt und wie detailliert man seine inneren Zustände beschreibt. Entropie und Information sind also relative, vom Kontext einer bestimmten Beschreibung abhängige Maße. je detaillierter die Beschreibung seiner inneren Zustände, desto größer die Entropie. Nicht so bei einem Schwarzen Loch: Da es alle Informationen über sein Inneres verbirgt, ist seine Entropie die Obergrenze für alles, was man überhaupt darüber wissen könnte, unabhängig von irgendwelchen Modellen seiner Struktur. Information wird damit zu einer unabhängigen Eigenschaft eines Objekts und zu einer absoluten physikalischen Größe. Das ist ein radikaler Bruch im Verständnis von Information. Mit Hilfe der von Bekenstein vor dreißig Jahren angegebenen Formel kann man berechnen, wie die Entropie eines Schwarzen Lochs von der Größe unseres Universums dadurch zunimmt, dass von außen ein Proton hineinstürzt. Diese Änderung lässt sich als der Informationsgehalt des Protons selbst interpretieren: Es sind 10**40 Bit, ein Wert, der im Rahmen der etablierten Physik eigentlich nicht erklärbar ist.
    Zu genau diesem Ergebnis war schon einige Jahre zuvor Carl Friedrich von Weizsäcker auf völlig anderem Weg gekommen. Die von ihm entwickelte Urtheorie ist der radikale Versuch, die gesamte Naturwissenschaft, mit der Quantentheorie an der Spitze, auf den Informationsbegriff zurückzuführen: Ure sind nichts weiter als die Quantenbits (»Qubits«), die im Zusammenhang mit den Quantencomputern zu Ehren gekommen sind. Dabei setzt die Urtheorie nicht einmal die Struktur des Raumes voraus; diese ergibt sich erst aus der Verknüpfung der kleinsten Informationseinheit, der Entscheidung zwischen zwei Möglichkeiten, und der Quantentheorie. Bis heute ist die Urtheorie ein Fragment geblieben; so ist es nicht gelungen, eine Theorie der Wechselwirkung der Ure zu entwickeln, die schließlich zu einer Theorie der Elementarteilchen führen sollte. Der vorliegende Sammelband ist von Weizsäcker zu seinem 90. Geburtstag gewidmet; die sehr wenigen Forscher, die an der Urtheorie weitergearbeitet haben, kommen in mehreren Beiträgen zu Wort. Der Frankfurter Physiker Thomas Görnitz fasst seine eigenen einschlägigen Arbeiten zusammen. Dazu gehört die oben genannte Verknüpfung der Entropie Schwarzer Löcher mit der Urtheorie, die für Görnitz die »zentrale Anbindung« an die etablierte Physik ist. Ausgehend von den heute bekannten Größenordnungen für Radius und Dichte des Universums kommt er zu Abschätzungen für die Entropie des gesamten Universums und die Anzahl der darin enthaltenen Nukleonen und Photonen, die nach seiner Aussage mit den empirisch bekannten Daten gut übereinstimmen. Das gelte auch für die Energie der Photonen im Universum, der so genannten » kosmischen Hintergrundstrahlung«. Die Verknüpfung der Urtheorie mit der Allgemeinen Relativitätstheorie führe zu einem plausiblen kosmologischen Modell, in dem sich die extreme Kleinheit der »kosmologischen Konstanten«, der Vakuumenergie des Kosmos, in natürlicher Weise ergebe. Für die etablierten Theorien stelle dies ein erhebliches Problem dar.
    Während sich die Beiträge zur Urtheorie an Spezialisten wenden, finden sich zu anderen Arbeitsgebieten von Weizsäckers eher allgemeinverständliche Darstellungen: Astro- und Kernphysik mit den thermonuklearen Prozessen in Sternen und der Entstehung der Planetensysteme sowie die Philosophie der Naturwissenschaft und der Zeit - alles in der für solche Festschriften typischen bunten Mischung. Hervorgehoben sei die Darstellung des Hamburger Friedensforschers Götz Neuneck zur deutschen Atomforschung während des Zweiten Weltkriegs und zu den nachfolgenden Bemühungen internationaler Wissenschaftler, die Institution des Kriegs nach dem Bau der Atombombe abzuschaffen. In beiden hat von Weizsäcker eine herausragende Rolle gespielt. Ein wichtiges Thema des Buchs sind die Grundlagen der Quantentheorie. Mit der Charakterisierung von Objekten durch Information ist die Urtheorie eine radikale Weiterführung der »Kopenhagener Deutung«, jener orthodoxen, aber von vielen Physikern nur mangels einer überzeugenden Alternative akzeptierten Interpretation der Quantentheorie. Ein seit deren Anfängen andauernder Streit geht darum, ob die Wellenfunktion, die Wahrscheinlichkeiten für Messergebnisse vorhersagt, gemäß der Kopenhagener Deutung das mögliche Wissen eines Beobachters darstellt oder eine davon unabhängige Realität beschreibt. Wie lebendig diese Debatte ist, machen mehrere Beiträge in diesem Buch deutlich. Hans Primas und Harald Atmanspacher lösen den Widerspruch nach dem Muster des Teilchen-Welle-Dualismus auf Beide Positionen beruhen auf unterschiedlichen Auffassungen der Wirklichkeit, die beide für eine Beschreibung der Natur je nach der zu Grunde liegenden Fragestellung notwendig seien. Claus Kiefer erläutert das Phänomen der »Dekohärenz«, wonach der quantenmechanische Messprozess in neuem Licht erscheine, wenn auch die Kopplung des Messgeräts an seine Umgebung berücksichtigt werde, denn unrealistische Überlagerungszustände im Messprozess wie die berühmte sowohl tote als auch lebendige »Schrödinger'sche Katze« seien bereits durch die Quantenmechanik selbst ausgeschlossen. Spätestens wenn der Kosmos als Ganzes betrachtet werde, komme die Kopenhagener Deutung an ihr Ende, denn hier gebe es keinen Beobachter mehr, für den die quantentheoretischen Möglichkeiten zu Fakten werden könnten.
    Einen interessanten Vorschlag machen schließlich Ceslav Brukner und Anton Zeilinger von der Universität Wien. Ganz in von Weizsäckers Sinn, die Naturwissenschaft auf Ja-Nein-Aussagen zurückzuführen, streben sie nach einer Herleitung der Quantentheorie aus der Informationstheorie. Ihr Ausgangspunkt ist die Annahme, dass jedes physikalische Objekt einen endlichen Informationsgehalt hat. Da diese Information aber nicht ausreiche, um die Resultate aus allen möglichen Messungen festzulegen, könne eine bestimmte Messung nicht mehr mit Sicherheit vorhergesagt werden. Der Indeterminismus der Quantentheorie ist damit auf ein fundamentaleres Prinzip zurückgeführt. Viele Autoren heben die Bedeutung von Weizsäckers Fragen und Antworten als Quelle der Inspiration und als Herausforderung an die etablierte Wissen schaft hervor, die in ihrer Vorausschau noch nicht an ihr Ende gekommen sei. Dem ist wenig hinzuzufügen."
  19. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.0783861 = product of:
      0.1567722 = sum of:
        0.11800871 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.11800871 = score(doc=6206,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.038763493 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.038763493 = score(doc=6206,freq=22.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  20. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.07562009 = product of:
      0.15124018 = sum of:
        0.10115033 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.10115033 = score(doc=195,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.050089855 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.050089855 = score(doc=195,freq=50.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."

Authors

Languages

Types

  • a 9353
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications