Search (11774 results, page 3 of 589)

  • × language_ss:"d"
  1. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.097619526 = product of:
      0.19523905 = sum of:
        0.13236715 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.13236715 = score(doc=2567,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.0628719 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.0628719 = score(doc=2567,freq=46.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  2. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.09692114 = product of:
      0.19384228 = sum of:
        0.16545895 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.16545895 = score(doc=617,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.028383328 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.028383328 = score(doc=617,freq=6.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  3. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.090709575 = product of:
      0.18141915 = sum of:
        0.13236715 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.13236715 = score(doc=2121,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.049051996 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.049051996 = score(doc=2121,freq=28.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  4. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.090709575 = product of:
      0.18141915 = sum of:
        0.13236715 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.13236715 = score(doc=346,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.049051996 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.049051996 = score(doc=346,freq=28.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  5. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.08889024 = product of:
      0.17778048 = sum of:
        0.13236715 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.13236715 = score(doc=6889,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.045413326 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.045413326 = score(doc=6889,freq=24.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  6. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.08889024 = product of:
      0.17778048 = sum of:
        0.13236715 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.13236715 = score(doc=1642,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.045413326 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.045413326 = score(doc=1642,freq=24.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  7. Internet: The editor's choice (2002) 0.08
    0.08272947 = product of:
      0.3309179 = sum of:
        0.3309179 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.3309179 = score(doc=1854,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  8. Baker, N.: Seelenverkäufer oder Helden? : Ken Aulettas Buch über die weltbeherrschende Suchmaschine Google (2009) 0.08
    0.080791764 = product of:
      0.16158353 = sum of:
        0.050348748 = weight(_text_:und in 211) [ClassicSimilarity], result of:
          0.050348748 = score(doc=211,freq=118.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.3764461 = fieldWeight in 211, product of:
              10.862781 = tf(freq=118.0), with freq of:
                118.0 = termFreq=118.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=211)
        0.111234784 = weight(_text_:handelte in 211) [ClassicSimilarity], result of:
          0.111234784 = score(doc=211,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.20189044 = fieldWeight in 211, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.015625 = fieldNorm(doc=211)
      0.5 = coord(2/4)
    
    Content
    "Ich gebe zu, ich mag Google. Ich mag Larry Page, der zumindest auf den Youtube-Videos, die ich gesehen habe, mit seiner graumelierten Ponyfrisur zwar schüchtern, aber sehr intelligent wirkt. Sergey Brin mag ich auch, der nicht so schüchtern zu sein scheint, aber genauso intelligent und auch witzig ist. Ken Auletta, der Autor dieses fesselnden, etwas wirren Buches, in dem jede Menge berühmte Personen vorkommen, scheint beide nicht leiden zu können. Von Page sagt er, er habe "eine Stimme wie Kermit der Frosch", was nicht besonders nett ist, und Brin wird als arroganter Streber und Prahlhans beschrieben, der auf der Uni nur die besten Noten hatte, Schlösser knackte, um sich Computer-Zubehör "auszuleihen" und einmal alle Türen im Informatik-Trakt neu nummerierte. "Die Chefs von Google sind keine kaltschnäuzigen Geschäftsleute; sie sind kaltschnäuzige Ingenieure", schreibt Auletta, wobei "kaltschnäuzig" aber nicht wirklich zuzutreffen scheint. Aulettas eigene Kaltschnäuzigkeit mag teilweise auf Brins und Pages Widerwillen zurückzuführen sein, sich für das Buch befragen zu lassen. "Es hat Monate gedauert, bis man mich endlich empfing", schreibt er in den Danksagungen. "Die Gründer und Manager von Google sind ganz wild darauf, Bücher zu digitalisieren, haben aber wenig Interesse daran, welche zu lesen." Aulettas Buch werden sie wohl schon etwas genauer ansehen. Ich las es in drei langen Sitzungen und habe viel gelernt - über Googles "Kalten Krieg" mit Facebook, über Googles Rangeleien mit Viacom, über Googles Rolle in den "Yahoo-Microsoft-Kämpfen" und über den langsamen Entfremdungsprozess zwischen Google und seinem ehemaligen Verbündeten Apple. Auletta bedient sich gerne militärischer Vergleiche und Metaphern und führt dabei genauso Fürst von Metternich ins Feld wie auch Beispiele moderner Kriegsführung: "Datenschutz-Probleme werden weiterhin wie bewaffnete Drohnen über uns fliegen", schreibt er, "bereit, das Vertrauen zu torpedieren, auf das die Unternehmen angewiesen sind, die mit persönlichen Daten betraut sind." Aber er lässt auch die menschlichen Züge nicht aus: An dem Tag des für Google so überaus erfolgreichen Aktienangebotes zückt Larry Page sein Handy und sagt: "Das muss ich gleich meiner Mutter erzählen!"
    Der Autor unterhält sich allerdings hauptsächlich mit Managern vom Fach, und darin liegt die große Stärke des Buches. Auletta hat anscheinend jeden Geschäftsführer der Branche in Nordamerika interviewt, und die meisten haben an Google, so wie es heute ist, irgendetwas auszusetzen. Google sei unersättlich, sagen sie, es wolle zu hoch hinaus, es sei zu reich, zu selbstgefällig, es verdiene Geld mit den Inhalten anderer Leute. Ein ungenannter "prominenter Geschäftsführer" lehnte sich während der Google-Zeitgeist-Konferenz 2007 zu Auletta hinüber und flüsterte ihm eine rhetorische Frage ins Ohr: Welchen realen Wert, so wollte er wissen, produziert Google für die Gesellschaft? Moment mal. Welchen realen Wert? Mein lieber Herr prominenter Geschäftsführer - ist das Ihr Ernst? Haben Sie schon mal was von Street View und Google Maps gehört? Haben Sie schon mal Gebrauch gemacht von der kleinen, aber feinen Taschenrechner-Funktion im Google-Suchfeld? Oder sich von Google das lokale Kinoprogramm anzeigen lassen? Oder sich mal eben schnell etwas von Google übersetzen lassen? Sind Sie nicht auch schon in Google Books auf interessante Entdeckungsreisen durch die Literatur des 19. Jahrhunderts gegangen oder haben mit dem dynamischen Graphen von Google Finance gespielt? Und bestimmt haben Sie sich schon als Architekt versucht mit Google SketchUp. Und als Sie zum ersten Mal sahen, wie bei Google Earth die Erde sich dreht und näher rückt, da haben Sie bestimmt auch einen Aufschrei des Entzückens von sich gegeben. Und es würde mich sehr wundern, wenn Sie nicht für das ein oder andere Thema bei den automatischen Benachrichtigungen von Google News angemeldet wären. Es gibt sicher kein anderes Software-Unternehmen, das so viele Produkte entwickelt hat, die so intelligent gebaut sind, so schnell arbeiten, so viel Spaß machen und obendrein noch umsonst sind. Haben Sie denn noch nie im Internet etwas gesucht?
    Denn das eine kann ich Ihnen sagen - ich erinnere mich noch, wie es früher war, vor Google. Nicht dass es ein dunkles Zeitalter gewesen wäre: Es gab schnurlose Telefone, und die Leute durften bequeme Pullis tragen. Es gab AltaVista und AskJeeves, HotBot und Excite, Infoseek und Northern Light - mit seinen tief verzweigten Ergebnislisten und dem eleganten Segelschiff im Logo. Und wenn man mal mehrere Gewässer gleichzeitig durchkämmen wollte, gab es MetaCrawler. Aber die Ausbeute war ziemlich wahllos und dauerte vor allem lange. Man saß da, mampfte seine Chips und wartete darauf, dass der Bildschirm sich füllte. 1998 kam dann Google, sauber und unglaublich schnell. Es war wie eine aufgeräumte weiße Schreibtischplatte mit einer einzelnen reifen Tomate darauf. Keine Werbung - Google war damals noch gegen Werbung eingestellt. Außerdem war es hochintelligent; man bekam fast nie einen falschen Treffer. Man musste die beiden unzertrennlichen Studenten Page und Brin, die ihre geheimen Suchalgorithmen zur Anwendung gebracht hatten, nicht kennen, um zu wissen, dass es sich um zwei geniale Computerfreaks in Turnschuhen, aber mit viel Selbstvertrauen handelte. Der weiße Bildschirm und der Button mit der Aufschrift "I´m Feeling Lucky" brachte das klar zum Ausdruck. Google würde uns allen Glück bringen; das war die Botschaft. Und so kam es dann auch.Warum sind die prominenten Geschäftsführer dann nicht zufrieden? Weil Google viel Geld mit Werbung verdient, und die Werbeetats sind begrenzt. Im letzten Jahr kam der Gewinn fast ausschließlich aus der einzig wirklich lästigen Sparte, die das Unternehmen betreibt - den kleinen, billigen Textanzeigen. Die so genannten AdWords- oder AdSense-Anzeigen sind schnell geladen und angeblich "höflich", in dem Sinne, dass sie nicht blinken und keine Popup-Fenster aufmachen, und man sieht sie jetzt überall - auf Seiten wie dem Portal der Washington Post, auf MySpace und Discovery.com und auch auf Hunderttausenden von kleinen Seiten und Blogs. "Das ist unsere eigentliche Einnahmequelle", sagte Larry Page in einer Sitzung, an der Auletta 2007 teilnahm. Geworben wird für "Laser-Haarentfernung", "Gläubige Singles", "Mit Verkehrsstaus Geld verdienen", "Haben Sie Anspruch auf Schmerzensgeld?", "Anti-Bauchfett-Rezepte", "Bloggen Sie sich reich", "Jeder kann ein Buch schreiben" und so weiter. Unzählige Internetseiten sind aufgetaucht, die nur dazu dienen, AdSense-Anzeigen zu schalten. Sie benutzen gestohlene Inhalte oder schmeißen Texte von Wikipedia und ähnlichen Seiten zusammen und säumen die Ränder mit Google-Anzeigen. Diese funktionieren pro Klick, das heißt, der Auftraggeber zahlt nur dann an Google, wenn auch tatsächlich jemand auf die Anzeige klickt. Pro Aufruf zahlt er dann 25 Cent oder einen Dollar oder (für ganz besonders beliebte Stichworte wie "Schmerzensgeldanspruch") auch zehn Dollar oder mehr.
    Aber denken Sie mal nach - wann haben Sie das letzte Mal auf eine dieser Anzeigen geklickt? Eigentlich noch nie? Ich auch nicht. Und doch verdiente Google im letzten Jahr 21,8 Milliarden Dollar, wovon 95 Prozent aus den AdWords- und AdSense-Anzeigen kamen. (Der kleine Rest kam aus Banner- und Video-Anzeigen und einigen anderen Produkten.) Diese plumpen, ziemlich aufdringlichen kleinen Anzeigen (denen Schönheit oder Humor abgehen, die wir von der Werbung für Fernsehen, Zeitschriften oder Radio gewöhnt sind) sind die Grundlage von Googles Finanzimperium, auch wenn das schwer zu glauben ist - ein Imperium der kommerziellen Querverweise. Die Werbeeinnahmen sorgen bei Google für hohe Aktienpreise, und das gibt dem Unternehmen absolute Handlungsfreiheit. Als 2006 Googles Aktienwert bei 132 Milliarden Dollar lag, wurde You- Tube für 1,65 Milliarden eingekauft. "Die können alles kaufen, was sie wollen, und Geld für alles mögliche rauswerfen", zitiert Auletta Irwin Gottlieb, den Chef von GroupM, einem der größten Konkurrenten Googles. Wenn Microsoft sich um DoubleClick bemüht, kann Google mal eben 3,1 Milliarden auf den Tisch legen und DoubleClick kaufen. Wenn Cloud Computing eine lukrative Investition zu sein scheint, dann kann Google 20 oder 50 oder auch 70 riesige Rechenzentren an geheimen Orten auf der ganzen Welt bauen, von denen jedes einzelne so viel Strom verbraucht wie eine Kleinstadt. Anfang des Monats gab Google den Kauf eines Unternehmens namens AdMob für 750 Millionen in Aktien bekannt; AdMob ist spezialisiert auf Bannerwerbung für Handys. "Wenn man mal eine gewisse Größe erreicht hat, muss man sich nach neuen Wachstumsmöglichkeiten umsehen", ließ sich Auletta von Ivan Seidenberg erklären, dem Geschäftsführer von Verizon. "Und dann mischt man sich in die Geschäftsbereiche von allen anderen ein." Jetzt versteht man auch, warum die von Auletta befragten Topmanager nicht gut auf Google zu sprechen sind.
    Google produziert weiterhin fleißig seine kleinen Perlen: Google Voice, das gesprochene Mailbox-Nachrichten in Emails umwandelt; Chrome, ein schneller und intelligenter Webbrowser und Android, das neue Handy-Betriebssystem. Eines der neuesten Projekte ist die Espresso Book Machine, die Bücher on Demand ausdruckt und bindet. Aber vielleicht wird hier zu viel auf einem Gelände produziert; vielleicht werden die Leute es bald leid, dass überall "Google" draufsteht. Googles berühmter Slogan "Don´t be evil" klingt mehr und mehr wie eine düstere Prophezeiung. Als sie noch an der Uni waren, wetterten Page und Brin gegen Suchmaschinen, die zu viel Werbung hatten. "Die waren strikt gegen Werbung", zitiert Auletta Ram Shriram, einer der ersten Google-Investoren, "das waren Puristen." Inzwischen sehen sie das nicht mehr so eng. Jetzt geht es darum, ständig neues Futter für ein hungriges, 180 Milliarden schweres Monstrum aufzutreiben. Auletta berichtet von einem ungewöhnlichen Einstellungstest, den Brin einmal mit einer Bewerberin für eine Anwaltsposition machte: "Setzen Sie mir einen Vertrag auf", sagte Brin zu der Anwältin, "und zwar für den Verkauf meiner Seele an den Teufel." Das war 2002, dem Jahr, als Google die interne Arbeit an einem Projekt aufgenommen hatte, das später mal AdSense werden sollte. Mittlerweile fliegen Page und Brin in ihrer privaten Boing 767 herum und sprechen ganz ernsthaft über Green IT, während der Strom für die Gratis-Videos auf YouTube Berge von Kohle verbraucht. Noch ist ihnen keine Idee gekommen, wie sie das Verlustgeschäft YouTube "monetisieren" - d.h. also Profit damit erwirtschaften - können. Allerdings ist mir schon aufgefallen, dass auf Philip DeFrancos beliebten YouTube-Videos inzwischen Werbebanner von Samsung laufen. "Der Vorteil, etwas gratis anzubieten, besteht darin, dass man 100 Prozent Marktanteile hat", erklärt Googles Geschäftsführer Eric Schmidt. "Gratis ist das richtige Konzept." Vielleicht eine Weile lang - aber die Frage ist, ob es auf Dauer funktioniert. "Für Zeitungen", schreibt Auletta, "bedeutet das Gratis-Konzept den Untergang." Vielleicht bekommt man am Ende - sogar im Internet - nur noch das, wofür man auch bezahlt hat."
  9. Battles, M.: ¬Die Welt der Bücher : eine Geschichte der Bibliothek (2007) 0.08
    0.077108905 = product of:
      0.15421781 = sum of:
        0.04298302 = weight(_text_:und in 1489) [ClassicSimilarity], result of:
          0.04298302 = score(doc=1489,freq=86.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.32137424 = fieldWeight in 1489, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=1489)
        0.111234784 = weight(_text_:handelte in 1489) [ClassicSimilarity], result of:
          0.111234784 = score(doc=1489,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.20189044 = fieldWeight in 1489, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.015625 = fieldNorm(doc=1489)
      0.5 = coord(2/4)
    
    Abstract
    Bibliotheken haben durch die Jahrhunderte Bücher gesammelt und aufbewahrt, sie geordnet und zugänglich gemacht. Aus der chaotischen Mannigfaltigkeit der Bücher haben sie ein organisiertes Universum geschaffen, das planvolles Studieren ermöglicht. Das hat ihnen neben Bewunderung und Passion auch fanatischen Hass und den Verdacht eingetragen, der staubige Ort zu sein, wohin die Bücher gehen, um zu sterben. Matthew Battles, der Verfasser dieser einzigartigen Geschichte der Bibliomanie, ist beides: ein großer Freund der Bücher und der Bibliotheken.In sieben Kapiteln nimmt er den Leser mit auf eine Zeitreise durch Paläste und Ruinen des Wissens, von der Bibliothek in Alexandria über Klosterzellen bis zur British Library, von Privatbibliotheken und sozialistischen Lesesälen bis ins Informationszeitalter. Die Geschichte der Bibliotheken ist auch die Geschichte des menschlichen Versuchs, Ordnung in die Welt zu bringen - und dessen letztendliches Scheitern.
    BK
    06.01 / Geschichte des Informations- und Dokumentationswesens
    Classification
    AN 59000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Biographie, Geschichte / Bibliotheksgeschichte / Allgemeines
    06.01 / Geschichte des Informations- und Dokumentationswesens
    Content
    Enthält u.a. Ausführungen zu den Katalogentwicklungen von Panizzi und Dewey: "Panizzi machte sich sofort an jene Arbeit, die ihm einen bedeutenden Platz in der Geschichte der British Library sichern sollte: das Katalogisieren der Bestände. Der erste gedruckte Katalog der Bibliothek, der 1810 erschienen war, umfasste sieben Bände. Wie bei allen Katalogen dieser Zeit handelte es sich um eine einfache alphabetische Auflistung der Bücher in der Bibliothek, die den Bibliothekaren als Bestandsverzeichnis der Bücher ihrer Abteilung diente. Die meisten Bibliotheken schlossen jedes Jahr für einige Wochen, um den Bibliothekaren die Möglichkeit zu geben, die Liste durchzugehen und zu prüfen, ob jedes Buch noch an seinem Platz in den Regalen stand. Für mehr waren die Kataloge nicht vorgesehen. Schließlich kamen die Leser generell gut vorbereitet in die Bibliothek; sie wussten, welche Bücher sie sich ansehen und was sie darin finden wollten." (S.150)
    "Bei seiner Beschäftigung mit obskuren Pamphleten hatte Panizzi das dichte Netz von Verbindungen kennen gelernt, das Autoren und Verleger bei Druckwerken miteinander verknüpfte. Eine Abhandlung war die Antwort auf eine andere, welche vielleicht eine Neuauflage von Artikeln aus Journalen und Zeitungen darstellte oder Auszüge aus Büchern enthielt; sie konnte zur gleichen Zeit, in verschiedenen Formen und unter verschiedenen Impressen erscheinen. Entscheidende Informationen wie der Name des Autors, des Herausgebers sowie Ort und Datum der Veröffentlichung konnten unvollständig oder falsch sein oder sogar ganz fehlen. Panizzi entwickelte eine Reihe von Regeln, mit deren Hilfe sich diese Verhältnisse im Katalog wiedergeben ließen, so dass die Bibliothekare - und, ganz entscheidend: die Leser - sie herausfinden und verfolgen konnten. Ohne es anfänglich beabsichtigt zu haben, trug er dazu bei, den Bibliothekskatalog von einer reinen Bestandsliste zu einem Instrument für Entdeckungen zu machen. Man ist versucht zu sagen, dass seine Entdeckung der Intertextualität selbst zwischen den allerprofansten Büchern ein Vorbote für die vernetzte Welt des digitalen Zeitalters war; vermutlich ist es aber passender anzumerken, dass aus dem vorteilhaften Blickwinkel der vernetzten Welt Panizzis Katalog wie die Anfänge des Internets anmutet." (S.150/151)
    "Panizzi wurde 1837 zum Verwalter der gedruckten Bücher ernannt; sieben Jahre später war gerade der erste Band des Katalogs erschienen, der den Buchstaben A behandelte. Nicht jeder war erfreut darüber. »Den krapriziösen und exotischen Launen eines Bibliothekars ... sollte es nicht gestattet sein, ... den Fortschritt eines praktischen Katalogs aufzuhalten«, schrieb ein gewisser Sir Nicholas Harris Nicolas, ein gebildeter Gentleman mit einer Vorliebe für Schiffsgeschichte. Im Spectator veröffentlichte er ein Reihe von Artikeln, in denen er den neuen Katalog von 1846 verurteilte. Außerdem äußerte er, Panizzis Katalog sei »nach einem so abstrusen System aufgebaut, dass für seine Erstellung 91 Regeln vonnöten waren; die meisten davon, wenn nicht sogar alle, müssen auswendig gelernt werden, bevor irgendjemand auch nur erahnen kann, unter welcher Rubrik selbst das gewöhnlichste Buch in unserer Sprache zu finden ist.« Zu Beginn des Projektes hatte Panizzi entschieden, die Bibliotheksnummer jedes Buches in den entsprechenden Katalogeintrag aufzunehmen. Wie eine Standnummer von Büchern in einer modernen Bibliothek gab die Bibliotheksnummer genau den Standort an, an dem das Buch in den Fächern der Bibliotheksregale zu finden war. Anders als die modernen Standnummern aber bezogen sich die Bibliotheksnummern nicht auf einen Wissensbereich, sondern auf einen Ort; sie sind keine Klassifizierungen, sondern nur Koordinaten." (S.152/153)
    "Diese letzte Neuerung, der Zettelkatalog, war nicht Deweys Erfindung. Der erste berühmte Zettelkatalog war wahrscheinlich Edward Gibbons Bestandsverzeichnis auf den Rückseiten von Spielkarten. Um die Mitte des 19. Jahrhunderts waren Karten bereits allgemein gebräuchlich bei Bibliothekaren, die der unbeherrschbaren Unordnung und den um Zusätze erweiterten Verzeichnissen trotzten. In den ersten Jahren des Jahrhunderts wurde ein Exzentriker namens William Coswell vom Harvard College eingestellt, um einen neuen Katalog anzulegen. Er kam auf die Idee, die alten Kataloge in Streifen zu schneiden und die einzelnen Einträge nach Themen in Gruppen zu ordnen. Dieses Werk wurde die Basis für den so genannten Slip-Katalog, der die jährliche Inventur der Sammlung für die Bibliothekare sehr viel einfacher machte. Harvard verwendete erst 1860 Karten, um einen öffentlichen Katalog zu erstellen - tatsächlich der erste Zettelkatalog, wie wir ihn heute kennen. Doch die Verwendung von Karten nahm schnell zu und wurde standardisiert; die Seiten von Deweys Bürobedarfskatalog für Bibliotheken sind voll mit Karten, Kästen, speziellen Schreibmaschinen und anderen Hilfsmitteln für die Pflege von Zettelkatalogen. Doch Dewey versuchte nicht nur, die Zettelkataloge zu standardisieren, sondern jeden die Bibliothek betreffenden Aspekt. Auch diese Seite seiner Vision umfassender Kontrolle beleuchtet sein Bürobedarfskatalog für Bibliotheken: Hier finden sich die Tische, die Kartenständer, die Regale, die Datumsstempel, die Tintenfässer und die Stifte, von denen der Bibliothekar der Jahrhundertwende abhing, um seine Bibliothek so effizient wie möglich zu gestalten. Die Stühle zeigen einfache, elegante Linien, haben schlanke, unverzierte Beine und eine klare Form, um die Ansammlung von Staub unterhalb der Sitzfläche zu verhindern. Patentierte Bücherregale, Stützen und Etiketten vereinheitlichten die Suche nach Büchern, unabhängig von der jeweiligen Bibliothek oder Bücherei. Auf Deweys Anregung hin gab es eine Unmenge von Hilfsmitteln zur effizienten Gestaltung der Arbeit des Bibliothekars: spezialisierte Etiketten, Taschen, Büromaterialien, Schreibfedern und diverse andere Angebote. Der Katalog stellte die Mittel zur Verfügung, um aus jeder langweiligen Dorfbücherei eine effektive Maschine zu machen, mit deren Hilfe man den Menschen Büchern an die Hand geben konnte - eine frühe Utopie vom Lesen im Maschinenzeitalter." (S.165-166)
    Footnote
    Rez.: Deutschlandradio vom 24.3.2007 (Jörg Plath): "In Schriftkulturen verkörpern Bibliotheken das kollektive Gedächtnis einer Gesellschaft. Daher ist "Eine Geschichte der Bibliothek", wie sie Matthew Battles im Untertitel seines Buches "Die Welt der Bücher" verspricht, eine gewaltige Aufgabe. Man kann Battles nicht vorwerfen, an ihr gescheitert zu sein. Denn der Bibliothekar der US-amerikanischen Elite-Universität Harvard hat nicht einmal geahnt, was er da in Angriff nimmt. Unter einer "vollständigen Geschichte der Bibliothek" stellt er sich in positivistischer Naivität eine "Dokumentation aller jemals existiert habenden Bibliotheken, ihrer Orte und Formen" vor. Das ist natürlich unmöglich, weshalb Battles lieber nach jenen geschichtlichen Augenblicken suchen will, "in denen Leser, Autoren und Bibliothekare nach der eigentlichen Bedeutung der Bibliothek fragen. Nach der "eigentlichen" Bedeutung? Und warum fragen nach ihr nur die Buchliebhaber, die Leser, Autoren und Bibliothekare? Warum nicht die Macht, die Bibliotheken doch finanziert und schützt - und nicht selten auch zerstört? Battles' selektiver Streifzug durch die Jahrtausende wählt die üblichen, bekannten Stationen: Am Anfang steht die berühmte Bibliothek in Alexandria, dann folgen Aufstieg und Niedergang von Bibliotheken in Rom, in Klöstern, Universitäten und Nationalstaaten. Am Ende trauert Battles über den "Verlust der Bücher" durch das Internet. Mit einem sentimentalen Halbsatz handelt er also ab, was unter seinen Kollegen als Herausforderung der Zukunft gilt: die zunehmende Immaterialisierung des Wissens und der Umbau der Bibliotheken von Bücherdepots zu Informationsdienstleistern für alle denkbaren Medien.
    Dennoch ist man dem Autor für seine Gegenwartsverachtung dankbar. Denn so endet sein Buch endlich - nach 250 undeutlich, unlogisch, teilweise falsch, stets aber fahrig mit Referaten aus anderen Werken gefüllten Seiten. Ausgespart bleiben Gegenwart und jüngste Vergangenheit, doch die Vergangenheit wird deshalb nicht etwa umfassend dargestellt. Nur bruchstückweise erläutert Battles etwa die Aufbewahrungsarten von Tontafeln, Papyrusrollen und Büchern. Ebenso fragmentarisch fallen seine Bemerkungen zur baulichen Gestalt der Bibliothek aus, bei denen es dem Autor die Verwendung des Eisens im 19. Jahrhundert besonders angetan hat. Dass seit Jahren die früher getrennten Bereiche Büchermagazin, Verwaltung und Lesesaal zusammenwachsen, weiß er offenbar nicht. Ebenso fehlen präzise Angaben zu den wissenssoziologisch interessanten Ordnungssystemen, mit denen die Bücherflut kanalisiert wird. Battles erwähnt lediglich die antike theologische Ordnung, in der alles Wissen von der Bibel abgeleitet wird, jene von Francis Bacon an der Schwelle zur Neuzeit, dann die eines gewissen Sanford (!) Berman aus Minnesota sowie die der Harvard-Universität, die so sinnige Sachgruppen wie "Beste Bücher" kennt.
    Die seltsame Auswahl ist eine Folge der weitgehenden Beschränkung auf die USA, insbesondere auf Harvard, offenbar einem bis dato unbekannten Epizentrum der Bibliotheksentwicklung in der Neuzeit. Allenfalls die britische und die französische Nationalbibliothek finden daneben noch Erwähnung. Aus Deutschland ist betrüblich wenig zu berichten. Immerhin hat sich dort im Jahre 1933 eine Bücherverbrennung zugetragen, von der ein schockierter amerikanischer Korrespondent zu berichten wusste, dass "sogar die Bücher unserer Helen Keller" zu Asche wurden. Die zusammengeschusterten Bestandteile des Buches werden durch teilweise haarsträubende Überleitungssätze aneinandergereiht. Einer lautet: "Der Glanz des (römischen) Kaiserreichs reichte bis in die Zeit seines Niedergangs." Das muss ein schöner Niedergang gewesen sein. Auf dieses Buch aber fällt von nirgendwo ein Glanz." (http://www.dradio.de/dlf/sendungen/buechermarkt/251024/)
    RVK
    AN 59000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Biographie, Geschichte / Bibliotheksgeschichte / Allgemeines
  10. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.0769331 = product of:
      0.1538662 = sum of:
        0.11582125 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.11582125 = score(doc=6206,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.038044956 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.038044956 = score(doc=6206,freq=22.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  11. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.07
    0.07470515 = product of:
      0.1494103 = sum of:
        0.09927536 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.09927536 = score(doc=1729,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.050134953 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.050134953 = score(doc=1729,freq=52.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  12. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.07
    0.07421836 = product of:
      0.14843673 = sum of:
        0.09927536 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.09927536 = score(doc=195,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.049161367 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.049161367 = score(doc=195,freq=50.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  13. Wikipedia : das Buch : aus der freien Enzyklopädie Wikipedia ; [mit der DVD-ROM Wikipedia 2005/2006] (2005) 0.07
    0.074157305 = product of:
      0.14831461 = sum of:
        0.037079826 = weight(_text_:und in 243) [ClassicSimilarity], result of:
          0.037079826 = score(doc=243,freq=64.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.2772374 = fieldWeight in 243, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=243)
        0.111234784 = weight(_text_:handelte in 243) [ClassicSimilarity], result of:
          0.111234784 = score(doc=243,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.20189044 = fieldWeight in 243, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.015625 = fieldNorm(doc=243)
      0.5 = coord(2/4)
    
    Abstract
    Das 1. "Benutzungs"-Handbuch zur freien Internet-Enzyklopädie Wikipedia gibt dem Neuling eine Einführung in das Arbeiten in und mit dem Online-Lexikon. Sowohl der passive Nutzer als auch der aktive Mitarbeiter erhält "Hilfen, Ratschläge, Anweisungen und Tipps". Das Buch richtet sich aber auch an versierte Wikipedia-Mitarbeiter, die einfach einmal schnell eine Information nachschlagen wollen. Außerdem gibt es einen Überblick über die Entstehungsgeschichte des Internetprojekts. Und das Besondere: Alle Kapitel des Buches sind aus der deutschsprachigen Wikipedia zusammengestellt und dort nachschlagbar. Dazu gibt es die DVD-ROM mit der über 300.000 Artikel umfassenden Offline-Version des Lexikons. Redaktionsstand: Oktober 2005.
    Content
    Einführung in das Arbeiten in und mit dem Online-Lexikon; mit Hilfen, Ratschlägen, Anweisungen und Tipps sowohl für passive Nutzer als auch aktive Mitarbeiter. Beiliegende DVD-ROM enthält über 300.000 Artikel der Offline-Version des Lexikons.
    Footnote
    Rez. in: ZfBB 53(2006) H.6, S.319-321 (R. Strzolka): "Bespricht man ein Buch, welches der Wikipedia - vorsichtig ausgedrückt, nahe steht -, so ist es sinnvoll, dies im Bewusstsein einer Öffentlichkeit zu tun, die zwischen berechtigter Kritik und kritikloser Sektenhaftigkeit der Wikipedianer oszilliert. Wirklich gleichgültig ist die Wikipedia kaum jemandem, der sich mit Informationsvermittlung beschäftigt. Einer der Vorzüge ist zugleich die Achillesferse des Projektes: der offene Zugang ermöglicht zum einen für jedermann die Mitarbeit, öffnet andererseits aber auch Tür und Tor für Manipulationen. Dass die Offenheit des WikipediaKonzeptes als Gefahr empfunden wird, zeigt die Tatsache, dass Chinas größte Suchmaschine Baidu im Mai 2006 eine eigene Alternative zur Wikipedia ins Netz stellte und der Zugang zur allgemeinen Wikipedia gesperrt wurde. Die an sich reizvolle Grundidee, dass ein offenes Projekt sich von selbst justiert und Fehler auf diese Weise binnen kurzer Zeit korrigiert werden, scheint sich nicht so selbstverständlich zu verwirklichen wie die Initiatoren der Wikipedia 200s dachten, als das Projekt online ging. Während die Kritik in den populären Massenmedien wie dem SPIEGEL sich vor allem um spektakuläre Manipulationen von Biographien Prominenter dreht, kritisiert die wissenschaftliche Diskussion eher Fragen kultureller Gleichschaltung durch einen globalen Diskurs. Die Diskussion um Fälschungen zur Biographie eines führenden Siemens-Mitarbeiters schlug Mitte 2006 hohe Wogen, doch wurden auch Angaben zu Bill Gates oder Jane Fonda gefälscht oder der Journalist John Seigentler verdächtigt, in die Ermordung von John und Robert Kennedy verwickelt gewesen zu sein (Wikipedia in der Kritik www.heute.de/ZDFheute/inhalt/14/0,3672,3022414.htm). Der Journalist Nicholas Carr hatte ein Jahr zuvor schon in einem Blog die Qualität der Wikipedia drastisch kritisiert und der WikipediaMitbegründer Jimmy Wales hatte ihm in einem Kommentar dazu in weiten Teilen Recht gegeben (www.roughtype.com/ archives/2005/10/the_amorality_0.php). Allerdings verblüfft die Art Qualitätsstandard, die Wales anstrebt, weil er zugab, dass die Artikel über Fonda und Gates schlecht seien - dies wäre schlimmer als handelte es sich um Einträge zu einem Dichter des 13. Jahrhunderts. Gerade bei solchen Randthemen aber ist eine Enzyklopädie interessant, nicht bei Klatsch über Prominente, für die es genügend andere Quellen gibt.
    Kritisiert wird, dass viele der Einträge der Wikipedia einfach ein Sammelsurium aus bereits vorhandenen Lexikatexten darstellen oder dass komplette Beiträge aus DDR-Lexika eingestellt werden, ohne dass auf diese Tatsache hingewiesen wird. Rassistische Diskurse aus dem 19. und 20. Jahrhundert werden vielfach fortgeschrieben und nur moderat modernisiert. So werden in den Meinungsforen unter anderem Begriffe wie »Indianer« für die amerikanischen Ureinwohner benutzt mit der Begründung, der Begriff sei dank Karl May gar nicht negativ besetzt. Ebenso wie ein stark christliches Bias vielfach kritisiert wird, das von der Tatsache ablenkt, dass der überwiegende Teil der Menschheit anderen Religionen oder gar keiner anhängen. Diese christliche Orientierung scheint für die deutsche Version der Wikipedia typisch zu sein, andere Versionen des Netzwerkes kommen ohne christliche Symbolik aus, darunter sogar die italienische oder die spanische. Die zahlreichen Vorwürfe sorgten für eine Änderung des Publikationsverfahrens innerhalb der Wikipedia: jeder Autor eines neuen Artikels muss sich registrieren lassen, bevor der Artikel frei geschaltet wird. Allerdings findet keine echte Authentifizierung statt. Mittlerweile erstreckt sich die Kontrolle auch auf Änderungen an vorhandenen Artikeln -das Publikationsverhalten bei den verschiedenen Versionen ist durchaus unterschiedlich: während in der englischen Version die Tendenz besteht neue Artikel zu schreiben, werden in der deutschen Version gerne vorhandene Artikel modifiziert. Obwohl die Wikipedia Anlass zu Kritik bietet, so sollte sie - neben hierarchisch, in geschlossenen Systemen erstellten Nachschlagewerken -durchaus konsultiert werden. Es gibt viele Themen, zu denen in Allgemeinenzyklopädien wenig Information steht, so dass eine Fachenzyklopädie sicherlich in vielen Fällen vorzuziehen ist. Sie zu ermitteln dürfte keine Mühe bereiten. Es ist allerdings nicht tragbar, die Wikipedia als einzige Quelle zu akzeptieren. Immerhin dürfte sie das einzige lexikalische Projekt sein, an dem Menschen in mehr als 10o Sprachen mitarbeiten. Und wie gut die Selbstregulierungsmechanis men funktionieren, zeigt beispielhaft die Tatsache, dass die illegal aus DDR-Lexika eingestellten Texte von anderen Mitarbeitern entdeckt worden waren, obwohl sie ausschließlich gedruckt vorlagen und nicht durch Suchmaschinen gefunden werden konnten. Dies ändert nichts daran, dass manche Texte von miserabler Qualität einfach für lange Zeit unbearbeitet bleiben.
    »Wikipedia - Das Buch« schickt sich an, das zumindest durchwachsene Image verbessern zu wollen. Tatsächlich beschränkt es sich darauf, die Regeln der Konventionen der Mitarbeit, wie sie im Idealfall aussehen, in Form von zahlreichen Textauszügen aus der Online-Fassung zu dokumentieren, wobei dabei eine Diktion genutzt wird, wie sie der Reklame für Waschmittel entnommen sein könnte: »Wikipedia ist eine besondere Enzyklopädie« (S.9), »Wikipedia ist dynamisch« (S.10), »Wikipedia ist schnell« (S. ii), »Wikipedia ist transparent« (S. 12), »Wikipedia ist kollaborativ« (S.13), »Wikipedia macht Spaß« (S. 15), »Wikipedia ist frei« (S. 15). Von einem kritischen Grundansatz gegenüber der eigenen Arbeit keine Spur, aber das Werk versteht sich ganz offenbar auch als kostenpflichtige Werbebroschüre mit Gebrauchsanweisung dafür, wie man kostenlos mitarbeiten darf. Praktisch ist allerdings, dass die diversen Kommentare zu Regeln und Konventionen, Referenzen und Textgestaltung recht überschaubar auf rund 270 Seiten Text zusammengefasst sind. Im Großen und Ganzen aber fragt man sich, wer dieses Buch brauchen soll: es enthält nichts was nicht online zur Verfügung steht und nichts was für jemanden interessant ist, der kein leidenschaftlicher Wikipedianer ist. Zwar weist das Vorwort darauf hin, dass diese Informationen hier zum ersten Mal gedruckt erscheinen und damit bequem bei der Arbeit mit dem Rechner zum Nachschlagen dienen können, aber der Text liegt zugleich nochmals auf einer DVD-ROM bei. Worin der Sinn besteht, auf einem Datenträger einen Text beizufügen, den man mittels moderner Fenstertechnik auch jederzeit und bequem online lesen kann, wissen nur die Götter. Allerdings ist dieses Buch in Zusammenhang mit einer umfassenden Reklamemaschine zu sehen, die jener für den Schlagersänger Robbie Williams ähnelt: es vergeht kaum ein Tag an dem die Wikipedia nicht in den Medien erwähnt wird. Die Wikipedia wird zudem ganz offensichtlich für vollkommen sachfremde Zwecke missbraucht: Die Bekanntheit des Projekts sorgt dafür, dass Links in ihr den Pagerank in Suchmaschinen steigen lassen kann und dass persönliche Vorlieben, Idole und verquaste Ideologien weltweit sichtbar gemacht werden. Die Partnerschaft mit Suchmaschinen gehört zu den auffallendsten Marketingstrategien im Internet, da beide Seiten davon profitieren. Die Unsitte beispielsweise von Google, oder leider auch von Vivisimo, Links aus der Wikipedia automatisch hoch zu platzieren schafft eine ScheinSeriosität, die nur denjenigen auffällt, die über genügend Sachkenntnis verfügen, auch die auswertenden Suchmaschinen kritisch zu hinterfragen. Die Wikipedia dient nicht zuletzt Google, Yahoo und anderen dazu, sich von dem Image einer Käuflichkeit der Treffer zu reinigen und führt zudem bei vielen exotischeren Themen zu Links die auf den ersten Blick mehr Qualität versprechen als das berüchtigte: »Ersteigern oder sofort kaufen!« mit dem Google bei jedem beliebigen Thema auf Ebay verweist, den dritten Moloch des Internet-Mainstreams.
    Die Vermarktungsmaschinerie der Wikipedia arbeitet bewusst mit der Förderung eines Gemeinschaftsgefühls der Mitarbeiter. So sind die Wachstumsraten der regionalen Versionen der Wikipedia ein Indiz für ein solches Gemeinschaftsgefühl, welches allein aus dem Reiz großer Zahlen genügend Stoff für eine stetige Selbstrekrutierung neuer Anhänger gewinnt - wir leben in einem Zeitalter geschickten Marketings entbehrlicher Inhalte. An der Tatsache, dass die Artikel nur Momentaufnahmen darstellen, die praktisch nie zitierfähig sind, ändert dies nichts. Das, was bei Britannica und Co. ein Nachteil ist, wird bei der Wikipedia ins gegenteilige Extrem verkehrt. So ergibt sich der praktische Wert der Wikipedia daraus, dass man sich grob über ein vollkommen unbekanntes Thema informieren und dann eruieren kann, welches Fachlexikon eventuell für eine genaue Information geeignet wäre. Für zuverlässige Fakten ist sie vielfach unbrauchbar. Letztlich muss man ein Lexikon an seinen schlechten Einträgen messen. Ein ernstes Problem ist bei der Wikipedia das Phänomen der »edit wars« - im Schnitt wird jeder Artikel zehnmal geändert, bisweilen in sich gegenseitig ausschließenden Richtungen, und es ist nicht selten, dass ein neuer Forschungsstand mit einem 30 Jahre alten überschrieben wird. Allerdings führt dies mitunter zu fruchtbaren Diskussionen und einer Gegenüberstellung von neuem und altem Forschungsstand, was mehr ist als eine klassische Enzyklopädie bietet. Bisweilen werden umkämpfte Artikel gesperrt. So steht das Projekt vor dem Problem, einen gesicherten Forschungsstand kenntlich zu machen, der zitierfähig wäre. Auffallend ist die Bildung von regelrechten Bearbeiterkartellen, die als Wiki-Darwinismus bezeichnet werden können.
  14. Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998) 0.07
    0.066183574 = product of:
      0.2647343 = sum of:
        0.2647343 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
          0.2647343 = score(doc=6134,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.62291753 = fieldWeight in 6134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6134)
      0.25 = coord(1/4)
    
    Abstract
    Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
  15. Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004) 0.06
    0.064174645 = product of:
      0.12834929 = sum of:
        0.08272947 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
          0.08272947 = score(doc=3183,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.19466174 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.045619816 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.045619816 = score(doc=3183,freq=62.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.34108895 = fieldWeight in 3183, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
      0.5 = coord(2/4)
    
    Abstract
    Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
    Content
    "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
    Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
    Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
    Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
    Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
  16. Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008) 0.06
    0.064174645 = product of:
      0.12834929 = sum of:
        0.08272947 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
          0.08272947 = score(doc=3331,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.19466174 = fieldWeight in 3331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
        0.045619816 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
          0.045619816 = score(doc=3331,freq=62.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.34108895 = fieldWeight in 3331, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
      0.5 = coord(2/4)
    
    Abstract
    Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
    Footnote
    Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
    Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
    Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
    Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
  17. Bühler, A.: Antirealismus und Verifikationismus (1992) 0.03
    0.025649905 = product of:
      0.10259962 = sum of:
        0.10259962 = weight(_text_:und in 615) [ClassicSimilarity], result of:
          0.10259962 = score(doc=615,freq=10.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.7671139 = fieldWeight in 615, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=615)
      0.25 = coord(1/4)
    
    Series
    Philosophie und Geschichte der Wissenschaften; Bd.18
    Source
    Wirklichkeit und Wissen: Realismus, Antirealismus und Wirklichkeits-Konzeptionen in Philosophie und Wissenschaften. Hrsg.: H.J. Sandkühler
  18. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.03
    0.025254253 = product of:
      0.10101701 = sum of:
        0.10101701 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
          0.10101701 = score(doc=1190,freq=76.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.75528115 = fieldWeight in 1190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1190)
      0.25 = coord(1/4)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Series
    Sprache und Information ; 33
  19. Schnelle, H.: ¬Die Natur der Sprache : die Dynamik der Prozesse des Sprechens und Verstehens (1991) 0.02
    0.023633843 = product of:
      0.09453537 = sum of:
        0.09453537 = weight(_text_:und in 2578) [ClassicSimilarity], result of:
          0.09453537 = score(doc=2578,freq=104.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.7068194 = fieldWeight in 2578, product of:
              10.198039 = tf(freq=104.0), with freq of:
                104.0 = termFreq=104.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2578)
      0.25 = coord(1/4)
    
    BK
    17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 / Einzelne Sprachen und Literaturen allgemein
    Classification
    ER 720 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Einzelne Richtungen der Sprachtheorie
    ER 610 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachphilosophie (Primärliteratur der Sprachphilosophie; Sekundärliteratur s.o. bei Geschichte der Sprachwissenschaft) / Wesen und Bedeutung der Sprache
    ES 160 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Sprachphänomenologie / Allgemeines
    ER 710 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Funktion der Sprache
    ER 765 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Methodologie der Spachwissenschaft / Einzelmethoden, z.B. Informationsbefragung, Feldarbeit
    ER 900 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachpsychologie. Psycholinguistik / Allgemeines
    17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 / Einzelne Sprachen und Literaturen allgemein
    RVK
    ER 720 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Einzelne Richtungen der Sprachtheorie
    ER 610 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachphilosophie (Primärliteratur der Sprachphilosophie; Sekundärliteratur s.o. bei Geschichte der Sprachwissenschaft) / Wesen und Bedeutung der Sprache
    ES 160 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Sprachphänomenologie / Allgemeines
    ER 710 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Funktion der Sprache
    ER 765 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Methodologie der Spachwissenschaft / Einzelmethoden, z.B. Informationsbefragung, Feldarbeit
    ER 900 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachpsychologie. Psycholinguistik / Allgemeines
    Series
    Grundlagen der Kommunikation und Kognition
  20. Stauf, B.: Schlagwortkataloge, Deskriptorenverzeichnisse und Thesauri : Unterschiede und Gemeinsamkeiten im Vergleich (1978) 0.02
    0.023174891 = product of:
      0.092699565 = sum of:
        0.092699565 = weight(_text_:und in 1374) [ClassicSimilarity], result of:
          0.092699565 = score(doc=1374,freq=4.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.6930935 = fieldWeight in 1374, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.15625 = fieldNorm(doc=1374)
      0.25 = coord(1/4)
    

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1870
  • el 890
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications