Search (11775 results, page 3 of 589)

  • × language_ss:"d"
  1. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.09466232 = product of:
      0.18932465 = sum of:
        0.13813516 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.13813516 = score(doc=346,freq=2.0), product of:
            0.44351026 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06293151 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.05118948 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.05118948 = score(doc=346,freq=28.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  2. Hehl, H.: ¬Die Linksysteme des Multisuchsystems E-Connect : Aufsatzrecherche mit Zugang zum Volltext und zu Verbundkatalogen (2003) 0.09
    0.09313955 = product of:
      0.1862791 = sum of:
        0.037855133 = weight(_text_:und in 2688) [ClassicSimilarity], result of:
          0.037855133 = score(doc=2688,freq=20.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.2712157 = fieldWeight in 2688, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2688)
        0.14842397 = weight(_text_:hyperlink in 2688) [ClassicSimilarity], result of:
          0.14842397 = score(doc=2688,freq=2.0), product of:
            0.49147287 = queryWeight, product of:
              7.809647 = idf(docFreq=48, maxDocs=44421)
              0.06293151 = queryNorm
            0.3019983 = fieldWeight in 2688, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.809647 = idf(docFreq=48, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2688)
      0.5 = coord(2/4)
    
    Abstract
    Die Hyperlinktechnologie des WWW wird von immer mehr bibliographischen Datenbanken genützt, um eine schnelle und umfassende Information und vor allem einen unmittelbaren Zugang zu den Informationsdokumenten wie Aufsätzen, Reports usw. anzubieten. Die Rechercheergebnisse einer webbasierten Datenbank sind dementsprechend oft mit einer ganzen Reihe von Hyperlinks ausgestattet. So gibt es in vielen Datenbanken Hyperlinks, die zu den Standortnachweisen von Zeitschriften in einem Verbundkatalog oder evtl. zur elektronischen Version einer Zeitschrift, d.h. zu deren Homepage, hinführen. In manchen Datenbanken führen Hyperlinks auch unmittelbar zum Volltext des einzelnen Artikels hin. Bei dieser mit dem englischen Fachausdruck Reference Linking bezeichneten bibliographischen Verknüpfungstechnik entsteht das Problem, wie ein auf einer Webseite zitierter oder von einer Datenbank als Treffer angezeigter Aufsatz so mit einer URL verbunden werden kann, dass als Ziel des Hyperlinks z.B. die entsprechende elektronische Version angesteuert oder der Bestandsnachweis der angegebenen Zeitschrift in einem Online-Katalog ermittelt wird. Eine akzeptable Lösung des Problems wäre eine standardisierte und frei zugängliche Art der URL-Adresse, ein sogen. OpenURL, der universell einsetzbar ist. Datenbanken, in denen diese Verknüpfungen bereits integriert sind, verwenden vielfach den DOI oder andere Metadaten in ihren Hyperlinkadressen. Der wesentliche Unterschied zwischen DOI und OpenURL besteht darin, dass die Daten für den DOI intern von den Datenbankanbietern vergeben werden, während die Daten für den OpenURL aus jedem einfachen Zitat genommen werden können. Daher ist der OpenURL leicht verwendbar und verknüpfbar, während die Verwendung des DOI in Verknüpfungssystemen davon abhängig ist, ob in dem Originaldokument bzw. der originalen Trefferanzeige ein solcher DOI auch angezeigt wird, was nicht immer der Fall ist. Selbst wenn in kommerziellen Datenbanken eine Verknüpfung mit elektronischen Zeitschriften integriert ist, zeigen diese meist keine Limitierung auf einen lokal verfügbaren Bestand an, so dass eine etwa vorhandene Zugänglichkeit auf Grund einer Subskription nicht erkennbar ist und die Verknüpfung oft ins Leere geht. Zudem führt ein Hyperlink oft nur dann auf den für eine Bibliothek verfügbaren Volltext, wenn die betreffende Zeitschrift beim Datenbankanbieter registriert ist. Die Linksysteme des Multisuchsystems E-Connect sind so konzipiert, dass sie durch ein vorangehendes Suchverfahren in einer Bestandsliste einen tatsächlichen (nicht bloß potentiellen!) Verfügbarkeitsnachweis für eine bestimmte Bibliothek herstellen. Dadurch ist sofort ein Überblick über evtl. zugängliche Volltexte vorhanden. Durch ein speziell von mir entwickeltes Verknüpfungsverfahren über die OpenURLs bzw. die Suchsysteme der Verlage und Gesellschaften ist außerdem der direkte Zugang zum Volltext möglich, unabhängig von einer etwaigen Registrierung und unabhängig davon, ob überhaupt in der Datenbank eine Verbindung zur betreffenden Zeitschrift besteht. Von dem Zugang zum Volltext abgesehen ist außerdem eine Verbindung eines angezeigten Treffers mit Verbundkatalogen wünschenswert, was von Datenbanken bisher nur wenig, von diesen Linksystemen aber durchweg realisiert wird. Das ist insofern wichtig, als es für viele Zeitschriften entweder überhaupt keine E-Version gibt oder keine Subskription vorliegt, so dass man auf die Printversion zurückgreifen muß. Bei einer Verbindung zum OPAC besteht außerdem auch vielfach die Möglichkeit einer Online-Bestellung, wodurch das Bestellverfahren beschleunigt und vereinfacht wird.
  3. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.09276371 = product of:
      0.18552741 = sum of:
        0.13813516 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.13813516 = score(doc=6889,freq=2.0), product of:
            0.44351026 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06293151 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.047392253 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.047392253 = score(doc=6889,freq=24.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  4. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.09276371 = product of:
      0.18552741 = sum of:
        0.13813516 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.13813516 = score(doc=1642,freq=2.0), product of:
            0.44351026 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06293151 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.047392253 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.047392253 = score(doc=1642,freq=24.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  5. Schmidt, A.: Endo-Management : Wissenslenkung in Cyber-Ökonomien (1999) 0.09
    0.09075759 = product of:
      0.18151519 = sum of:
        0.054294646 = weight(_text_:und in 6007) [ClassicSimilarity], result of:
          0.054294646 = score(doc=6007,freq=56.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.38899773 = fieldWeight in 6007, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6007)
        0.12722054 = weight(_text_:hyperlink in 6007) [ClassicSimilarity], result of:
          0.12722054 = score(doc=6007,freq=2.0), product of:
            0.49147287 = queryWeight, product of:
              7.809647 = idf(docFreq=48, maxDocs=44421)
              0.06293151 = queryNorm
            0.25885567 = fieldWeight in 6007, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.809647 = idf(docFreq=48, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6007)
      0.5 = coord(2/4)
    
    Abstract
    Was ist Wissensmanagement? Wissensmanagement ist eine integrale Vorgehensweise, um das Wissen von Individuen, Teams, Organisationen oder Gesellschaften weiterzuentwickeln. Wissensmanagement verfolgt hierbei das Ziel, Wissen im Einklang mit der Unternehmensstrategie effizienter zu navigieren, zu erzeugen, zu nutzen und zu kommunizieren, um die Lebensfähigkeit und Kernkompetenzen von Unternehmen ständig zu verbessern. Da in den meisten Unternehmen weniger als 50 % des vorhandenen Wissens genutzt wird, ist Wissen der wichtigste Rohstoff der Zukunft. Wissen besteht aus Daten, beim Individuum erzeugten Informationen, aus zuvor gemachten Erfahrungen, aus Kreativität und ernotionaler Intelligenz. Wissen ist somit ein mehrdimensionales Phänomen, daß untrennbar mit den menschlichen Interfaces und ihren Interaktionen gekoppelt ist. Die Entwicklung des Wissensmanagements wird durch die Zunahme der Interaktionen im Internet nachhaltig beeinflusst. Die Vorteile eines gezielten Wissensmanagements sind ein kostengünstiger und schneller Zugang zu internen und externen Wissensquellen, die Reduzierung des Zeitaufwandes beim Hervorbringen von Innovationen, die Förderung der Kommunikations- und Teamfähigkeit bei den Mitarbeitern, Effizienzsteigerungen durch direkten Zugriff auf Daten durch alle Mitarbeiter, die Beschleunigung sämtlicher Unternehmensprozesse, eine effektivere Einbindung von Kunden in problemlösungsorientierte Netzwerke sowie die Möglichkeit der interaktiven Kommunikation und Simulation in komplexen Projektumgebungen. Erfolgreiches Wissens-Management erfordert interdisziplinäres Wissen, welches die unterschiedlichen Fachgebiete verbindet und dadurch zum Katalysator für Innovationen werden kann. Zielorientiertes Wissensmanagement erfordert die Lenkungsfähigkeiten im Hinblick auf Daten- und Informationserzeugung auf allen organisatorischen Ebenen zu verbessern. Dies ist die Voraussetzung, damit Führungskräfte, Sacharbeiter oder Studenten Gestaltungsprozesse mit der Ressource Wissen vornehmen können. Unternehmen, die zukünftig nicht über ein effizientes Wissens-Managenent verfügen, werden in einem wissensintensiven Wettbewerb nicht bestehen können.
    Die Wissensstrategie versucht deshalb die Innovationsfähigkeit von Organisationen systematisch zu verbessern, mit dem Ziel, die Adaption an die Kundenbedürfnisse zu steigern. Statt lediglich einen Return on Investment (ROI) zu betrachten wird zunehmend auch ein Retum on Knowledge (ROK), d.h. eine qualitative Größe bei der Bewertung des Unternehmungserfolges eine Rolle spielen. Die Wissen-Strategie gibt dem Wissensmanagement eine konkrete Richtung und definiert, wo Wissensdefizite sind und welche neuen Wissensquellen erschlossen werden müssen. Wer Wissen in Unternehmen hortet ohne es weiterzugeben, schadet dem Unternehmen. Deshalb muß es das Ziel jeder Wissensstrategie sein, die Fähigkeiten der Mitarbeiter derart zu schulen, daß diese das Wissen mit anderen Teilnehmern teilen und gemeinsam weiterentwickeln. Da effizientes Wissens-Management auch eine intelligente Vernetzung von Unternehmen bedingt, werden Firmen, die ein zielorientiertes Management der Ressource Wissen betreiben wollen, nicht umhin kommen, ihre Unternehmensstrukturen den Hyperlink-Strukturen des Meta-Wissensnetzes Internet anzupassen. Wissen schafft Wachstum. Management von Wissen ist ein typischer Endo-Prozeß, da er innen bei den Individuen beginnt und sich mit der temporären Vernetzung zu Endo-Netzen im Rahmen von Teams oder größeren Diskussionsgruppen fortsetzt. Voraussetzung für die Generierung von neuem Wissen ist jedoch, daß die Wissensquellen frei zugänglich sind (Wissenstransparenz), daß das Wissen im Unternehmen zielgerichtet weitergereicht wird (Wissenskommunikation) und daß dieses Wissen von den Teilnehmern auch verwendet werden kann (Wissensanschlußfähigkeit).
    Die Halbwertszeit neuer Technologien, Strukturen und Prozesse erfordert ein spezielles Wissensmanagement im Hinblick auf Innovationen und Erfindungen. Beispiele aus erfolgreichen Unternehmen wie Microsoft, Intel oder Compaq zeigen, daß durch die gezielte Nutzung und Weiterentwicklung des in den Unternehmen vorhandenen Wissens Kostensenkungs- und Wachstumspotentiale freigesetzt werden können, die mit herkömmlichen Verschlankungsansätzen oder ReorganisationskonzePten nicht hätten erreicht werden können. Qualitatives Wachstum durch Wissensaustausch erfordert jedoch Echtzeitsysteme, die instantane Diskussionen und Interaktionen in Internet-Foren, Intranets oder mit externen Netzwerken erlauben. Endo-Management. Beim Endo-Management (= Unternehmensführung im Cyberspace) geht es um die Gestaltung, Simulation und Lenkung von künstlichen Welten sowie die Wahrnehmung, Kommunikation und Interaktion mit diesen CyberWelten durch Virtuelle Realitäten. Netzwerke werden hierbei nicht im Rahmen von Markt- oder Organisationsuntersuchungen, sondern im Rahmen von Interfaces betrachtet, d.h. von Strukturen und Prozessen, die unsere Wirklichkeiten konstruieren. Die Vielfalt der simulierten Alternativen erfordert hierbei Freiräume für die Teilnehmer, damit neue Regeln sowohl für die Exo (Außen)- als auch die Endo (Innen)-Welten erfunden werden können.
    Da der Mensch gleichzeitig Teilnehmer der physischen Exo-Welt sowie Teilnehmer der Endo-Welt des Computers im Rahmen des Cyberspace sein kann, hat er die notwendige ExoPerspektive (Super-BeobachterStatus) gegenüber der Simulation, um die Endo-Welten weiterzuentwickeln und zu verbessern. Darüber hinaus erfolgreiche Problemlösungen innerhalb des Cyberspace gegebenenfalls auch auf physische Exo-Welten übertragen werden. Ein Beispiel für erfolgreiches Endo-Management sind "Community Networks", d.h. Systeme, die sich an die gesamte Bevölkerung eines lokalen Gerneinwesens richten. Derartige Conirmunities haben das Ziel, Bürgerinnen und Bürger kostenlos bzw gegen ein äußerst geringes Entgelt an den Vorteilen der direkten Kommunikation und des echtzeitorientierten Wissensaustausches partizipieren zu lassen. Die Lenkungsproblematik wird oftmals von Software-Experten ignoriert und alleinig auf technologische Problemlösungen eingeengt. Es gibt jedoch keine Algorithmen für Communities, da diese sich durch die Wechselwirkung der Teilnehmer selbst organisieren und ständig neue Interfaces designen. Das Endo-Management von "Cornmunity-Networks" basiert hierbei auf folgenden Erfolgscharakteristiken: dauerhafte Identitäten, fortgesetzte Interaktion, Anschlußfähigkeit an vorhergehende Kommunikation, Transparenz der Handlungen der einzelnen Teilnehmer, eindeutige Spielregeln, eine relativ stabile Population, wohl definierte Grenzen sowie einen Mehrwert für die Teilnehmer, der in sozialen Bindungen oder einer Erhöhung des Wissens besteht
  6. Internet: The editor's choice (2002) 0.09
    0.08633448 = product of:
      0.34533793 = sum of:
        0.34533793 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.34533793 = score(doc=1854,freq=2.0), product of:
            0.44351026 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06293151 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  7. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.08028553 = product of:
      0.16057105 = sum of:
        0.12086826 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.12086826 = score(doc=6206,freq=2.0), product of:
            0.44351026 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06293151 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.0397028 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.0397028 = score(doc=6206,freq=22.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  8. Pawlak, A.: Durch das Internet mit Links (2002) 0.08
    0.079833895 = product of:
      0.15966779 = sum of:
        0.032447256 = weight(_text_:und in 1558) [ClassicSimilarity], result of:
          0.032447256 = score(doc=1558,freq=20.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.2324706 = fieldWeight in 1558, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1558)
        0.12722054 = weight(_text_:hyperlink in 1558) [ClassicSimilarity], result of:
          0.12722054 = score(doc=1558,freq=2.0), product of:
            0.49147287 = queryWeight, product of:
              7.809647 = idf(docFreq=48, maxDocs=44421)
              0.06293151 = queryNorm
            0.25885567 = fieldWeight in 1558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.809647 = idf(docFreq=48, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1558)
      0.5 = coord(2/4)
    
    Content
    "Wie findet der einzelne Nutzer in der "allwissenden Müllhalde" Internet genau die verlässliche Information, die er sucht? Immerhin stehen dem wissbegierigen User auf über 36 Millionen Web-Angeboten (Sites) mehr als vier Milliarden Einzelseiten zur Verfügung. Deshalb gibt er meist in ein eigens dafür konzipiertes Internet-Programm, eine so genannte Suchmaschine, eine Kombination von Suchwörten ein und erhält eine Liste von Webseiten, in denen diese Wörter vorkommen. Nur allzuoft enthält diese Liste einen hohen Anteil Unbrauchbares, denn aus dem bloßen Vorhandensein eines Wortes geht nicht hervor, ob die Webseite zu dem zugehörigen Begriff etwas zu sagen hat. Mehr Sinn steckt schon in den in Hyperlinks, anklickbaren Verweisen, die der Autor der Webseite selbst in diese eingefügt hat. Das Web lässt sich als ein riesiges Netz aus Knoten auffassen, die durch die Hyperlinks miteinander verknüpft sind. Spezielle Computerprogramme sind in der Lage, in diesem unübersehbaren, zufällig erscheinenden Fadengewirr eine gewisse Ordnung zu finden (Spektrum der Wissenschaft 8/1999, S.44). Dabei erweist sich die Hyperlink-Struktur oftmals als ein deutlicheres Kennzeichen für die inhaltliche Verwandtschaft von Webseiten als noch so geschickt gewählte Suchbegriffe. Alle Verknüpfungen im gesamten Internet unter die Lupe zu nehmen scheitert jedoch an ihrer riesigen Menge. Deshalb haben Gary Flake und seine Kollegen vom Forschungsinstitut der amerikanischen Firma NEC in Princeton einen eiwas anderen Weg gewählt. Sie beschränken sich nicht auf eine vorgegebene Menge von Seiten, sondern wählen zunächst eine aus, die als Keimzelle für eine so genannte Commu nity (Gemeinschaft) dient. Kandidaten für die Community sind zunächst die Webseiten, die mit der Keimzelle direkt oder indirekt über (einoder ausgehende) Hyperlinks verknüpft sind. Durch einen raffinierten Algorithmus wird dann bestimmt, welche Webseiten endgültig zur Community gehören: Per Definition ist jedes Mitglied einer Community mit mehr Mitgliedern als Nicht-Mitgliedern verbunden. Das Computer-Programm der NEC-Forscher identifiziert somit ausgehend vom gewählten Startpunkt die Gemeinschaft, die sich selbstorganisiert über die Hyperlinks im Internet gebildet hat (IEEE Computer, Bd. 35, S. 66, 2002). Ein Beispiel für diese Methode findet sich unter http://webselforganization.corn/example.html. Dort hat der Algorithmus der NEC-Forscher einer Internetseite mit Themen zum 11. September eine Gemeinschaft von mehr als 6000 weiteren Seiten zugeordnet - nur auf grund der Verknüpfungen über Hyperlinks und ohne Zuhilfenahme von Textinformationen. Innerhalb dieser Community führt das Suchwort "why" nun sofort auf Seiten, die sich mit der Frage "Why did it happen and why did the buildings collapse?" beschäftigen. Auch die ansonsten mehrdeutigen Begriffe "bin" und "laden" führen nicht mehr in die Irre, sondern auf Informationen über Usama Bin Laden. Filtersoftware zur Abwehr pornografischer oder anderer anstößiger Web-Inhalte könnte mit dem Community-Algorithmus noch treffsicherer werden. Wie sich herausstellt, ist eine Pornografie-Seite nicht unbedingt am Vorhandensein gewisser Reizwörter zu erkennen, die von den Betreibern vielleicht mit Fleiß vermieden werden, sondern weit zuverlässiger daran, dass sie auf andere Pornografie-Seiten verweist oder auf sie von diesen verwiesen wird. Auch sind effektivere Suchmaschinen denkbar, bei denen sich text- und linkbasierte Methoden geschickt ergänzen.
    Allerdings läuft man im kurzlebigen Internet oft ins Leere. Was nützt der schönste Fund, wenn die zugehörige Internetseite nicht mehr existiert? John Markwell und David Brooks von der Universität von Nebraska in Lincoln haben das bei den von ihnen entwickelten Web-basierten Kursen zur Biochemie (http: //dwb.unl.edu/Teacher/NSF/C10/C10.html, -C11/C11.html und -C08/C08.html) schmerzlich zu spüren bekommen: Häufig fielen Hyperlinks aus - als würden aus einem Lehrbuch immer wieder Seiten ausgerissen. Einen vorläufigen Bericht dazu haben Markwell und Brooks unter http://www-eiass.unl.edu// biochem/url/broken_links.html veröffentlicht. Ihr Ergebnis: Hyperlinks haben eine Halbwertszeit von etwa 55 Monaten. Nach dieser Zeit sind somit die Hälfte von ihnen "zerbrochen", nach 13 Monaten schon 16,5 Prozent. Dabei erwiesen sich die Links von Regierungsstellen (Kürzel .gov) mit nur vier Prozent Verlust als einigermaßen robust, solche von Bildungsstätten (.edu) mit 17,5 Prozent als besonders kurzlebig. Diese Resultate haben die Begeisterung von Markwell und Brooks für die Verwendung von Hyperlinks erheblich gedämpft. Der Psychologe Ulf-Dietrich Reips von der Universität Zürich hat das Problem bereits seit längerem erkannt und für sich gelöst. Der Spezialist für psychologische Web-Experimente verweist nicht nur auf die Experimente seiner Kollegen, sondern archiviert sie gleich komplett unter der Adresse http://130.60. 239.96/wexlist/, um sie so langfristig verfügbar zu halten.
  9. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.0779605 = product of:
      0.155921 = sum of:
        0.10360137 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.10360137 = score(doc=1729,freq=2.0), product of:
            0.44351026 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06293151 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.052319627 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.052319627 = score(doc=1729,freq=52.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  10. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.077452496 = product of:
      0.15490499 = sum of:
        0.10360137 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.10360137 = score(doc=195,freq=2.0), product of:
            0.44351026 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06293151 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.051303618 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.051303618 = score(doc=195,freq=50.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  11. Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998) 0.07
    0.06906758 = product of:
      0.27627033 = sum of:
        0.27627033 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
          0.27627033 = score(doc=6134,freq=2.0), product of:
            0.44351026 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06293151 = queryNorm
            0.62291753 = fieldWeight in 6134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6134)
      0.25 = coord(1/4)
    
    Abstract
    Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
  12. Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004) 0.07
    0.06697111 = product of:
      0.13394222 = sum of:
        0.08633448 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
          0.08633448 = score(doc=3183,freq=2.0), product of:
            0.44351026 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06293151 = queryNorm
            0.19466174 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.047607742 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.047607742 = score(doc=3183,freq=62.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.34108895 = fieldWeight in 3183, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
      0.5 = coord(2/4)
    
    Abstract
    Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
    Content
    "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
    Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
    Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
    Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
    Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
  13. Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008) 0.07
    0.06697111 = product of:
      0.13394222 = sum of:
        0.08633448 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
          0.08633448 = score(doc=3331,freq=2.0), product of:
            0.44351026 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06293151 = queryNorm
            0.19466174 = fieldWeight in 3331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
        0.047607742 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
          0.047607742 = score(doc=3331,freq=62.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.34108895 = fieldWeight in 3331, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
      0.5 = coord(2/4)
    
    Abstract
    Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
    Footnote
    Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
    Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
    Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
    Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
  14. Krajewski, M.: Zettelwirtschaft : Die Geburt der Kartei aus dem Geiste der Bibliothek (2002) 0.06
    0.061234 = product of:
      0.122468 = sum of:
        0.048256017 = weight(_text_:und in 1621) [ClassicSimilarity], result of:
          0.048256017 = score(doc=1621,freq=130.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.34573358 = fieldWeight in 1621, product of:
              11.401754 = tf(freq=130.0), with freq of:
                130.0 = termFreq=130.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.013671875 = fieldNorm(doc=1621)
        0.074211985 = weight(_text_:hyperlink in 1621) [ClassicSimilarity], result of:
          0.074211985 = score(doc=1621,freq=2.0), product of:
            0.49147287 = queryWeight, product of:
              7.809647 = idf(docFreq=48, maxDocs=44421)
              0.06293151 = queryNorm
            0.15099914 = fieldWeight in 1621, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.809647 = idf(docFreq=48, maxDocs=44421)
              0.013671875 = fieldNorm(doc=1621)
      0.5 = coord(2/4)
    
    Abstract
    Auf nahezu jedem Schreibtisch steht heute ein zumeist grauer Kasten, aus dem viele Kabel kommen. Vor 70 Jahren war dieser datenverarbeitende Kasten noch unscheinbarer, unelektronisch und aus Holz, buchstäblich eine Papiermaschine. Die ZettelWirtschaft widmet sich der Frage, wie diese >Maschine< namens Kartei ihren Siegeszug als ebenso universelles wie zentrales Werkzeug zur Datenverarbeitung in die Büros und Schreibstuben um 1930, bis zum Vorabend der >Universalen Diskreten Maschine< namens Computer, antreten konnte. Dabei wird die Entwicklung der Kartei anhand ihrer historischen Brüche verfolgt: angefangen bei den ersten explizit beschriebenen Verzettelungen des Wissens in der Frühen Neuzeit, über die beinahe zufällige Einführung und allmähliche Durchsetzung von Zettel-Katalogen in den Bibliotheken um 1800 steuert die Studie - nach einem Seitenblick auf die Produktionsbedingungen von Literatur mit Hilfe der Zettelkästen- hin zur zentralen These, der diskursiven Übertragung zwischen den Institutionen des Schreibens, zwischen Bibliothek und Büro. Versehen mit zahlreichen Abbildungen und zum Teil auf bislang unveröffentlichtem Archivmaterial basierend, wird hier die Historie der Zettelkästen und Karteisysteme als eine notwendige Vorgeschichte des Computers beschrieben, nicht ohne diesen Prozeß als eine abwechslungsreiche, bisweilen überraschende Geschichte des Scheiterns zu bilanzieren.
    Classification
    AN 74160 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Kataloge nach der technischen Einrichtung / Zettelkataloge
    Content
    "Von der Bibliotheksführung zur Bürozeit - Eine Einleitung. - "Karteien können alles" verheißt der Fortschritt 1929 im Namen der gleichlautenden Fabriken GmbH, die ihn mit diesem vermeintlich schlichten Slogan in der Zeitschrift für Organisation prominent bewerben. Das Versprechen, das die ganzseitige Anzeige bereits im allerersten Satz auslobt, ist kein geringes. Weiter heißt es: Karteien können in den Lagerverwaltungen der großen Industriewerke Zehntausende kleiner und großer Einzelteile in Ordnung halten, können in den Personalbüros jede beliebige Anzahl Adressen übersichtlich gliedern, können in den Meldeämtern der großen Städte die Bewegung von Hunderttausenden von Menschen überwachen, können in den Buchhaltungsabteilungen der kaufmännischen Büros sich nützlich machen, z.B. als Kontokorrent-Karteien, usw. usw. Karteien können alles! Bitte lesen Sie, was »Fortschritt« in dem soeben erschienenen Kartei-Katalog »Bewegliche« Notizen über die Einrichtung von Karteien »neues« sagt. Diese Studie versucht, eine für die Entwicklung der Kartei konstitutive Idee von ihrer Urszene bis zum angezeigten Fortschritt zu verfolgen. Dazu soll gefragt werden, aus welchen Gründen die »neues« versprechende Apparatur jedwede Arbeit - allen voran Ordnen, Adressieren, Kontrollieren, Speichern, Buchhalten und Rechnen - leisten können soll. Und da diese Begrifflichkeit nachgerade fordert, sich in eine Medienarchäologie einzuschreiben, die die Universalität von Papiermaschinen untersucht, folgt das dieser Studie zugrunde gelegte Frage-Raster einer Formation der (unelektronischen) Datenverarbeitung. Warum handelt es sich bei dieser Apparatur, die vieles verspricht und vermeintlich alles kann, um eine universelle Maschine? Was für eine solche Maschine lediglich vonnöten ist, weist Alan Turing schließlich erst knapp zehn Jahre später nach: (1) ein (theoretisch unendlich) langes, gleichwohl unterteiltes Papierband, (2) ein Schreib-/Lese-Kopf und (3) ein genau festgelegtes Verfahren, wie der Schreib-/Lese-Kopf auf den Papierabschnitten zu bewegen sei. Diesen drei logischen Grundbestandteilen eines jeden Computers gilt es nun und im folgenden nachzuspüren, ihre Kontexte in dieser Form der Datenverarbeitung zu verorten und das Zusammenspiel zu analysieren, das schließlich zu dem gerechtfertigten Satz führen darf: »Karteien können alles!«
    Dieses Diktum markiert den vorläufigen Endpunkt einer Entwicklung, an deren Gipfel für kurze Zeit (von ca. 1920 bis in die 60er Jahre; »Einen Staat lang«) die bürokratische Papiermaschine namens Kartei residiert. Ihren weiten Herrschaftskreis dokumentieren die zahlreichen, neu entstandenen Zeitschriften für Bürobedarf und -organisation. Die vorliegende Studie will versuchen nachzuzeichnen, wie sich die Kartei auf jedem Schreibtisch um 1930 zu etablieren, wie sie ins Zentrum der organisatorischen Aufmerksamkeit zu rücken versteht. Zwar nimmt sich die Kartei rein äußerlich eher unscheinbar aus neben der filigranen Imposanz einer Schreibmaschine, jedoch behauptet sie ebenso beharrlich ihren Platz durch das mitgegebene Versprechen der Universalität. Auf welchen Errungenschaften gründet sich dieser Anspruch? Vor welcher Schablone vermag sich die Papiermaschine abzuheben? Aus welchen Wurzeln entwickelt sich dieses System der Verzeichnung? Die Behauptung einer universalen Papiermaschine und eine erste Suche nach ihrem Grund und Ursprung legt den Verdacht nahe, daß diese papierene Anordnung Vorbild und Vorgänger in einem ebenfalls aus Kasten und Zetteln bestehenden Dispositiv findet, die hinlänglich vertraute, heute bald schon verschwundene Suchmaschine einer Bibliothek namens Zettelkatalog. Die Genealogie der Kartei als eine Speichertechnologie gehorcht, so die Grundthese, einer vielfachen Übertragung. Als chronologisch erste und weitreichendste Instanz ereignet sich ein Technologie-Transfer zwischen zwei Diskursen. Der erste von beiden formiert folgerichtig die Bibliothek, wenngleich die diskursive Praxis der Verzeichnung ihre Katalogisierungstechnik zumeist nur verschwiegen und randständig behandelt. Der zweite Diskurs folgt einer Tendenz, die unter Begriffen wie Effizienz, Rationalisierung oder Psychotechnik die Abläufe und Verwaltungsmaßnahmen der Büroarbeit organisiert. Die allgegenwärtige Präsenz der Kartei auf den Schreibtischen der Zwischenkriegszeit verdankt sich der seltenen Übertragung einer Wissenstechnologie zwischen zwei Institutionen, deren Wechselwirkung üblicherweise in umgekehrter, archivalischer Richtung erfolgt, sich hier jedoch aus der Bibliothek in das Büro vollzieht. Wenn von Transfers die Rede ist, reicht es kaum aus, Anfangs- und Endpunkt, Sender und Empfänger zu markieren. Statt dessen muß gekennzeichnet werden, wie dieser Transfer inklusive all seiner Störungen, Wandlungen, Stockungen, Irritationen und Umlenkungen überträgt. Und für einmal muß noch das beschrieben werden, was übertragen wird. Denn weitergereicht wird eine Verfahrensweise, die ihrerseits darauf abzielt, den Grundoperationen einer Universalen Diskreten Maschine zu genügen: Daten zu speichern, zu prozessieren und (selbst) zu übertragen. Das von üblichen Datenspeichern wie etwa dem Buch abweichende Verfahren setzt dabei auf ein ebenso einfaches wie naheliegendes Prinzip: Die Informationen stehen auf gesonderten, gleichgerichteten und frei beweglichen Trägern bereit, um nachstrengen Ordnungsschemata arrangiert weiter verarbeitet und abgerufen zu werden. Die Übertragung beginnt mit einer Urszene, wenngleich sich das Feld ihrer Reichweite zunächst nur auf den bibliothekarischen und den damit zumeist eng verbundenen gelehrten Diskurs beschränkt. Dem Polyhistor Konrad Gessner fällt es zu, am Anfang dieser einen Geschichte der Kartei zu stehen. Sicherlich ist er kaum der Erfinder einer Technik, auf Papier verteilte Informationen zu zerschneiden und so einfacher arrangieren zu können. Jedoch liegt mit dem von ihm 1548 vielleicht erstmals explizit beschriebenen Verfahren die früheste bisher bekannte Überlieferung vor, wie auf komfortable Weise alphabetisch geordnete, umfangreiche Listen herzustellen sind. Das erste Kapitel widmet sich demnach einer detaillierten Beschreibung der Gessnerschen Verzettelung, um im Anschluß daran die Tradierung dieser vorbildlichen Empfehlung in der Frühen Neuzeit und dem Barock besonders bei der Kunst des Exzerpierens in Umrissen zu verfolgen.
    Der erste Hauptteil 'Um 1800' versucht daraufhin, mit einem Bruch in der Anwendungsweise des Gessnerschen Verfahrens dessen erste Diskontinuität nachzuweisen. Nicht zuletzt wegen dieses Einschnitts muß die Art der Verzeichnung bis dato das Attribut vorläufig tragen. Die Verzettelungstechnik gelangt von einem temporären Gebrauch zur dauerhaften Verwendung, was dadurch eine ebenso unbeabsichtigte wie folgenreiche Umstellung markiert. Gleichzeitig entsteht hiermit der bibliothekshistorisch erste Zettelkatalog, dessen unverhoffter Einsatz und Genese in Wien um 1780 eine detaillierte Beschreibung erfährt. Der Zettelkatalog besteht nicht nur als bibliothekarische Antwort auf einen drohenden information overflow, sondern vor allem dank seiner umsichtigen Logistik. Entscheidend dabei sind schriftlich fixierte, genaue Handlungsanweisungen, anhand derer auch unausgebildetes Personal in den arbeitsteiligen Prozeß eingebunden werden kann. Mit Hilfe eines kleinen Exkurses soll zuvor jedoch die Koinzidenz zweier Adressierungslogiken untersucht werden: In einem Jahrzehnt und derselben Stadt fällt die Entstehung des Zettelkatalogs zusammen mit der Erfindung der Hausnummer. Damit etabliert sich eine Möglichkeit zur abstrakteren Repräsentation und zu einem kontrollierenden Zugriff auf Schriften bzw. Hausbewohner. Das anschließende dritte Kapitel verbleibt in der Umbruchphase um 1800, indem es eine notwendige Differenz zieht zwischen der Bibliothekstechnologie von vielen Schreib- für viele Lese-Köpfe und einer eigenwilligen Anordnung von gelehrten Exzerptensammlungen. Die Unterscheidung trennt ein Server-Konzept von einer Workstation-Philosophie. Der erste Zettelkatalog ist nicht nur das Produkt eines kollektiven Arbeitsprozesses, sondern vor allem für eine vielköpfige Benutzung geeignet und konzipiert. Im Gegensatz zu diesem Multi-User-System verwehrt die idiosynkratische Maschine in Form eines Gelehrtenkastens gerade jede fremde Einsichtnahme. Sie besitzt keine Vermittlungsnotwendigkeit, so daß sich das interne System der Verzeichnung durchaus unverständlich für alle Einsichtnehmenden ausnehmen darf. Auch eine Form von Datenschutz, die anhand der eigentümlichen gelehrten Exzerpiertechniken in einer kleinen Genealogie von Johann Jacob Moser bis zu Jean Paul und anderen konturiert wird. Das vierte und letzte Kapitel des ersten Teils widmet sich einer ersten Übertragung alteuropäischer Bibliothekstechnik in die Neue Welt. Das Zettelkastenprinzip erreicht einerseits die amerikanische Ostküste durch Bibliothekare, die in Europa studieren, um die dort etablierte Praxis der Katalogisierung auf ihre im Laufe des 19. Jahrhunderts schnell anwachsenden Büchersammlungen anzuwenden. Andererseits jedoch besitzen die Vereinigten Staaten auch eine eigene, autochthone Genealogie der Verzettelung. 1817 gelingt William Croswell bei seinem unglücklichen Projekt, der Harvard College Library einen umfassenden Katalog zu verschaffen, die Geburt des amerikanischen Zettelkatalogs aus dem Geiste der Faulheit.
    Der zweite Hauptteil 'Um 1900' fokussiert den diskursiven Übertrag zwischen Bibliothek und Büro, der wiederum nicht von europäischen Bibliotheken ausgeht. Während diese noch ganz dem Streit um Katalog vs. Aufstellung verhaftet sind, gereicht die Initiative und Aufbruchstimmung um die amerikanische Bibliothekarsvereinigung und namentlich in Gestalt ihres Protagonisten Melvil Dewey zum Ausgangspunkt des wirkungsmächtigen Technologietransfers zwischen den Institutionen der Wissensverwaltung und der Wirtschaft. Schaltstelle dafür ist ein Gebilde, das nicht nur die Zielrichtung der institutionellen Übertragung bereits im eigenen Namen trägt, sondern sich überdies vom Ein-Mann-Betrieb zu einem Konzern entwickelt: das Library Bureau. Das sechste Kapitel verschreibt sich den Agenturen einer wiederum europäischen Verbreitung dieser Speichertechnologie, d.h. es gilt der Frage nachzugehen, welche Institutionen das Wissen um den Einsatz eines Zettelkatalogs und seiner Prämissen - allen voran weitestgehende Standardisierung - aufnehmen, um es als unabdingbare Grundlage der eigenen Arbeit zu lancieren. Im siebten und letzten Kapitel koppelt schließlich das Verfahren, listengesteuerte Verwaltungen auf Zettelbasis zu führen, an den organisatorischen Diskurs einer Arbeitswissenschaft an, die den Zettelkatalog als wirtschaftliche Optimierungsinstanz entdeckt und unter dem Namen Kartei zu einem vorrangigen Rationalisierungsinstrument entwickelt. Auf der Suche nach der ökonomischen Zeit, die mit der Rationalisierungsbewegung um 1920 große Aufmerksamkeit erfährt, versprechen sich die Verfechter der modernen Büroorganisation vom Zettelkasten als Stapelverarbeitung einhellig großen Gewinn, so daß eine schlichte, einstmalige Bibliothekstechnik zum neuen Paradigma einer buchhalterischen Arbeitsweise gerät. Am Ende dieser Geschichte steht ein Medienwechsel, der die Kartei als neuen Kulturträger propagiert, um das Buch zu verabschieden. Diese Studie, deren Raster bislang implizit mit dem Shannonschen Kommunikationsmodell skizziert wurde und darauf auch im weiteren Verlauf mit der Rede von Kanälen (und Strömen) rekurrieren wird, folgt diesem Modell ebenso in der dritten Instanz der Übertragung, der Störquelle zwischen Sender und Empfänger, um letztlich zu dem Schluß zu gelangen, daß das Rauschen recht behält: Diese Arbeit möchte daher immer auch die Momente der Irritation beobachten, die Störquellen, die eine Übertragung gefährden, die ein Risiko ins Spiel mit den Karten bringen. In welcher Position ist diese Stockung zu verorten? Mit welchen Sicherungsmaßnahmen gelingt es beispielsweise, der informationellen Entropie der Kartei, ihrem irreversiblen Durcheinander der Karten einstweilen Einhalt zu gebieten? An welchen neuralgischen Punkten finden Störungen immer wieder ihren Einsatz, um bisweilen nachhaltig die Übertragungen zu unterbrechen und ihrem Ende zuzuführen? Denn es scheint unvermeidlich, die Historie der Kartei als eine Geschichte des mannigfachen Scheiterns zu lesen. Die diskursiven Übertragungen, die Transfers zwischen den Institutionen und auch die Übertragung von Informationen innerhalb der Kartei-Anordnung sowie deren Implikationen konfigurieren gemeinsam die Geschichte der Kartei. Die vorliegende Arbeit will versuchen, diese Geschichte vom Material her zu schreiben. Das heißt zunächst, viele Stimmen zur Sprache kommen zu lassen, obgleich stets die Gefahr der unstimmigen Polyphonie droht. Ein schief singender Chor. Doch da die Aufgabe darin bestehen soll, Episoden einer Anordnung aus Zetteln und ihren jeweiligen Verknüpfungen zu verknüpfen, vertraut diese Studie dem Dispositiv für einmal und notiert das, was ihr der Zettelkasten diktiert.
    Manches hat der Zettelkasten verschwiegen, um seine eigene Ökonomie und die des notwendigerweise beschränkten Umfangs dieser Studie nicht allzu sehr zu beanspruchen - manches schlechterdings aus Mangel an Information. Allererstes Manko ist die Verlegenheit, keine Universalgeschichten mehr schreiben zu können. So beginnt diese Geschichte nicht mit dem Anfang von Geschichte und beschreibt demzufolge keine mesopotamischen, ägyptischen, griechischen oder römischen Register als Verzeichnisse der gespeicherten Schriften. Auch die berühmte Bibliothek von Alexandria samt ihrem ebenso berühmten Bibliothekar Kallimachos, der die Inventare der Schriften auf tönernen Pinakes an den Regalen fixierte, bleibt außen vor. Statt dessen steht am Beginn der Karteigeschichte eine (vermeintliche) Urszene des 16. Jahrhunderts, die vielleicht auch anders, d.h. früher, hätte gesetzt sein können. Des weiteren vermag diese Studie nicht, einem ausgelobten Desiderat abzuhelfen, eine schlichte Fußnote bei Foucault: »Aufkommen der Karteikarte und Konstituierung der Humanwissenschaften: noch eine Erfindung, die von den Historikern wenig gefeiert wird.« Wenngleich die eine Entwicklung, die »Konstitution der Humanwissenschaften«, dieser Studie als methodisches Leitbild dient, konnte die direkte Verbindung zum Erscheinen der Karteikarte nicht eindeutig geknüpft werden. Geplant war, ein Desiderat der Fußnote zur Entfaltung zu bringen, d.h. einem Exkurs zur Evolution der Karteikarte die letztendliche Übertragungs-Leistung zwischen Bibliothekaren und Kaufleuten ab 1890 anzufügen. Der Exkurs mußte gleichwohl einer anderen, bereits erwähnten Ökonomie, der Raumnot, zum Opfer fallen. In diesem Kapitel, das im Anschluß an das zweite gefolgt wäre, hätte nicht nur die verfestigende Entwicklung einer Materialität der Karteikarte vom Papierschnipsel bis zu ihrer Aufrechtigkeit als Leit-Karton Platz gefunden. (Diese Episode zieht sich nun implizit durch die Beschreibung einer fortschreitenden Standardisierung.) Foucaults beunruhigende Bemerkung stellt des weiteren, Bonneville zitierend, bereits für das Jahr 1833 einen direkten Zusammenhang her zwischen der Karteikarte und einer kaufmännischen Verzeichnungstechnik. Die Monographie zu den technischen Medien der Kaufleute ist leider noch ungeschrieben oder dem hier ins Spiel geratenen Zettelkasten bislang zumindest unbekannt. Darüber hinaus wäre der Versuch unternommen worden, die isomorphe Logik der Repräsentation von Zetteln und Banknoten sowie ihren Zusammenfall in den Zettel/Daten/Banken zu schildern. So muß die Episode über die Zirkulation von Geld und Ideen ihrerseits auf eine Fußnote zur Bank of England beschränkt bleiben und auf diese Anmerkung.
    Der Bogen dieser Geschichte verspricht, mit einer Bibliotheksführung zu beginnen, allerdings nicht im Sinne eines Rundgangs, sondern mit der Markierung eines Orts, wo das Prinzip von Verzettelungen zur Reife und führenden Katalogisierungs-Anwendung gelangt. Enden möchte er hingegen in Bürozeiten, nicht verstanden als geregelte Termine eines beginnenden und auslaufenden Arbeitstags, statt dessen als eine Ära, deren Produktivität noch ohne den Begriff der »Dienstleistung« auskommt und deren Bürogeräte soeben keine Elektrizität kennen."
    Footnote
    Auf der Webseite wird auch eine Software namens Synapsen zum Erstellen eines Zettelkastens mit Hyperlink-Funktionen angeboten
    RVK
    AN 74160 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Kataloge nach der technischen Einrichtung / Zettelkataloge
  15. Agosti, M.; Pretto, L.: ¬A theoretical study of a generalized version of kleinberg's HITS algorithm (2005) 0.05
    0.05300856 = product of:
      0.21203424 = sum of:
        0.21203424 = weight(_text_:hyperlink in 1004) [ClassicSimilarity], result of:
          0.21203424 = score(doc=1004,freq=2.0), product of:
            0.49147287 = queryWeight, product of:
              7.809647 = idf(docFreq=48, maxDocs=44421)
              0.06293151 = queryNorm
            0.43142614 = fieldWeight in 1004, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.809647 = idf(docFreq=48, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1004)
      0.25 = coord(1/4)
    
    Abstract
    Kleinberg's HITS (Hyperlink-Induced Topic Search) algorithm (Kleinberg 1999), which was originally developed in a Web context, tries to infer the authoritativeness of a Web page in relation to a specific query using the structure of a subgraph of the Web graph, which is obtained considering this specific query. Recent applications of this algorithm in contexts far removed from that of Web searching (Bacchin, Ferro and Melucci 2002, Ng et al. 2001) inspired us to study the algorithm in the abstract, independently of its particular applications, trying to mathematically illuminate its behaviour. In the present paper we detail this theoretical analysis. The original work starts from the definition of a revised and more general version of the algorithm, which includes the classic one as a particular case. We perform an analysis of the structure of two particular matrices, essential to studying the behaviour of the algorithm, and we prove the convergence of the algorithm in the most general case, finding the analytic expression of the vectors to which it converges. Then we study the symmetry of the algorithm and prove the equivalence between the existence of symmetry and the independence from the order of execution of some basic operations on initial vectors. Finally, we expound some interesting consequences of our theoretical results.
  16. Bühler, A.: Antirealismus und Verifikationismus (1992) 0.03
    0.026767623 = product of:
      0.10707049 = sum of:
        0.10707049 = weight(_text_:und in 615) [ClassicSimilarity], result of:
          0.10707049 = score(doc=615,freq=10.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.7671139 = fieldWeight in 615, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=615)
      0.25 = coord(1/4)
    
    Series
    Philosophie und Geschichte der Wissenschaften; Bd.18
    Source
    Wirklichkeit und Wissen: Realismus, Antirealismus und Wirklichkeits-Konzeptionen in Philosophie und Wissenschaften. Hrsg.: H.J. Sandkühler
  17. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.03
    0.02635473 = product of:
      0.10541892 = sum of:
        0.10541892 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
          0.10541892 = score(doc=1190,freq=76.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.75528115 = fieldWeight in 1190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1190)
      0.25 = coord(1/4)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Series
    Sprache und Information ; 33
  18. Schnelle, H.: ¬Die Natur der Sprache : die Dynamik der Prozesse des Sprechens und Verstehens (1991) 0.02
    0.02466371 = product of:
      0.09865484 = sum of:
        0.09865484 = weight(_text_:und in 2578) [ClassicSimilarity], result of:
          0.09865484 = score(doc=2578,freq=104.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.7068194 = fieldWeight in 2578, product of:
              10.198039 = tf(freq=104.0), with freq of:
                104.0 = termFreq=104.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2578)
      0.25 = coord(1/4)
    
    BK
    17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 / Einzelne Sprachen und Literaturen allgemein
    Classification
    ER 720 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Einzelne Richtungen der Sprachtheorie
    ER 610 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachphilosophie (Primärliteratur der Sprachphilosophie; Sekundärliteratur s.o. bei Geschichte der Sprachwissenschaft) / Wesen und Bedeutung der Sprache
    ES 160 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Sprachphänomenologie / Allgemeines
    ER 710 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Funktion der Sprache
    ER 765 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Methodologie der Spachwissenschaft / Einzelmethoden, z.B. Informationsbefragung, Feldarbeit
    ER 900 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachpsychologie. Psycholinguistik / Allgemeines
    17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 / Einzelne Sprachen und Literaturen allgemein
    RVK
    ER 720 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Einzelne Richtungen der Sprachtheorie
    ER 610 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachphilosophie (Primärliteratur der Sprachphilosophie; Sekundärliteratur s.o. bei Geschichte der Sprachwissenschaft) / Wesen und Bedeutung der Sprache
    ES 160 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Sprachphänomenologie / Allgemeines
    ER 710 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Funktion der Sprache
    ER 765 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Methodologie der Spachwissenschaft / Einzelmethoden, z.B. Informationsbefragung, Feldarbeit
    ER 900 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachpsychologie. Psycholinguistik / Allgemeines
    Series
    Grundlagen der Kommunikation und Kognition
  19. Stauf, B.: Schlagwortkataloge, Deskriptorenverzeichnisse und Thesauri : Unterschiede und Gemeinsamkeiten im Vergleich (1978) 0.02
    0.024184758 = product of:
      0.09673903 = sum of:
        0.09673903 = weight(_text_:und in 1374) [ClassicSimilarity], result of:
          0.09673903 = score(doc=1374,freq=4.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.6930935 = fieldWeight in 1374, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.15625 = fieldNorm(doc=1374)
      0.25 = coord(1/4)
    
  20. Diesch, K.: Katalogprobleme und Dezimalklassifikation : eine bibliothekswissenschaftliche Untersuchung und Abwehr (1929) 0.02
    0.024184758 = product of:
      0.09673903 = sum of:
        0.09673903 = weight(_text_:und in 1932) [ClassicSimilarity], result of:
          0.09673903 = score(doc=1932,freq=4.0), product of:
            0.13957573 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06293151 = queryNorm
            0.6930935 = fieldWeight in 1932, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.15625 = fieldNorm(doc=1932)
      0.25 = coord(1/4)
    

Authors

Languages

  • e 32
  • m 3

Types

  • a 8490
  • m 1870
  • el 890
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications