Search (4768 results, page 3 of 239)

  • × year_i:[2000 TO 2010}
  1. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.11
    0.10716024 = product of:
      0.21432048 = sum of:
        0.17888649 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.17888649 = score(doc=729,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.035433985 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.035433985 = score(doc=729,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  2. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.10
    0.09807096 = product of:
      0.19614191 = sum of:
        0.14310919 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.14310919 = score(doc=346,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.05303273 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.05303273 = score(doc=346,freq=28.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  3. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.10
    0.09610398 = product of:
      0.19220796 = sum of:
        0.14310919 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.14310919 = score(doc=6889,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.04909877 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.04909877 = score(doc=6889,freq=24.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  4. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.10
    0.09610398 = product of:
      0.19220796 = sum of:
        0.14310919 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.14310919 = score(doc=1642,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.04909877 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.04909877 = score(doc=1642,freq=24.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  5. Wissen in Aktion : Der Primat der Pragmatik als Motto der Konstanzer Informationswissenschaft. Festschrift für Rainer Kuhlen (2004) 0.09
    0.08953629 = product of:
      0.17907257 = sum of:
        0.05303273 = weight(_text_:und in 5664) [ClassicSimilarity], result of:
          0.05303273 = score(doc=5664,freq=28.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.36675057 = fieldWeight in 5664, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5664)
        0.12603985 = weight(_text_:hacker in 5664) [ClassicSimilarity], result of:
          0.12603985 = score(doc=5664,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.29229456 = fieldWeight in 5664, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.03125 = fieldNorm(doc=5664)
      0.5 = coord(2/4)
    
    Abstract
    Diese Festschrift ist Rainer Kuhlen zu seinem 60. Geburtstag gewidmet. Mit ihrem Motto Wissen in Aktion und dem breiten Spektrum der Beiträge, welche die Deutsche Informationswissenschaft und angrenzende Gebiete - Informatik, Wirtschaftsinformatik, Psychologie, Sprachwissenschaft - repräsentieren, spiegelt sie Rainer Kuhlens Arbeitsweise wider: philosophisch begründet, breit interdisziplinär angelegt, auf der Höhe der aktuellen Diskussion. Die Beiträge der Kollegen und ehemaligen Schüler verbindet das Verständnis von Information, als Wissen in Aktion, wie es Rainer Kuhlen formulierte. Die offene Fragestellung berührt nicht nur die Informationswissenschaft, sondern auch die Disziplinen, die ebenfalls Wissen und Wissensmanagement untersuchen. Die Autoren setzen sich mit dem Informationsbegriff auseinander, diskutieren die grundlegende Bedeutung von Information und Kommunikation genauso wie die aktuellen Trends zu E-learning und Visualisierung.
    Content
    Enthält die Beiträge: - Experimentelles Information Retrieval Harald Reiterer: Visuelle Recherchesysteme zur Unterstützung der Wissensverarbeitung Manfred Wettler: Psychologische Theorien sind Information-Retrieval-Verfahren Joachim Griesbaum, Bernard Bekavac: Von der Kommerzialisierung bis zum Deep Web: Problemfelder der Internetsuche Udo Hahn: Die Verdichtung textuellen Wissens zu Information - Vom Wandel methodischer Paradigmen beim automatischen Abstracting Ulrich Reimer: Von textbasiertem zu inhaltsorientiertem Wissensmanagement - Die Rolle von Terminologien und Ontologien - Informationstheorie Rainer Hammwöhner: Besuch bei alten Bekannten - Zu den Sprachspielen mit dem Informationsbegriff Norbert Henrichs: Was heißt "handlungsrelevantes Wissen"? Wolf Rauch: Die Dynamisierung des Informationsbegriffes Sameer Patil, Alfred Kobsa: Preserving Privacy in Awareness Systems - Information im Kontext Gabriele Beger: Hält § 52 a UrhG dem urheberrechtlichen Dreistufentest stand? Erich Ortner: Anthropozentrik und Sprachbasierung in der (Wirtschafts-) Informatik Marc Rittberger: Vertrauen und Qualität in Informationsdienste. Wo finde ich Vertrauen im Information Quality Framework?
    - Informationsversorgung Jürgen Krause: Zur Problematik eines Gedankenexperiments über die Informationsversorgung der Wissenschaften Thomas Seeger: Ein Blick voraus in die Vergangenheit. Von Visionen und Konzepten der frühen Dokumentationsbewegung Achim Osswald: eBook-Angebotskonzepte von Aggregatoren für Bibliotheken Ilse Maria Harms: Auf dem Weg zur Reduktion der Komplexität des sozialen Koordinationssystems Josef Herget: Das informationswissenschaftliche Ausbildungsangebot für Information Professionals in der Schweiz - Wissensmanagement Jubran Rajup, Claus Rautenstrauch: Werkzeuggestütztes Wissensmanagement bei einer deutschen Großbank zur Unterstützung des strategischen und administrativen Informationsmanagements - eine Fallstudie Herbert Stoyan et al.: Wissenserwerb und Wissensmanagement Fahri Yetim: Universal Actability of and with Knowledge: Managing and Communicating Knowledge with Patterns Harald Zimmermann: Der "Nietzsche-Thesaurus" des Nietzsche-Online-Portals - Kooperatives Informationsmanagement Christa Womser-Hacker: Ein mehrsprachiges Kommunikationsforum zur Unterstützung von Lernprozessen ohne Sprachbarrieren Wolfgang F. Finke: Basic LMS Architecture for Learner-Centric LearnFlows or How Reusable Learning Objects Fit into Co-Constructivist Learning Processes Wolfgang Semar, Joachim Griesbaum, Jagoda König-Mistric, Andreas Lenich, Thomas Schütz: K3 - Wissensmanagement über kooperative verteilte Formen der Produktion und der Aneignung von Wissen zur Bildung von konzeptueller Informationskompetenz durch Nutzung heterogener Informationsressourcen - Stand und Aussichten
  6. Internet: The editor's choice (2002) 0.09
    0.089443244 = product of:
      0.35777298 = sum of:
        0.35777298 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.35777298 = score(doc=1854,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  7. Womser-Hacker, C.: Theorie des Information Retrieval III : Evaluierung (2004) 0.09
    0.08756931 = product of:
      0.17513862 = sum of:
        0.04909877 = weight(_text_:und in 3919) [ClassicSimilarity], result of:
          0.04909877 = score(doc=3919,freq=24.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.33954507 = fieldWeight in 3919, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3919)
        0.12603985 = weight(_text_:hacker in 3919) [ClassicSimilarity], result of:
          0.12603985 = score(doc=3919,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.29229456 = fieldWeight in 3919, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.03125 = fieldNorm(doc=3919)
      0.5 = coord(2/4)
    
    Abstract
    Information-Retrieval-Systeme wurden bereits sehr früh aus einer bewertenden Perspektive betrachtet. Jede neu entwickelte Komponente sollte effektivitätssteigernd für das gesamte System wirken und musste ihre Funktionalität unter Beweis stellen oder den Vergleich zu existierenden Verfahren antreten (z.B. automatische Indexierung vs. manuelle Erschließung von Informationsobjekten). 1963 fanden die Cranfield-II-Experimente statt und begründeten die Evaluierungsprinzipien im Information Retrieval. Somit haben auch Bewertungsverfahren, -ansätze und -methoden bereits eine lange Tradition. Die von Sparck Jones eingebrachte Feststellung, dass die genauen Gründe für das Verhalten von Information-Retrieval-Systemen oft im Dunklen lägen, führte zu der Forderung nach einer exakten und expliziten Evaluierungsmethodologie und experimentellen Überprüfbarkeit. Als generelle Herangehensweise hat sich ein indirektes Verfahren zur Bewertung von InformationRetrieval-Systemen etabliert, bei welchem das System an sich als black box gesehen und nur der Retrievaloutput als Grundlage für die Bewertung herangezogen wird. In den Experimenten stand die Systemperspektive im Vordergrund, um zu einer bewertenden Aussage zu gelangen. Es wurde gemessen, wie gut die Systeme in der Lage sind, die an sie gestellten Anforderungen zu erfüllen, relevante Dokumente zu liefern und nicht-relevante zurückzuhalten. Durch die zunehmende Komplexität der Systeme sowie die immer stärkere Einbeziehung von Benutzern, die nicht über die Kompetenz und Professionalität von Informationsfachleuten verfügen, wurde es immer schwieriger, Einzeleigenschaften vom Gesamtsystem zu isolieren und experimentell zu bewerten. Erst im Zeitalter der Suchmaschinen ist man zu der Ansicht gelangt, dass den Benutzern der Systeme eine entscheidende Rolle bei der Bewertung zukommt. Die Verfahren der Qualitätsbewertung müssen - wie dieses Beispiel zeigt - ständig weiterentwickelt werden. Die Benutzermerkmale können heterogen sein und sich einer genauen Kenntnis entziehen, was eine vollständige Formalisierung bzw. Quantifizierung erschwert. Neueren Datums sind Studien, die sich auf interaktive Information-Retrieval-Systeme oder auf die Qualitätsbestimmung bestimmter Teilkomponenten spezialisiert haben wie z.B. die Erschließungsoder Visualisierungskomponente, die Gestaltung der Benutzungsschnittstelle aus softwareergonomischer Sicht oder auch die Multilingua-Fähigkeit.
    Source
    Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
  8. Lohmann, I.: Cognitive Mapping im Cyberpunk : Über Postmoderne und die Transformation eines für so gut wie tot erklärten Literaturgenres zum Bildungsmittel (2004) 0.09
    0.08756931 = product of:
      0.17513862 = sum of:
        0.04909877 = weight(_text_:und in 4140) [ClassicSimilarity], result of:
          0.04909877 = score(doc=4140,freq=24.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.33954507 = fieldWeight in 4140, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4140)
        0.12603985 = weight(_text_:hacker in 4140) [ClassicSimilarity], result of:
          0.12603985 = score(doc=4140,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.29229456 = fieldWeight in 4140, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.03125 = fieldNorm(doc=4140)
      0.5 = coord(2/4)
    
    Abstract
    Cyberpunk als Teil der Science Fiction Literatur gibt es seit den achtziger Jahren. Als Klassiker des Genres gilt die Neuromanoer-Trlogie von William Gibson (1984, 1986, 1988). Gibson war einer der ersten, die randständig erscheinende Stränge der Popkultur in die SF-Literatur aufnahmen. CP galt deshalb als radikal, als eine Art Untergrundkultur. Neuere Cyberpunk Romane sind etwa Snow Crash (1992) und The Diamond Age (1995) von Neal Stephenson. Gibson und Stephenson sind US-Amerikaner; ihre Werke liegen auch in deutscher Übersetzung vor. In der zweiten Hälfte der neunziger Jahre wurden Stimmen laut, daß Cyberpunk schon längst wieder out ist (Leonard 1998). Achim Bühl faßt die CPSpezifika wie folgt zusammen. In der negativen Utopie der Cyberpunk Erzählungen dominiert das 'System' das Leben der 'einfachen Leute'. Das Systemische kann ein diktatorisches Regime, eine fundamentalistische Religion oder - wie bei William Gibson - die Herrschaft multinationaler, globaler Konzerne sein. Die Systeme sind zutiefst verkoppelt mit modernen Informationstechnologien [...]. Das Interface, die Direktverbindung zwischen menschlichem Gehirn und elektronischen Datenverarbeitungsanlagen, wird so zur Verkörperung systemischer Extension, der Mensch zum Bestandteil der Maschine [...]. Der Hacker, der die Rechner von Firmen und Institutionen durchstreift und versucht, elektronische Invasionsabwehrsysteme [...] zu durchbrechen, ist ein Söldner krimineller Subjekte, ein Teil der Maschine, drogensüchtig, physisch zerstört. Dies ist der 'Cyber'-Aspekt des Cyberpunks. Die Helden in den Erzählungen der Cyberpunk-Literaten kommen aus den marginalisierten Schichten des Technosystems, es sind Kriminelle, Ausgestossene, Abtrünnige, Drogensüchtige, Prostituierte, Hehler, Visionäre und Irre. Die Cyberpunk-Literaten richten den Blick ihrer Kameras auf die Straße, auf die Gosse, auf den Überlebenskampf, auf die Verliererseite des High-Tech. Ihre Figuren sind [...] häufig Speed-Freaks, beheimatet im Straßenmilieu der Halbwelt, Consolencowboys, welche versuchen, die Technomaschinerie für ihre Zwecke im Überlebenskampf auszunutzen [...]. Dies ist [...] der 'Punk'-Aspekt des Cyberpunks" (Bühl 1997, 140). Inzwischen ist CP längst über das literarische Genre hinaus zu einem einflußreichen Segment der Popkultur geworden, unter anderem im Film. Ridley Scotts Blade Runner (USA 1982) ist da nicht wegzudenken, außerdem Johnny Mnemonic (USA 1995), zu dem William Gibson das Drehbuch geschrieben hat, Andy und Lany Wachowskis The Matrix oder, in bestimmter Hinsicht, David Finchers Fight Club (beide USA 1999). Es gibt ein Rollenspiel namens Cyberpunk, das auf einem Mix von Elementen aus der Neuromanoer-Trilogie und dem Blade Runner basiert, und dieser Film wiederum dient als Vorlage für ein Computerspiel.
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  9. Bibliothekswissenschaft - quo vadis? : Eine Disziplin zwischen Traditionen und Visionen: Programme - Modelle - Forschungsaufgaben / Library Science - quo vadis? A Discipline between Challenges and Opportunities: Programs - Models - Research Assignments (2005) 0.09
    0.086147174 = product of:
      0.17229435 = sum of:
        0.062009472 = weight(_text_:und in 147) [ClassicSimilarity], result of:
          0.062009472 = score(doc=147,freq=50.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.4288297 = fieldWeight in 147, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=147)
        0.11028487 = weight(_text_:hacker in 147) [ClassicSimilarity], result of:
          0.11028487 = score(doc=147,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.25575775 = fieldWeight in 147, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.02734375 = fieldNorm(doc=147)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: - Bibliothekswissenschaft zwischen Traditionen, Selbstverständnis und öffentlicher Wahrnehmung Michael Buckland: Information Schools: A Monk, Library Science, and the Information Age Thomas Stäcker: Ars sine scientia nihil est - Bibliothekswissenschaft aus forschungsbibliothekarischer Perspektive Hans-Christoph Hobohm: Desiderate und Felder bibliothekswissenschaftlicher Forschung Roland Wagner Döbler: Forschungsprogramme der Bibliothekswissenschaft - Beobachtungen und Anregungen aus der Perspektive eines Wissenschaftstheoretikers und (ehemaligen) Bibliothekars Walther Umstätter: 75 Jahre Bibliothekswissenschaft in Berlin - Rückblick und Ausblick - Bibliothekswissenschaft im Zeitalter digitaler Medien Stefan Gradmann: Hat Bibliothekswissenschaft eine Zukunft? - Abweichlerische Gedanken zur Zukunft einer Disziplin mit erodierendem Gegenstand Stephan Büttner: Elektronische Publikationen und ihre Implikationen auf das Bibliothekswesen Thomas Hapke: 'In-formation' - Informationskompetenz und Lernen im Zeitalter digitaler Bibliotheken Dagmar Jank: Vermittlung von Informationskompetenz an Hochschulen - Ein neues Forschungsgebiet der Bibliothekswissenschaft Carol Tenopir: Electronic Publishing and Its Relationship to Library and Information Science - Bibliothekswissenschaft im Dienst an der Gesellschaft Rainer Kuhlen: Informationsethik - Die Entwicklung von Normen für den Umgang mit Wissen und Information in elektronischen Räumen Günter Beyersdorff: Bibliothekswissenschaft und Reformdebatte - Mögliche Wechselbeziehungen zwischen Wirtschaft, Politik und Bibliothek Christel Mahnke: Impulse für die Informationsgesellscbaft - Die Rolle der Bibliothekswissenschaft im internationalen Dialog Paul Ulrich: The Library as a Real - Virtual - Public Place for Networking Ideas, Information and People
    - Bibliothekswissenschaft im Dienst wissenschaftlicher Information und Kommunikation Robert Schlögl, Theresa Melden: Internet und Wissenschaft - Das Konzept von Open Access fir wissenschaftliches Arbeiten Hans E. Roosendaal, Peter A. Th. M. Geurts, Eberhard R. Hilf: Pertinent Strategy Issues in Scientific Information and Communication in 2004 Brigitte Kühne: Bibliotheksservice für Fernstudenten Harald Müller: Was erwarten juristische Bibliotheken von einer Bibliothekswissenschaft? Karin Aleksander: Wie werden interdisziplinäre Gender- Studiengänge an Universitäten mit Literatur versorgt? - Bibliothekswissenschaft im Dienst der Bibliothekspraxis Claudia Lux: Braucht die Praxis die Bibliothekswissenschaft? Klaus-Peter Böttger: (Öffentliche Bibliotheken und die Bibliothekswissenschaft - Eine persönliche Einschätzung Birgit Dankert: Immer wieder Sonntags - Curriculum-Elemente für die Tätigkeit in Schulbibliotheken Ursula Georgy: Integrierte Kundenbindung in Bibliotheken Kerstin Ochudlo-Höbing: E-Learning für Jugendliche und junge Erwachsene - Eine Herausforderung für Öffentliche Bibliotheken Ulrich Moeske: Kosten-Leistungsrechnung in Bibliotheken - Ihre Auswirkung auf Organisation und Finanzen - Bibliothekswissenschaft in Lehre, Studium und Beruf Ulrich Naumann: Gedanken zur Effektivität und Effizienz bibliothekswissenschaftlicher Ausbildung Anne Simank: Lohnt es sich noch immer? Das Magisterstudium der Bibliothekswissenschaft an der Humboldt Universität zu Berlin aus der Sicht einer ehemaligen Studentin Gerhard Hacker: WB-Bücher, ÖB-Praxis und bibliothekswissenschaftliches Denken - Zur notwendigen Uberwindung der bibliothekarischen Spartentrennung in der Bibliotheks- und Informationswissenschaft Walburga Lösch: Technikkompetenz vs. 'Human Resources' - Impulse zu einem Perspektivenwechsel Marc Rittberger: CERTIDoc - Ein Zertifizierungsmodell auch für Bibliothekare? Josef Herget, Norbert Lang: Der Arbeitsmarkt für Informationsspezialisten in der Schweiz - Gegenwärtige und zukünftige Arbeitsfelder und berufliche Anforderungen
    Footnote
    Rez. in: VÖB-Mitteilungen 58(2005) H.3, S.96-99 (O. Oberhauser); ABI-Technik 26(2006) H.1, S.71-74 (K. Lepsky): "So ist auch der vorliegende Band in weiten Teilen Beleg für die Unsicherheit des Berufsstandes aber auch für die Beliebigkeit fachlicher Debatten, dokumentiert damit aufs Anschaulichste das Fehlen einer Bibliothekswissenschaft und ist - dies dann wohl eher unfreiwillig - Standortbestimmung der Bibliothekswissenschaft. Deshalb schon lohnt sich die Lektüre, die einem Nachdenken über Bibliothekswissenschaft nur förderlich sein kann. Immerhin sind sogar nahezu alle Autoren einig darin, dass es einer solchen Disziplin auch zukünftig bedarf, was hoffen lässt." - ZfBB 53(2006) H.2, S,109-111 (M. Dörr): "So bleibt - bei einer Vielzahl von Aspekten und Perspektiven - die Ausgangsfrage "Bibliothekswissenschaft - quo vadis?" letztlich offen"
    Issue
    Mit einem Geleitwort von / With a Preface by Guy St. Clair Consulting Specialist for Knowledge Management and Learning, New York, NY und einem Vorwort von / and a Foreword by Georg Ruppelt Sprecher von / Speaker of BID - Bibliothek & Information Deutschland Bundesvereinigung Deutscher Bibliotheksund Informationsverbände e.V.
  10. Informationskompetenz - Basiskompetenz in der Informationsgesellschaft : Proceedings des 7. Internationalen Symposiums für Informationswissenschaft (ISI 2000) (2000) 0.08
    0.08428031 = product of:
      0.16856062 = sum of:
        0.042520776 = weight(_text_:und in 6461) [ClassicSimilarity], result of:
          0.042520776 = score(doc=6461,freq=18.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.29405463 = fieldWeight in 6461, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6461)
        0.12603985 = weight(_text_:hacker in 6461) [ClassicSimilarity], result of:
          0.12603985 = score(doc=6461,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.29229456 = fieldWeight in 6461, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.03125 = fieldNorm(doc=6461)
      0.5 = coord(2/4)
    
    Abstract
    Mit dem Leitthema »lnformationskompetenz - Basiskompetenz in der Informationsgesellschaft« trägt das 7. Internationale Symposium für Informationswissenschaft der aktuellen Situation auf den elektronischen Informationsmärkten Rechnung. Informationskompetenz ist Voraussetzung dafür, wirklichen Nutzen aus den globalen Informationsangeboten zu ziehen. Immer mehr Informationsspezialisten werden gebraucht und gleichzeitig muss Informationskompetenz auch tatsächlich Basiskompetenz in unserer heutigen Informationsgesellschaft werden. Die Herausforderung ist interdisziplinär. Jenseits einer bloß technischen Ausrichtung ist z.B. sozioökonomisches, kognitiv-psychologisches, linguistisches, designerisch-ästhetisches Wissen verlangt, um Information erfolgreich erarbeiten zu können. Die 18 Artikel entsprechen der Bandbreite des Diskussionsstandes der Informationswissenschaft: Das Internet und das WWW sind Ausgangs- und Bezugspunkt vieler Arbeiten zu Informations- und Wissensmanagement, Informationswirtschaft, Verlags- und Bibliothekswesen, Wissensrepräsentation, Information Retrieval, Data/Text Mining sowie Hypertext/Multimedia
    Content
    Enthält die Beiträge: Thomas Mandl, Christa Womser-Hacker: Ein adaptives Information-Retrieval-Modell für Digitale Bibliotheken - Ilse Harms, Werner Schweibenz: Usability Engineering Methods for the Web Results From a Usability Study - Christian Wolff: Effektivität von Recherchen im WWW Vergleichende Evaluierung von Such- und Metasuchmaschinen - Rainer Hammwöhner: TransRouter revisited - Decision support in the routing of translation projects - Gerhard Rahmstorf: Wortmodell und Begriffssprache als Basis des semantischen Retrievals - Christian Schögl: Informationskompetenz am Beispiel einer szientometrischen Untersuchung zum Informationsmanagement - Otto Krickl, Elisabeth Milchrahm: Integrativer Ansatz zur Wissensbewertung - Gabriela Mußler, Harald Reiterer, Thomas M. Mann: INSYDER - Information Retrieval Aspects of a Business Intelligence System - C. Goller, J. Löning, T. Will, W. Wolff: Automatic Document Classification A thorough Evaluation of various Methods - Gerhard Heyer, Uwe Quasthoff, Christian Wolff: Aiding Web Searches by Statistical Classification Tools - Matthias N.0. Müller: Die virtuelle Fachbibliothek Sozialwissenschaften - Benno Homann: Das Dynamische Modell der Informationskompetenz (DYMIK) als Grundlage für bibliothekarische Schulungen - Gerhard Reichmann: Leistungsvergleiche zwischen wissenschaftlichen Bibliotheken - Willi Bredemeier, Woffigang G. Stock: Informationskompetenz europäischer Volkswirtschaften - Hermann Rösch: Internetportal, Unternehmensportal, Wissenschaftsportal Typologie und Funktionalität der wichtigsten Portalkonzeptionen - Harc Rittberger, Woffigang Semar: Regionale Elektronische Zeitungen: Qualitätskriterien und Evaluierung - Stephan Werner: Der Autor im digitalen Medium - ein notwendiges Konstrukt? - Dr. Jaroslav Susol: Access to information in electronic age - situation in Slovakia
  11. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.083176486 = product of:
      0.16635297 = sum of:
        0.12522054 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.12522054 = score(doc=6206,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.04113243 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.04113243 = score(doc=6206,freq=22.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  12. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.080767736 = product of:
      0.16153547 = sum of:
        0.107331894 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.107331894 = score(doc=1729,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.054203574 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.054203574 = score(doc=1729,freq=52.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  13. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.080241434 = product of:
      0.16048287 = sum of:
        0.107331894 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.107331894 = score(doc=195,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.053150978 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.053150978 = score(doc=195,freq=50.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  14. Information: Droge, Ware oder Commons? : Wertschöpfungs- und Transformationsprozesse auf den Informationsmärkten ; Proceedings des 11. Internationalen Symposiums für Informationswissenschaft (ISI 2009) ; Konstanz, 1. - 3. April 2009 / [Hochschulverband für Informationswissenschaft (HI) e.V., Konstanz] (2009) 0.08
    0.07994622 = product of:
      0.15989244 = sum of:
        0.049607575 = weight(_text_:und in 3930) [ClassicSimilarity], result of:
          0.049607575 = score(doc=3930,freq=32.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.34306374 = fieldWeight in 3930, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3930)
        0.11028487 = weight(_text_:hacker in 3930) [ClassicSimilarity], result of:
          0.11028487 = score(doc=3930,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.25575775 = fieldWeight in 3930, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3930)
      0.5 = coord(2/4)
    
    Abstract
    Das 11. Internationale Symposium für Informationswissenschaft (151) findet vom 1. bis 3. April 2009 an der Universität Konstanz statt. Die Tagung ist eine Gemeinschaftsveranstaltung des Hochschulverbandes für Informationswissenschaft (HI) und der IuK-Initiative Wissenschaft. In insgesamt 17 Sektionen werden über 33 Vorträge gehalten, die nach strengem Reviewing vom Programmkomitee ausgewählt wurden. Dazu gibt es viele Sondersektionen, so Doktoranden-, Poster- und Firmenpräsentationen.
    BK
    06.00 / Information und Dokumentation: Allgemeines
    Classification
    AN 96000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Allgemeines
    06.00 / Information und Dokumentation: Allgemeines
    Content
    - Recherche und Web Rita Strebe: Empirische Untersuchung von emotionalen Reaktionen im Prozess der Informationsrecherche im Web Teresa Märt!, Christa Womser-Hacker, Thomas Mandl: Mehrsprachige Suche in Social-Tagging-Systemen Christian Maaß, Dirk Lewandowski: Frage-Antwort-Dienste als alternativer Suchansatz? Jürgen Reischer: EXCERPT - a Within-Document Retrieval System Using Summarization Techniques - Fachportale - Open Access I Stefan Baerisch, Peter Mutschke, Maximilian Stempfliuber: Informationstechnologische Aspekte der Heterogenitätsbehandlung in Fachportalen Doris Bambey: Open Access in der Erziehungswissenschaft - Voraussetzungen und Modelle der Funktionsteilung und der Verwertung von Wissen Patrick Lay: Integration heterogener Anwendungen in Fachportalen am Beispiel Sowiport Martin Uhl, Erich Weichselgartner: Aufbau einer innovativen Publikations-Infrastrukrur für die europäische Psychologie
    - Fachportale - Open Access II Werner Dees, Marc Rittberger: Anforderungen an bibliographische Datenbanken in Hinblick auf szientometrische Analysen am Beispiel der FIS Bildung Literaturdatenbank Joachim Pfister, Thomas Weinhold, Hans-Dieter Zimmermann: Open Access in der Schweiz Jan Steinberg: Instrumente der Überzeugungsarbeit - Kollaboration, Partizipation Christina Bieber, Harald Kraemer, Jens M. Lill, Werner Schweibenz: Museum 2.0? Hans Giessen: Primingeffekte in einer Simulation computergestützten kooperativen Arbeitens Christoph Mandl, Christoph Pfeiffer, Christian Wolff: Partizipative Leitbildentwicklung und Hochschulkommunikation - Buchwirtschaft, Informationswirtschaft Hans-Dieter Zimmermann: Die Digitalisierung der Wertschöpfung auf dem Buchmarkt Christoph Bläsi: E-Books und die Stakeholder des Buches Karin Ludewig: Das Wissensobjekt im Zeitalter seiner digitalen Produzierbarkeit
    - Ausbildung, E-Learning I Isabella Peters, Sonja Gust von Loh, Katrin Weller: Multimediale und kollaborative Lehr- und Lernumgebungen in der akademischen Ausbildung Nina Heinze: Informationskompetenz: mehr als die Nutzung von Informationen Kirsten Scherer Auberson, Sonja Hierl: Lässt sich ein Zuwachs an Informationskompetenz messen? - Ausbildung, E-Learning II Sabina Jeschke, Nicole Natho, Olivier Pfeiffer, Christian Schröder: Moderne Studienform Achim Oßwald, Dagmar Otto, Nikiaus Stettier: Qualitätssicherungsstrategie für kooperativ erstellte E-Learning-Kurse Joachim Griesbaum, Wolfgang Semar, Ralph Kölle: E-Learning 2.0 - Doktoranden-Vorträge - Posterpräsentationen - Studentenpräsentationen (Abstracts)
    RSWK
    Informations- und Dokumentationswissenschaft (SWB)
    RVK
    AN 96000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationsvermittlung, Informationsplanung / Allgemeines
    Subject
    Informations- und Dokumentationswissenschaft (SWB)
  15. Womser-Hacker, C.: ¬Ein mehrsprachiges Kommunikationsforum zur Unterstützung von Lernprozessen ohne Sprachbarrieren (2004) 0.08
    0.07877491 = product of:
      0.31509963 = sum of:
        0.31509963 = weight(_text_:hacker in 5679) [ClassicSimilarity], result of:
          0.31509963 = score(doc=5679,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.7307364 = fieldWeight in 5679, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.078125 = fieldNorm(doc=5679)
      0.25 = coord(1/4)
    
  16. Lischka, K.: Digitale Doppelgänger (2003) 0.07
    0.07275526 = product of:
      0.14551052 = sum of:
        0.050980628 = weight(_text_:und in 2268) [ClassicSimilarity], result of:
          0.050980628 = score(doc=2268,freq=46.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.35255915 = fieldWeight in 2268, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2268)
        0.09452989 = weight(_text_:hacker in 2268) [ClassicSimilarity], result of:
          0.09452989 = score(doc=2268,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.21922092 = fieldWeight in 2268, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2268)
      0.5 = coord(2/4)
    
    Content
    "Im Film "Metropolis" von 1926 brauchte der Forscher Rotwang viel Metall und Strom für einen Identitätsdiebstahl: Unter Blitzen und Lichtbögen bekam ein Roboter das Aussehen der Arbeiterfihrerin Maria. Das künstliche Wesen sollte sie ersetzen und die Massen kontrollieren. Heute reicht für den Identitätsklau - zumindest- in den' USA - eine neunstellige Ziffernfolge, die auf vielen, nicht immer ausreichend gesicherten Rechnern liegt. Das mussten gut 500000 Angehörige der US-Armee erfahren, deren Sozialversicherungsnummern, Adressen und Namen von Einbrechern aus einem Computer der Krankenkasse Tri West gestohlen wurden Die Versicherung hat 100000 US-Dollar Belohnung ausgesetzt und überwacht auf Wunsch kostenlos die Einträge über die Kreditwürdigkeit der Betroffenen. Denn mit den Daten ist es leicht, Konten zu eröff nen und im Namen anderer einzukaufen. Dazu brauchen die Kriminellen nicht einmal Kreditkartennummern - es geht auch auf ungedeckten Kredit. Eine Studentin schöpfte erstmals im April Verdacht, als eine Fluglinie wegen zwei mit ihrer Kreditkarte gebuchten Tickets nachfragte. Als sich im Juli ein Elektronikhandel für die Deckung des Kredits interessierte, waren auf ihren Namen bereits 50000 Dollar Schulden angehäuft. Die Frau war bis in den Winter beschäftigt, die Firmen von der Unrechtmäßigkeit . der Forderungen zu überzeugen und ihre Kreditwürdigkeit wiederherzustellen. Hysterische US-Medienberichte über solchen Identitätsklau erinnern an Schauerromane des 19. Jahrhunderts. Damals erlebten Menschen in der Arbeitswelt, wie mehr und mehr Aufgaben an Maschinen übergingen. Immer öfter tauchten Doppelgänger in den Geschichten Jean Pauls oder E.TA. Hoffmanns auf. Die damals heftig diskutierte Frage, was Menschlichkeit ausmacht, steht heute etwas nüchterner im Raum: Aus wie vielen Daten besteht die Identität eines Menschen? In Deutschland glücklicherweise aus wesentlich mehr als in den Vereinigten Staaten. Dort identifizieren sich Bürger fast ausschließlich mit der Sozialversicherungsnummer gegenüber Staat und Kreditgebern Denn ein nationaler Personalausweis fehlt, Reisepässe besitzen nur we nige, und die Führerscheine der Bundesstaaten sind selten fälschungssicher. "Diese Probleme haben wir in Deutschland nicht", sagt der stellvertretende Landesbeauftragte für den Datenschutz in Schleswig-Holstein, Thilo Weichert. Hier zu Lande sei "in fast allen Fällen die Identifizierung über den Personalausweis nötig" - und die Angst vor Identitätsklau daher unberechtigt. Ohne den per Ausweis verifizierten Namen und Wohnort gebe es weder Konto noch Kreditkarte. Es sind also mehr Angaben als neun Ziffern nötig. Dennoch ist die einfachste und wirkungsvollste Variante des Identitätsklaus auch- in Deutschland möglich: Mit einer Kreditkartennummer können Kriminelle in fremdem Namen einkaufen. Weichert:' "Das ist ja fast schon klassisch - unberech-tigte Internet-Bestellungen,' da online eine direkte Identifizierung nicht möglich ist." Den größten Teil der Computerkriminalität - die Zahl der Fälle hat sich von 1993 bis 2001 verachtfacht - macht in der deutschen Kriminalstatistik denn auch der Betrug mit solchen rechtswidrig erlangten Karten aus.
    Gut 60 Prozent von 80000 Fällen waren es 2001. Die Kreditkartennummern beschaffen sich unliebsame Zeitgenossen auf verschiedenen Wegen. Meist stehlen sie die Daten. Wie Unternehmen wichtige Kundeninformationen auf ihren Rechnern schützen, darüber sagen selbst bekannte Vertreter wie Amazon und E-Bay nichts, nicht einmal Allgemeines. Öffentlich geworden ist daher bislang eher Negatives, etwa dass im Jahr 2001 Hacker bei der Amazon-Tochter Bibliofind die Kreditkartendaten von fast 100 000 Kunden klauten. Die Anbieter der elektronischen Geldbörsen sind dabei, Diebstahl und Nutzung erschwindelter Informationen zu erschweren: Neue Verfahren prüfen und belasten die Kartennummer online auf einem Zentralrechner der Gesellschaften; die Angaben werden nicht bei den Händlern gespeichert. In einem nächsten Schritt sollen Passwörter folgen, die ebenfalls über die Infrastruktur der Kreditkartenunternehmen kontrolliert werden. Es geht aber nicht nur ums Geld. Auch viele andere Aspekte der Identität jedes Bürgem sind digitalisierte lnformationen über Verdienst, Arbeitgeber, Schulzeiten, Arbeitslosigkeit und Kinder schlummern etwa in den Datenbanken der Bundesversicherungsanstalt für Angestellte. Ärzte und Krankenkassen arbeiten mit Gesundheitsdaten. Und Auskunfteien wie die Schufa kennen Informationen über die finanzielle Vergangenheit. Den Schutz all der Angaben reglementieren in Deutschland die Datenschutzgesetze stark, weit stärker als in den Vereinigten Staaten. Dort lockerte 1989 die "Federal Trade Commission" auf Druck von Auskunfteien, Kautionsbüros und Privatdetektiven den Schutz für Informationen über die Kreditwürdigkeit. Folge: Für 49 Dollar liefern Anbieter wje docusearch.com die Sozialversicherungsnummer jeder beliebigen Person. In Deutschland sind die Schufa; und ihre Konkurrenten verpflichtet, stichpro benartig die Berechtigung von Anfragen zur Kreditwürdigkeit zu prüfen. Die spannendsten Dinge geben die Bürger manchmal ohnehin freiwillig preis - vor allem in den Diskussionsforen des Usenets. Im Archiv der Suchmaschine Google (groups.google.de) stehen Beiträge aus mehr als einem Jahrzehnt. Einzeln betrachtet sind viele harmlos; mehrere Texte eines Autors zusammen liefern aber oft weit mehr Details, als man etwa Marktforschern anvertrauen würde. Ganz zu schweigen von den erotischen Kurzgeschichten einer hochrangigen Universitätsangestellten, die man in Verbindung mit ihrer offiziellen E-Mail-Adresse ohne Mühe findet. Nicht ohne Grund gehört zur Recherche von Personalvermittlern längst die Suche in den Newsgroups. Das Bewusstsein für die digitalisierten Lebensspuren wächst nur langsam - langsamer jedenfalls als die Technologie. In etwa vier Jahren soll laut Gordon Bell, Chef der Microsoft-Forschungsgruppe "My LifeBits" eine Technologie marktreif sein, die den Alltag eines Menschen in Form von digitalisierten Dokumenten, Bildern, Tönen und Videos speichert. Die nötige Speicherkapazität für die digitalen Erinnerungen eines Menschenlebens sieht Bell bei 1000 Gigabyte. Er selbst hat seit 1995 in seinem Zweitgedächtnis auf einer Festplatte 30 Gigabyte angehäuft: Viel neuer Stoff für Datenschützer - und neue Jean Pauls."
  17. Bates, C.: Web programming : building Internet applications (2000) 0.07
    0.071554594 = product of:
      0.28621837 = sum of:
        0.28621837 = weight(_text_:java in 130) [ClassicSimilarity], result of:
          0.28621837 = score(doc=130,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.62291753 = fieldWeight in 130, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=130)
      0.25 = coord(1/4)
    
    Object
    Java
  18. Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003) 0.07
    0.07129413 = product of:
      0.14258826 = sum of:
        0.107331894 = weight(_text_:java in 55) [ClassicSimilarity], result of:
          0.107331894 = score(doc=55,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.23359407 = fieldWeight in 55, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
        0.03525637 = weight(_text_:und in 55) [ClassicSimilarity], result of:
          0.03525637 = score(doc=55,freq=22.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.24381724 = fieldWeight in 55, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
      0.5 = coord(2/4)
    
    Content
    "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
    Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
  19. Grundlagen der praktischen Information und Dokumentation (2004) 0.07
    0.07101861 = product of:
      0.14203721 = sum of:
        0.06326231 = weight(_text_:und in 1693) [ClassicSimilarity], result of:
          0.06326231 = score(doc=1693,freq=102.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.43749377 = fieldWeight in 1693, product of:
              10.099504 = tf(freq=102.0), with freq of:
                102.0 = termFreq=102.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1693)
        0.07877491 = weight(_text_:hacker in 1693) [ClassicSimilarity], result of:
          0.07877491 = score(doc=1693,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.1826841 = fieldWeight in 1693, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1693)
      0.5 = coord(2/4)
    
    Abstract
    Das Standardwerk zur fachlichen Informationsarbeit wurde 1972 von Klaus Laisiepen, Ernst Lutterbeck und Karl-Heinrich Meyer-Uhlenried begründet. Generationen von Wissenschaftlern, Praktikern, Dozenten und Studierenden schöpften aus diesem Handbuch Kenntnisse und Wissen oder gaben als Autoren ihre Erfahrungen weiter. Mehr als 30 Jahre nach der ersten Publikation wird diese Tradition weitergeführt. Seit der vierten Ausgabe von 1997 sind erhebliche technische, methodische und organisatorische Veränderungen in den Bereichen Information und Dokumentation sowie in der Informationswissenschaft zu verzeichnen. Für die vorliegende Ausgabe konnte mit Rainer Kuhlen als neuem Mitherausgeber die informationswissenschaftliche Komponente weiter gestärkt werden. Der Aufbau der Grundlagen der praktischen Information und Dokumentation spiegelt diese Verbindung von Aktualität und Kontinuität wider: - In KAPITEL A »Grundlegendes« werden die theoretischen und begrifflichen Grundlagen des Fachgebietes erläutert, historische und professionelle Entwicklungen nachgezeichnet. - KAPITEL B »Methoden«, das die methodischen Aspekte der Informationsarbeit behandelt, wurde stark ausgeweitet. Neben den bisherigen Themen wie Klassifikation, Thesaurus usw. werden nun auch neue Aspekte wie Wissensmanagement, Kryptographie oder Dokumentmanagement behandelt. - Fortgeschrieben wurden in KAPITEL C »Systeme - Produkte - Dienstleistungen« die besonderen Fachinformationsbereiche (z.B. Metainformationsdienste des Internet, Datenbank-Management-Systeme oder Technische Redaktion). - Auf dem aktuellen Stand sind auch die Kurzdarstellungen der institutionellen Teile des Informationswesens (Archive, Bibliotheken, Buchhandel, Verlage, Elektronisches Publizieren, Medien, Wirtschaftsinformation, Medizin, E-Commerce u.a.) in KAPITEL D »Bereiche der Fachinformation und -kommunikation«. Gänzlich neu ist KAPITEL E »Information im Kontext«, das Einblicke in andere Wissenschaftsdisziplinen gibt, in denen der Bereich der Information eine immer größere Rolle spielt (z.B. Informatik, Psychologie, Sprachwissenschaft, Pädagogik, Betriebswirtschaft, Politikwissenschaft, Naturwissenschaften, Philosophie oder Neurobiologie). Den Textband mit insgesamt 73 Beiträgen auf 762 Seiten ergänzt Band 2: ein Glossar zu der im Handbuch verwendeten Terminologie mit einem zusätzlichen englischsprachigen Register. Hier werden auf 138 Seiten wichtige Begriffe und Konzepte des Informationswesens definiert und beschrieben. Das Handbuch bietet die zentralen Grundlagen für jeden Studierenden und Lehrenden, für Entscheidungsträger und Praktiker im Bereich der Information und Dokumentation. Es ist damit ein verlässlicher Leitfaden durch die Vielzahl unterschiedlicher Informationsmethoden, -dienste, -systeme und -techniken sowie die damit befassten Bereiche und Institutionen.
    Content
    Enthält die Beiträge: Rainer Kuhlen: Information Thomas Seeger: Entwicklung der Fachinformation und -kommunikation Thomas Seeger: Professionalisierung in der Informationsarbeit: Beruf und Ausbildung in Deutschland Marlies Ockenfeld: Nationale und internationale Institutionen Rainer Kuhlen: Informationsethik Thomas Seeger: (Fach-)Informationspolitik in Deutschland (Bundesrepublik Deutschland) Jürgen W Goebel: Informationsrecht -Recht der Informationswirtschaft Rainer Kuhlen: Wissensökologie Wolfgang Ratzek: Informationsutopien - Proaktive Zukunftsgestaltung. Ein Essay Hans Jürgen Manecke: Klassifikation, Klassieren Margarete Burkart: Thesaurus Ulrich Reimer: Wissensbasierte Verfahren der Organisation und Vermittlung von Information Heidrun Wiesenmüller: Informationsaufbereitung I: Formale Erfassung Gerhard Knorz: Informationsaufbereitung II: Indexieren Rainer Kuhlen: Informationsaufbereitung III: Referieren (Abstracts - Abstracting - Grundlagen) Norbert Fuhr: Theorie des Information Retrieval I: Modelle Holger Nohr: Theorie des Information Retrieval II: Automatische Indexierung Christa Womser-Hacker: Theorie des Information Retrieval III: Evaluierung Walther Umstätter: Szientometrische Verfahren Josef Herget: Informationsmanagement Holger Nohr: Wissensmanagement Michael Kluck: Methoden der Informationsanalyse - Einführung in die empirischen Methoden für die Informationsbedarfsanalyse und die Markt- und Benutzerforschung Michael Kluck: Die Informationsanalyse im Online-Zeitalter. Befunde der Benutzerforschung zum Informationsverhalten im Internet Alfred Kobsa: Adaptive Verfahren -Benutzermodellierung Stefan Grudowski: Innerbetriebliches Informationsmarketing Marc Rittberger: Informationsqualität Bernard Bekavac: Informations- und Kommunikationstechnologien Thomas Schütz: Dokumentenmanagement Nicola Döring: Computervermittelte Kommunikation, Mensch-Computer-Interaktion Daniel A. Keim: Datenvisualisierung und Data Mining Jürgen Krause: Software-Ergonomie Marlies Ockenfeld: Gedruckte Informations- und Suchdienste Joachim Kind: Praxis des Information Retrieval Bernard Bekavac: Metainformationsdienste des Internet Elke Lang: Datenbanken und Datenbank-Management-Systeme Rainer Hammwöhner: Hypertext Ralph Schmidt: Informationsvermittlung Rainer Bohnert: Technologietransfer Holger Nohr: Rechnergestützte Gruppenarbeit. Computer-Supported Cooperative Work (CSCW)
    Jiri Panyr: Technische Redaktion Wolfgang F. Finke: E-Learning Harald H. Zimmermann: Maschinelle und Computergestützte Übersetzung Franziskus Geeb und Ulrike Spree: Wörterbücher und Enzyklopädien Angelika Menne-Haritz: Archive Hans-Christoph Hobohm: Bibliotheken Günter Peters: Medien, Medienwirtschaft Ulrich Riehm: Buchhandel Helmut Wittenzellner: Transformationsprozesse für die Druckbranche auf dem Weg zum Mediendienstleister Dietmar Strauch: Verlagswesen Ulrich Riehm, Knud Böhle und Bernd Wingert: Elektronisches Publizieren Heike Andermann: Initiativen zur Reformierung des Systems wissenschaftlicher Kommunikation Ute Schwens und Hans Liegmann: Langzeitarchivierung digitaler Ressourcen Achim OBwald: Document Delivery/ Dokumentlieferung Willi Bredemeier und Patrick Müller: Informationswirtschaft Martin Michelson: Wirtschaftsinformation Ulrich Kämper: Chemie-Information Wilhelm Gaus: Information und Dokumentation in der Medizin Gottfried Herzog und Hans Jörg Wiesner: Normung Jürgen Krause: Standardisierung und Heterogenität Reinhard Schramm: Patentinformation Wolfgang Semar: E-Commerce Wolfgang Semar: Kryptografie Knud Böhle: Elektronische Zahlungssysteme Herbert Stoyan: Information in der Informatik Gerhard Roth und Christian Eurich: Der Begriff der Information in der Neurobiologie Margarete Boos: Information in der Psychologie Harald H. Zimmermann: Information in der Sprachwissenschaft Ulrich Glowalla: Information und Lernen Eric Schoop: Information in der Betriebswirtschaft: ein neuer Produktionsfaktor? Gerhard Vowe: Der Informationsbegriff in der Politikwissenschaft - eine historische und systematische Bestandsaufnahme Jürgen Krause: Information in den Sozialwissenschaften Holger Lyre: Information in den Naturwissenschaften Norbert Henrichs: Information in der Philosophie
    Footnote
    Folgt weiter dem Vorbild der 2. Aufl. in der losen Zusammenstellung von Kapiteln verschiedener Autoren. Neu ist das Glossar in Bd.2. - Angeboten als gebundene und broschierte Ausgabe
    Rez. in: Mitteilungen VÖB 57(2004) H.3/4, S.86-90 (O. Oberhauser): " ...Allen kritischen Anmerkungen zum Trotz: Im Vergleich mit der letzten Auflage schneidet diese fünfte Ausgabe erfreulich positiv ab (nur Nörgler würden sagen, dass dies nicht schwergefallen ist). Natürlich könnte darüber reflektiert werden, ob es heute noch möglich ist, das Gesamtgebiet der Informationswissenschaft und -praxis in einem Handbuch erschöpfend darzustellen; die Zeiten, in denen man Wissenschaftsdisziplinen auf diese Weise repräsentierte und legitimierte, sind eigentlich vorüber. Andererseits fehlen, gerade im deutschen Sprachraum, weitgehend gute und aktuelle Darstellungen zu den hier präsentierten Teilbereichen. Als Einstieg in die Informationswissenschaft und -praxis ist das vorliegende Handbuch daher allemal wichtig. Auch für gestandene Praktiker bietet es viele interessante und neue Themen. Der Preis für die broschierte Ausgabe ist vielleicht nicht gerade wohlfeil, aber nach heutigen Massstäben dem Umfang angemessen. Grössere Bibliotheken und bibliothekarische bzw. informationswissenschaftliche Ausbildungseinrichtungen, für die auch diese Ausgabe unverzichtbar ist, werden dagegen wohl eher zur teureren gebundenen Variante greifen." Weitere Rez. in: BuB 57(2005) H.4, S.307-308 (H. Meinhardt); ZfBB 52(2005) H.6, S.349-350 (T. Seela); Information - Wissenschaft und Praxis 56(2005) H.8, S.457-458 (D. Soergel): "In sum, this work provides a comprehensive and competent introduction to information science with a breadth of scope that exists nowhere else. It does so through a collection of independent contributions of many authors with many perspectives and many redundancies. Some readers might prefer a treatment from a unified viewpoint."
    Issue
    2 Bde. 5., völlig neu gefaßte Ausgabe. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis. Bd.2: Glossar.
    RSWK
    Information und Dokumentation
    Subject
    Information und Dokumentation
  20. Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004) 0.07
    0.06938263 = product of:
      0.13876526 = sum of:
        0.089443244 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
          0.089443244 = score(doc=3183,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.19466174 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.049322017 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.049322017 = score(doc=3183,freq=62.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.34108895 = fieldWeight in 3183, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
      0.5 = coord(2/4)
    
    Abstract
    Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
    Content
    "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
    Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
    Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
    Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
    Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158

Languages

  • d 4223
  • e 503
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3550
  • m 806
  • el 224
  • x 210
  • s 185
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications