Search (11774 results, page 3 of 589)

  • × language_ss:"d"
  1. Vernetztes Wissen - Daten, Menschen, Systeme : 6. Konferenz der Zentralbibliothek Forschungszentrum Jülich. 5. - 7. November 2012 - Proceedingsband: WissKom 2012 (2012) 0.10
    0.1038651 = product of:
      0.2077302 = sum of:
        0.05325749 = weight(_text_:und in 1482) [ClassicSimilarity], result of:
          0.05325749 = score(doc=1482,freq=18.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.36756828 = fieldWeight in 1482, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1482)
        0.15447271 = weight(_text_:handle in 1482) [ClassicSimilarity], result of:
          0.15447271 = score(doc=1482,freq=2.0), product of:
            0.42740422 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06532823 = queryNorm
            0.36142063 = fieldWeight in 1482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1482)
      0.5 = coord(2/4)
    
    Abstract
    Informations- und Wissensvermittlung verlagern sich immer stärker in die digitale Welt. Möglich wird dies nicht zuletzt durch die voranschreitende Durchdringung aller Lebensbereiche durch das Internet. Wissen wird mehr und mehr zu vernetztem Wissen. Die Jülicher Konferenz WissKom2012 thematisiert die Anpassung an diese Entwicklung und ihre Mitgestaltung durch innovative Bibliotheksdienstleistungen. Der Konferenztitel "Vernetztes Wissen: Daten, Menschen, Systeme" deutet die wechselseitige Vernetzung unter- und miteinander an. Ziel ist, vorhandene Insellösungen zu verbinden und neue Konzepte für inhärent vernetzte Strukturen zu entwickeln. Mit der WissKom2012 "Vernetztes Wissen - Daten, Menschen, Systeme" greift die Zentralbibliothek des Forschungszentrums Jülich erneut Themen im Spannungsfeld von "Bibliothek - Information - Wissenschaft" in einer Konferenz interdisziplinär auf und versucht, neue Handlungsfelder für Bibliotheken aufzuzeigen. Diese sechste Konferenz der Zentralbibliothek thematisiert den immer wichtiger werdenden Bereich der Forschungsdaten und den nachhaltigen Umgang mit ihnen. Sie zeigt auf, was Interdisziplinarität konkret bedeutet und wie bislang isolierte Systeme vernetzt werden können und so Mehrwert entsteht. Der Konferenzband enthält neben den Ausführungen der Referenten zudem die Beiträge der Poster Session sowie den Festvortrag von Prof. Viktor Mayer-Schönberger mit dem Titel "Delete: Die Tugend des Vergessens in digitalen Zeiten".
    Source
    http://juwel.fz-juelich.de:8080/dspace/handle/2128/4699
  2. Bach, N.: ¬Die nächste PID-Evolution : selbstsouverän, datenschutzfreundlich, dezentral (2021) 0.10
    0.09897864 = product of:
      0.19795728 = sum of:
        0.043484565 = weight(_text_:und in 1540) [ClassicSimilarity], result of:
          0.043484565 = score(doc=1540,freq=12.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.30011827 = fieldWeight in 1540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1540)
        0.15447271 = weight(_text_:handle in 1540) [ClassicSimilarity], result of:
          0.15447271 = score(doc=1540,freq=2.0), product of:
            0.42740422 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06532823 = queryNorm
            0.36142063 = fieldWeight in 1540, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1540)
      0.5 = coord(2/4)
    
    Abstract
    Dieser Beitrag behandelt den zuletzt vom W3C hervorgebrachten Standard für dezentrale Identi­fikatoren (Decentralized Identifiers, kurz: DIDs) in Bezug auf den Bereich des Forschungsdatenmanagements. Es wird dargelegt, dass die aktuell im wissenschaftlichen Publikationswesen häufig verwendeten persistenten Identifikatorensysteme (Persistent Identifiers, PIDs) wie Handle, DOI, ORCID und ROR aufgrund ihrer Zentralisierung fundamentale Probleme hinsichtlich der Daten­sicherheit, dem Datenschutz und bei der Sicherstellung der Datenintegrität aufweisen. Dem werden als mögliche Lösung das System der DIDs gegenübergestellt: eine neuartige Form von weltweit eindeutigen Identifikatoren, die durch jedes Individuum oder jede Organisation selbst generiert und auf jeder als vertrauenswürdig erachteten Plattform betrieben werden können. Blockchains oder andere Distributed-Legder-Technologien können dabei als vertrauenswürdige Datenregister fungieren, aber auch direkte Peer-to-Peer-Verbindungen, auf bestehende Internetprotokolle aufsetzende Methoden oder statische DIDs sind möglich. Neben dem Schema wird die technische Spezifikation im Sinne von Datenmodell und die Anwendung von DIDs erläutert sowie im Vergleich die Unterschiede zu zentralisierten PID-Systemen herausgestellt. Zuletzt wird der Zusammenhang mit dem zugrundeliegenden neuen Paradigma einer dezentralen Identität, der Self-Sovereign Identity, hergestellt. SSI repräsentiert ein gesamtes Ökosystem, in dem Entitäten ein kryptografisch gesichertes Vertrauensnetzwerk auf der Basis von DIDs und digitalen Identitätsnachweisen bilden, um dezentral manipulationsgesichert und datenschutzgerecht identitätsbezogene Daten auszutauschen. Zum Schluss der Abhandlung stellt der Autor fünf zuvor herausgearbeitete Anforderungen in Bezug auf eine zeitgemäße Umsetzung von persistenten Identifikatoren vor.
  3. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.10
    0.0982675 = product of:
      0.196535 = sum of:
        0.14339599 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.14339599 = score(doc=2121,freq=2.0), product of:
            0.4604012 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06532823 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.053139012 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.053139012 = score(doc=2121,freq=28.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  4. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.10
    0.0982675 = product of:
      0.196535 = sum of:
        0.14339599 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.14339599 = score(doc=346,freq=2.0), product of:
            0.4604012 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06532823 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.053139012 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.053139012 = score(doc=346,freq=28.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  5. Keil, S.: Terminologie Mapping : Grundlagen und aktuelle Normungsvorhaben (2012) 0.10
    0.097084254 = product of:
      0.19416851 = sum of:
        0.039695792 = weight(_text_:und in 1029) [ClassicSimilarity], result of:
          0.039695792 = score(doc=1029,freq=10.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.27396923 = fieldWeight in 1029, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1029)
        0.15447271 = weight(_text_:handle in 1029) [ClassicSimilarity], result of:
          0.15447271 = score(doc=1029,freq=2.0), product of:
            0.42740422 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06532823 = queryNorm
            0.36142063 = fieldWeight in 1029, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1029)
      0.5 = coord(2/4)
    
    Abstract
    Der Artikel basiert auf einer Bachelorarbeit mit dem Titel "Terminologie Mapping: Grundlagen und aktuelle Standardisierung", die im Sommersemester 2011 an der Hochschule Darmstadt geschrieben wurde. Er befasst sich mit den Grundlagen des Terminologie Mappings, also der Erstellung von Querverbindungen zwischen verschiedenen kontrollierten Vokabularen und der Standardisierung der Mapping-Verfahren. Die Grundlagen sollen anhand der Erkenntnisse aus Doerrs zentraler Publikation aus dem Jahre 2001 (Doerr 2001) dargestellt werden. Darauf folgt ein Blick in den Bereich der Standardisierung, der gerade in den letzten Jahren eine starke Entwicklung durchlaufen hat, was dazu führt, dass immer mehr aktualisierte nationale und internationale Standards herausgegeben werden, die Terminologie Mapping in verschiedener Weise als Mittel zur Erlangung von Interoperabilität empfehlen. Ebenso soll das "Simple Knowledge Organization System" (SKOS), ein Standard des W3Cs zur Repräsentation von kontrollierten Vokabularen, thematisiert werden. Dieser hat das Ziel, kontrollierte Vokabulare im Semantic Web darzustellen. Obwohl sich bei der Modellierung von klassischen kontrollierten Vokabularen (überwiegend Thesauri) in SKOS noch einige Probleme abzeichnen, stellt dieser Standard einen wichtigen Schritt für kontrollierte Vokabulare aus der Fachinformation in das Semantic Web dar. Abschließend soll ein Fazit zur Standardisierung gezogen werden sowie ein Ausblick auf die Möglichkeiten der Einbindung von Terminologie Mapping im Semantic Web via SKOS geben werden.
    Content
    Vgl.: http://www.degruyter.com/view/j/iwp.2012.63.issue-1/iwp-2012-0004/iwp-2012-0004.xml?format=INT. Auch unter: http://eprints.rclis.org/handle/10760/16716#.T18avnl4ofw.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.1, S.45-55
  6. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.10
    0.09629658 = product of:
      0.19259316 = sum of:
        0.14339599 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.14339599 = score(doc=6889,freq=2.0), product of:
            0.4604012 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06532823 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.04919717 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.04919717 = score(doc=6889,freq=24.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  7. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.10
    0.09629658 = product of:
      0.19259316 = sum of:
        0.14339599 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.14339599 = score(doc=1642,freq=2.0), product of:
            0.4604012 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06532823 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.04919717 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.04919717 = score(doc=1642,freq=24.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  8. DOI-Agentur für Deutschland, Schweiz und Österreich (2005) 0.10
    0.09584428 = product of:
      0.19168857 = sum of:
        0.0681104 = weight(_text_:und in 4976) [ClassicSimilarity], result of:
          0.0681104 = score(doc=4976,freq=46.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.47007886 = fieldWeight in 4976, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4976)
        0.12357816 = weight(_text_:handle in 4976) [ClassicSimilarity], result of:
          0.12357816 = score(doc=4976,freq=2.0), product of:
            0.42740422 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06532823 = queryNorm
            0.2891365 = fieldWeight in 4976, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.03125 = fieldNorm(doc=4976)
      0.5 = coord(2/4)
    
    Content
    "Die Heidelberger Agentur und Verlag digilibri und die europäische DOI Registrierungsagentur mEDRA wollen gemeinsam den Zugriff auf multimediale Dokumente im Internet verbessern und gleichzeitig das intellektuelle Eigentum von Autoren, Fotografen und Künstlern schützen. In einer neuen Partnerschaft vermarktet digilibri künftig das Ordnungssystem "Digital Object Identifier" (DOI®) im deutschsprachigen Raum. DOI® erlaubt eine eindeutige und permanente Identifikation digitaler Objekte im Internet. Mit dem System versuchen Verlage und Informationsanbieter seit geraumer Zeit, das Internet so aufzuräumen, dass Urheberrechte besser verwaltet werden können und nicht mehr aktive Internet-Adressen, sogenannte "tote Links", den Zugriff behindern. digilibri will nach Auskunft seines Gründers Arnoud de Kemp einen besseren Schutz der Originalität und Authentizität von digitalen Objekten im Sinne der Autoren und Erzeuger erreichen und die erste Adresse für DOI in Deutschland, in der Schweiz und in Österreich werden. digilibri ist Pionier bei der Entwicklung von Metadaten und Vergabe von DOIs für Bildmaterial, insbesondere Fotos. Die Datenbank kann alle digitale Medienformen (Text, Audio, Video etc.) verarbeiten und wird zur Frankfurter Buchmesse 2005 der Öffentlichkeitvorgestellt. mEDRA® ist als mehrsprachige europäische DOI Registrierungsagentur aus dem ContentProgramm der Europäischen Kommission (EC) hervorgegangen. Inhaber sind die Associazione Italiana Editore (AIE) und das Universitätskonsortium CINECA in Bologna. digilibri wird der Lizenz-, Marketing und Dienstleistungspartner für Verlage, Online- und Nachrichtendienste, sowie Verwertungsgesellschaften, aber auch für Fotografen, Illustratoren, Autoren, Herausgeber, Gesellschaften, Bibliotheken, Galerien, Antiquariate in Deutschland, in der Schweiz und Österreich, die ihre Arbeiten im Internet permanent erreichbar anbieten wollen. Durch die Anwendung der DOIs können Werke jeglicher Art aufgefunden, verlinkt und referenziert werden. mEDRA liefert die technische Unterstützung und pflegt das DOI-System. Mit dem DOI wurde ein System (Handle®) geschaffen, das Objekte unabhängig von ihrem Speicherort identifiziert. Es ist den Systemen von ISBN und ISSN damit ähnlich, geht durch seine integrierte Lokalisierungsfunktion weit darüber hinaus. DOIs werden in einer zentralen Datenbank gespeichert. Bei der Adressierung eines Dokumentes über den DOI erfolgt eine Weiterleitung zu der Adresse, auf der das Objekt aktuell verfügbar ist. Das könnte auch das Langzeitarchiv der Nationalbibliothek sein. Die Syntax des DOI wird von World-Wide-Web-Browsern verstanden und ist NISO Standard. Über 17 Millionen DOIs sind bereits weltweit registriert worden, hauptsächlich für wissenschaftliche Publikationen."
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.276-277
  9. Internet: The editor's choice (2002) 0.09
    0.0896225 = product of:
      0.35849 = sum of:
        0.35849 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.35849 = score(doc=1854,freq=2.0), product of:
            0.4604012 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06532823 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  10. Kuhlen, R.: Wissensökologie : Wissen und Information als Commons (Gemeingüter) (2013) 0.09
    0.08929113 = product of:
      0.17858227 = sum of:
        0.05500411 = weight(_text_:und in 3559) [ClassicSimilarity], result of:
          0.05500411 = score(doc=3559,freq=30.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.37962294 = fieldWeight in 3559, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3559)
        0.12357816 = weight(_text_:handle in 3559) [ClassicSimilarity], result of:
          0.12357816 = score(doc=3559,freq=2.0), product of:
            0.42740422 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06532823 = queryNorm
            0.2891365 = fieldWeight in 3559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.03125 = fieldNorm(doc=3559)
      0.5 = coord(2/4)
    
    Abstract
    Wissensökologie (knowledge ecology) ist ein noch ungewöhnlicher Begriff bzw. eine in der Kombination von Wissen und Ökologie für problematisch gehaltene Benennung Der dem Begriff zu Grunde liegende Anspruch dürfte unumstritten sein. Es geht um eine vernünftige, individuelle, soziale und kulturelle Entwicklung sowie politische Mitbestimmung und ökonomisches Wohlergehen sichernden und nachhaltigen Umgang mit den Ressourcen Wissen und Information. Umstritten allerdings sind die Wege, wie dieses Entwicklungsziel erreicht werden kann, und, weniger wichtig, umstritten, wie die Hinweisschilder auf diese Wege bezeichnet werden sollen, z. B. mit Wissensökologie oder Informationsökologie; auch Wissensallmende ist dafür ins Spiel gebracht worden. Es gibt keinen Konsens über eine Definition von Wissensökologie. Einige in die Nähe des Wissensmanagements gerückte Beispiele werden in den Beiträgen zu dem Band Knowledge Ecology Studies gegeben: "Knowledge ecology is an interdisciplinary field of management theory and practice .". Malhotra stellt Information ecology ebenfalls in den Zusammenhang von Knowledge management, andere zum Begriff der Innovation. Auf diesen Strang der Wissensökologie gehen wir im Weiteren nicht ein. Knowledge ecology wird auch im Zusammenhang mit Open Source-Software verwendet.
    Die breiteste Definition stammt von Knowledge Ecology International: Dazu gehören "the social aspects of the creation, management and control of and access to knowledge resources", auch im Zusammenhang von intellectual "property rules" und "mechanisms to enhance access to knowledge, incentives and systems for the transfer of technology to developed countries", "efforts to protect privacy" und sogar "discourage nuclear proliferation", vor allem aber "issues as diverse as freedom of speech, authors' rights, access to public sector information, new models for publishing, organizing and sharing information", etc. etc. So breit angelegt, verschwimmt ein Begriff leicht ins Unverbindliche. Wissensökologie ist verwandt mit dem Begriff der Kommunikationsökologie, der schon Ende der 80er Jahre im Zusammenhang der Technikfolgenabschätzung entstanden ist. Angesichts weitgehender Eingriffe technisierter Kommunikation in alle individuellen und gesellschaftlichen Lebensbereiche/Umwelten sollen deren Auswirkungen auf Mensch, Natur und Gesellschaft untersucht und Vorschläge zur Entwicklung eines nachhaltigen und humanen Austauschs von technologieabhängiger Information entwickelt werden. Eine kommunikationsökologische Übertragung von Umweltverschmutzung in natürlichen Umgebungen auf solche in elektronischen Räumen (Spam, Datenmissbrauch, Orientierungslosigkeit, Verletzung von Privatheit) liegt nahe.
    Content
    Vgl.: "Die Wissenökologie kann als eigenständige Schule der deutschsprachigen Informationswissenschaft verstanden werden." [Zitat aus dem Namensartiekl zu Kuhlen in der Wikipedia]. Vgl. auch: http://kops.uni-konstanz.de/handle/123456789/24419.
    Source
    Grundlagen der praktischen Information und Dokumentation. Handbuch zur Einführung in die Informationswissenschaft und -praxis. 6., völlig neu gefaßte Ausgabe. Hrsg. von R. Kuhlen, W. Semar u. D. Strauch
  11. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.08334318 = product of:
      0.16668636 = sum of:
        0.12547149 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.12547149 = score(doc=6206,freq=2.0), product of:
            0.4604012 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06532823 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.041214865 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.041214865 = score(doc=6206,freq=22.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  12. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.0809296 = product of:
      0.1618592 = sum of:
        0.10754699 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.10754699 = score(doc=1729,freq=2.0), product of:
            0.4604012 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06532823 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.054312203 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.054312203 = score(doc=1729,freq=52.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  13. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.08040225 = product of:
      0.1608045 = sum of:
        0.10754699 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.10754699 = score(doc=195,freq=2.0), product of:
            0.4604012 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06532823 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.0532575 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.0532575 = score(doc=195,freq=50.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  14. Andreasen, N.: Brave new brain : Geist - Gehirn - Genom (2002) 0.08
    0.07551215 = product of:
      0.1510243 = sum of:
        0.058340672 = weight(_text_:und in 3899) [ClassicSimilarity], result of:
          0.058340672 = score(doc=3899,freq=60.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.40265095 = fieldWeight in 3899, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3899)
        0.09268362 = weight(_text_:handle in 3899) [ClassicSimilarity], result of:
          0.09268362 = score(doc=3899,freq=2.0), product of:
            0.42740422 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06532823 = queryNorm
            0.21685237 = fieldWeight in 3899, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3899)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2004, H.1., S.88-90 (W. Rotthaus): "Die Anspielung auf »Brave New World« ist offensichtlich gewollt. Aber den grenzenlosen Fort schrittsglauben und Optimismus, den Aldous Huxley in seinem Klassiker so trefflich ad absurdum führte, vertritt die Autorin selbst von ganzem Herzen! Nancy Andreasen, Neurowissenschaftlerin, Herausgeberin des »American Journal of Psychiatry« und Trägerin der »National Medal of Science«, schreibt im Vorwort, ihr Buch handle »von der Erschaffung einer >schönen, neuen Welt des Gehirns« « sowie »davon, wie die mächtigen Werkzeuge der Genetik und der Neurowissenschaften in den kommenden Jahrzehnten vereinigt werden, um gesündere, bessere und schönere Gehirne und Seelen zu schaffen«. Das irritiert. Aber die Verstörung legt sich bald, denn schon im ersten Kapitel nimmt Nancy Andreasen eine Position ein, die das genaue Gegenteil von Schwarz-Weiß-Malerei ist: Die heute noch so beliebten »falschen Gegensätze« wie psychisch gegen somatisch, Geist gegen Gehirn, Gene gegen Umwelt erschweren das Verständnis menschlichen Verhaltens und damit insbesondere auch psychischer Erkrankungen. Ein »Entweder-oder-Muster« hindert uns, die Dinge klar zu sehen und zu begreifen, während uns nur ein »Sowohl-als-auch-Denken« der richtigen Antwort näher bringt. »Der Verzicht auf diese falsche Gegensatzbildung ermöglicht uns ein viel besseres Ver ständnis davon, wie das Leben tatsächlich funktioniert« (Seite 42).
    Im Folgenden schildert die Autorin sehr anschaulich den aktuellen Wissensstand über den Aufbau, die Struktur und die funktionellen Prozesse des menschlichen Gehirns. Man versteht heute das Gehirn nicht mehr als eine Ansammlung unterschiedlicher Zentren für bestimmte Funktionen wie Erinnern, Sprechen und Fühlen. Vielmehr gibt es im Geflecht seiner vielen weit verzweigten Schaltkreise zwar einige quasi-spezialisierte Regionen; aber keine von ihnen ist in der Lage, autonom, ohne gleichzeitige Aktivierung anderer Regionen, eine geistige oder körperliche Aktion durchzuführen. Neuere Erkenntnisse zeigen, dass das Gehirn auch des Erwachsenen von dynamischer Natur ist. Seine Struktur entwickelt und verändert sich ständig auf Grund physikalischer, chemischer und psychischer Einflüsse - was den medizinischen Eingriff angeht: sowohl durch Psychopharmaka wie durch Psychotherapie. Ein Kapitel namens »Die Kartographie des Genoms« beschreibt Fortschritte in der Genetik. Die Gene diktieren nicht unserer Schicksal; vielmehr ist ihre Aktivität - die Genexpression - von den Umständen abhängig, denen sie ausgesetzt sind. Die dadurch bedingte Flexibilität ist »der Angelpunkt, an dem wir letztlich die neuen und wirkungsvollen nstrumente der Molekulargenetik und Molekularbiologie ansetzen können, um psychische und andere Erkrankungen zu behandeln und zu verhüten«. In dem anschließenden Kapitel »Die Kartographie des denkenden Gehirns« referiert die Autorin die beeindruckenden Erfolge der funktionellen Bildgebung, welche die Beobachtung des lebenden, funktionierenden Gehirns möglich gemacht haben. Der zweite Hauptteil des Buches ist den »großen« psychiatrischen Erkrankungen gewidmet: der Schizophrenie, den affektiven Störungen, den Demenzen und den Angststörungen. Die Autorin gibt einen anschaulichen und umfassenden Überblick über die Symptomatik, die Fragen nach den Ursachen und zur Psychopharmakotherapie - allerdings ganz und damit einseitig aus der Sicht der biologischen Psychiaterin, auch wenn sie die Möglichkeit psychotherapeutischer Einflussnahmen erwähnt. Dabei wird deutlich, dass der bisherige Nutzen des zuvor dargestellten immensen Forschungsaufwandes für die therapeutische Praxis noch relativ gering ist.
    Des ungeachtet lässt Andreasen zum Schluss ihren Fortschrittsoptimismus wieder zu Wort kommen, und das in einer sehr martialischen Sprache: »Wenn wir den Krieg gewinnen wollen, müssen wir wissen, welche Waffen geeignet sind und worauf wir sie richten müssen. Viele Jahre hindurch waren unsere Waffen primitiv: Gewehre, die die Munition streuten, Kanonen, die unpräzise und ungezielt schossen und Pfeile, die zu schwach waren, um das Ziel zu durchbohren ... Die Techniken der Molekularbiologie werden uns die Fähigkeit zur präzisen und durchschlagenden Bombardierungen verleihen, während uns unsere Karten des Gehirns die Ziele dafür zeigen.« Wieder einmal - so wie es eigentlich seit hundert Jahren geschieht - wird behauptet, dass wir unmittelbar vor dem großen Durchbruch stünden. Woher die Autorin diesen Optimismus bezieht, wird nicht recht erkennbar. Diesmal soll die nähere Untersuchung der Funktionsweise des Thalamus den Durchbruch zum Verständnis und zur Therapie zum Beispiel der Schizophrenie bringen. Ihre Formulierung ist nicht ohne unfreiwillige Komik: »Irgendwo in diesem kleinen Heuhaufen werden wir wohl die donquichottische Nadel finden, mit der wir einen der größten Giganten der psychischen Erkrankungen niederstrecken können.« Trotz dieser Einschränkungen ist das Buch jedem zu empfehlen, der sich über den aktuellen biologischen Forschungsstand orientieren will. Das Buch ist hervorragend übersetzt und sorgfältig ediert. Zahlreiche Abbildungen und Tabellen veranschaulichen das Gesagte und geben einen guten Einblick in das Forschungsfeld der Hirnforscher, Neurobiologen und Genetiker."
    Issue
    Aus dem Englischen von Karin und Markus Schwarz.
  15. Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998) 0.07
    0.071697995 = product of:
      0.28679198 = sum of:
        0.28679198 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
          0.28679198 = score(doc=6134,freq=2.0), product of:
            0.4604012 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06532823 = queryNorm
            0.62291753 = fieldWeight in 6134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6134)
      0.25 = coord(1/4)
    
    Abstract
    Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
  16. Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004) 0.07
    0.06952168 = product of:
      0.13904336 = sum of:
        0.0896225 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
          0.0896225 = score(doc=3183,freq=2.0), product of:
            0.4604012 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06532823 = queryNorm
            0.19466174 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.049420863 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.049420863 = score(doc=3183,freq=62.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.34108895 = fieldWeight in 3183, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
      0.5 = coord(2/4)
    
    Abstract
    Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
    Content
    "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
    Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
    Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
    Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
    Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
  17. Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008) 0.07
    0.06952168 = product of:
      0.13904336 = sum of:
        0.0896225 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
          0.0896225 = score(doc=3331,freq=2.0), product of:
            0.4604012 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06532823 = queryNorm
            0.19466174 = fieldWeight in 3331, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
        0.049420863 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
          0.049420863 = score(doc=3331,freq=62.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.34108895 = fieldWeight in 3331, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3331)
      0.5 = coord(2/4)
    
    Abstract
    Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
    Footnote
    Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
    Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
    Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
    Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
  18. Pany, T.: Google-Grenzerfahrung (2005) 0.06
    0.06479075 = product of:
      0.1295815 = sum of:
        0.03689788 = weight(_text_:und in 5699) [ClassicSimilarity], result of:
          0.03689788 = score(doc=5699,freq=24.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.25465882 = fieldWeight in 5699, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=5699)
        0.09268362 = weight(_text_:handle in 5699) [ClassicSimilarity], result of:
          0.09268362 = score(doc=5699,freq=2.0), product of:
            0.42740422 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06532823 = queryNorm
            0.21685237 = fieldWeight in 5699, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0234375 = fieldNorm(doc=5699)
      0.5 = coord(2/4)
    
    Content
    "Hossein Derakhshan ("Hoder") ist eine Internet-Berühmtheit, ein www-VIP. Von ihm gingen entscheidende Impulse aus, die zur Gründung der famosen iranischen Blogosphäre (vgl. "Ich möchte kotzen, zerspringen, explodieren" (1)) geführt haben. Der gebürtige Iraner Derakhshan betreibt seinen Blog - Editor:myself (2) (englisch, persisch hier (3) - von Toronto/Kanada aus, wohin er vor einigen Jahren ausgewandert ist, da ihm seine Arbeit als Journalist, der sich offen für die Reformbewegung in Iran aussprach, dort zu riskant wurde. Seine Blog-Einträge werfen sporadische, kurze und erhellende Schlaglichter auf bemerkenswerte Entwicklungen in der iranischen Politik; besonders aufmerksam ist Hoder natürlich für Tendenzen, die sich im Umgang mit den publizistischen Möglichkeiten des Internet zeigen. Sein "Fachgebiet" sind die Blogs: für ihn wichtige "Fenster" und "Brücken" zwischen den verschiedenen Welten. Es gibt wohl kaum eine wichtige Veranstaltung, die sich mit Blogs beschäftigt, zu der Hossein Derakshan nicht eingeladen ist (vgl. Bestes Blog der Welt (4)).
    A sad but real story Entsprechend viel ist Hoder unterwegs. Im November war er in Paris, Barcelona, Tunis mit einem Zwischenaufenthalt in Deutschland. Nachzulesen sind diese Stationen in seinem Blog, eigentlich keine bemerkenswerte Info, ebenso wenig wie die Mitteilung, dass er sich für eine Weile in New York aufhalte. Über so etwas gibt man halt seinen treuen Lesern Bescheid. Jetzt gewann Hoder zwei neue Leser hinzu, die alles, was er in den letzten Monaten zu berichten hatte, mit großer Neugier, stundenlang intensiv verfolgten und er ist alles andere als glücklich darüber: "a sad but real story". Hoder war im Bus von Toronto nach New York City unterwegs, der Bus wurde an der Grenze zwischen Kanada und den USA aufgehalten. Als zwei Beamte der US Customs and Border Security von Hoder erfuhren, dass er zu einer Blogger-Konferenz (ConvergeSouth) in den Staaten unterwegs sei, wurden sie neugierig. Vor seinen Augen googelten sie seinen Namen und fanden seinen Blog. Einer der beiden, so Hoder, las jeden seiner Einträge sorgfältig, es dauert nicht lange, bis er etwas fand, dass ihn mehr als alles andere interessierte: --You live in New York, right? That's what you've written in your on blog.--
    Überrascht, dass sich jetzt auch Grenzbeamten die Informationen über Besucher von Google holten, und etwas verwirrt darüber, mit welcher ernsthafter Gewichtung seine Blogeinträge jetzt auf ihn zurückkamen, gab Hoder zu, dass er sich einige Zeit in New York aufgehalten habe, weil dort Konferenzen stattfanden, und dies in seinem Blog schrieb, nicht zuletzt deswegen, weil es Spaß machte, so etwas hinzuschreiben: In New York zu leben sei doch sexier als in Toronto, don't you think? Der Grenzbeamte wurde "ekstatisch", suchte weiter und fand im Archiv des Blogs eine Stelle, wo sich Hoder über die Gefahren lustig machte, die ihm bei seinem diesjährigen Besuch in Iran tatsächlich bevorstanden (vgl. Zweierlei Iran (5)). In dem Posting hatte er seine Leser (scherzhaft) davor gewarnt, dass die iranischen Grenzer bei Verhören herausfinden könnten, dass er mit Drogen handle und Geld von der CIA bekäme. Für den amerikanischen Grenzbeamten war dies - "So you are getting money from the Bush administration" - das Stichwort, um, berauscht von dieser Fahndungsquelle, online nach weiteren Spuren zu suchen, die bestätigten, dass Derakhshan illegal Geld in den USA verdienen würde und dass er sich dort einen unerlaubten ständigen Wohnsitz halte. Zwar gelang es dem Exil-Iraner den Grenzpolizisten davon zu überzeugen, dass der CIA-Eintrag witzig gemeint war, doch der nahm aber andere Einträge, wie eben die über Konferenzen in den USA, bei denen man doch Geld verdiene, ernst und schließlich gab eine Newsweek-Ausgabe, die sich in Hoders Gepäck befand und eine New Yorker Adresse für Hossein Derakhshan hatte ("Ich wollte keine Nummer versäumen") den Ausschlag. In den nächsten sechs Monaten darf Hoder nicht mehr in die USA einreisen. So kam die Pein am Ende von der Seite, von welcher er es am wenigsten befürchtet hatte. Sein Besuch in Iran nämlich hatte keine unangenehmen Konsequenzen gehabt."
  19. Haubner, S.: "Als einfacher Benutzer ist man rechtlos" : Unter den freiwilligen Wikipedia-Mitarbeitern regt sich Unmut über die Administratoren (2011) 0.06
    0.06036046 = product of:
      0.12072092 = sum of:
        0.043484565 = weight(_text_:und in 567) [ClassicSimilarity], result of:
          0.043484565 = score(doc=567,freq=48.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.30011827 = fieldWeight in 567, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=567)
        0.077236354 = weight(_text_:handle in 567) [ClassicSimilarity], result of:
          0.077236354 = score(doc=567,freq=2.0), product of:
            0.42740422 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06532823 = queryNorm
            0.18071032 = fieldWeight in 567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.01953125 = fieldNorm(doc=567)
      0.5 = coord(2/4)
    
    Content
    "Kaum etwas hat den Umgang mit dem Wissen der Welt so verändert wie Wikipedia. Die von Tausenden von freiwilligen Helfern erstellte Online-Enzyklopädie ist eine ein Jahrzehnt währende Erfolgsstory - ganz besonders in Deutschland. Mit rund 1,2 Millionen Artikeln ist die deutsche nach der englischen die zweitgrößte Wikipedia-Ausgabe. Laut der aktuellen Online Studie von ARD und ZDF haben fast 36 Millionen Deutsche schon einmal etwas im Internet nachgeschlagen. Fast drei Viertel der Internetnutzer ab 14 Jahren schauen zumindest ab und an mal bei Wikipedia vorbei. Wikipedia ist zu einem Giganten geworden, die Menge an Informationen ist unüberschaubar. Genau das wird immer mehr zu einem Problem. Nutzer, die nur eben mal kurz etwas nachschlagen wollen, sind häufig ernüchtert. In manchen Themenbereichen liest sich Wikipedia nicht mehr wie ein Volkslexikon, sondern wie eine in bestem Fachchinesisch verfasste Doktorarbeit. Ein Beispiel dafür ist der Artikel über den "Goldenen Schnitt". Dass sich dabei der größere Abschnitt einer Strecke zu dieser verhält wie der kleinere Abschnitt zum größeren, erklärt das gedruckte Meyers Taschenlexikon in zwei Sätzen. Wikipedia-Nutzer sehen sich einer Fülle von Formeln, Schaubildern und Diagrammen gegenüber. Einem Schüler, der sich über die Rolle des Goldenen Schnitts in der bildenden Kunst informieren möchte, schwirrt da bald der Kopf. Und im Abschnitt "Bildkomposition" er schließlich endgültig verunsichert. Weil der Artikel nicht hinreichend mit Belegen ausgestattet sei, würden einige Angaben möglicherweise demnächst entfernt. Eine zuverlässige Informationsquelle sieht anders aus.
    "Kann es sein, dass sich hier die reinen Fachidioten tummeln?", fragt ein Nutzer. "Warum schreibt hier niemand etwas davon, worum es wirklich geht?" Auf der zu jedem Artikel gehörenden Diskussionsseite wird mühsam um jeden einzelnen Satz gerungen. Welche Informationen sind wirklich wichtig? Gibt es dafür ausreichende Belege? Warum wurde ein bestimmter Absatz gelöscht und dafür ein anderer eingefügt? Und wer bestimmt überhaupt, was wissenswert ist und was nicht? Vollends unübersichtlich wird es, wenn abweichende Meinungen unversöhnlich aufeinanderprallen. So umfasst die Diskussion um die wissenschaftliche Belegbarkeit der Homöopathie mittlerweile 1,3 Millionen Wörter. Mit 11.400 Einzelbeiträgen, so erfährt der Nutzer auf der betreffenden Seite, handle es sich um die längste Diskussion über einen Artikel in der deutschsprachigen Wikipedia. Allein für das Lesen benötige man ohne Pausen etwa 143 Stunden. Kein Wunder, dass vielen potenziellen Mitarbeitern solche Grabenkämpfe auf Dauer zu anstrengend sind. Gerade einmal drei Prozent der Nutzer haben schon einmal selbst Artikel verfasst oder fremde überarbeitet. Der Anteil weiblicher Helfer hinkt dem der männlichen seit Jahren dramatisch hinterher. Dass viele Autoren bereits nach wenigen Beiträgen wieder im Heer der inaktiven Nutzer untertauchen, ist mittlerweile sogar Gegenstand einer internen Befragung.
    Nicht wenige von denen, die aus Frust nicht mehr dabei sind, machen dafür die Administratoren verantwortlich. Derzeit rund 300 "Admins" wurden von der Wikipedia-Gemeinschaft mit weiter gehenden Rechten ausgestattet, als sie der normale Nutzer hat. Um die Informationsflut einigermaßen zu kanalisieren, haben sich einige von ihnen recht rustikale Umgangsformen angewöhnt. Inhaltliche Auseinandersetzungen werden mit harten Bandagen und oft fragwürdiger Wortwahl ausgetragen. Wer die Relevanz eines von ihm verfassten Artikels nicht nachweisen kann, muss mit der Löschung des gesamten Beitrags rechnen. Wer dagegen Einspruch erhebt, wird barsch abgebügelt: Ganz Uneinsichtige müssen gar mit einer dauerhaften Sperrung rechnen: Das allgemeine Arbeitsklima und die Art und Weise, wie hier mit Leuten umgesprungen wird, ist absolut beklagenswert", sagt Dr. Klaus Graf, Historiker und Archivar an der Rheinisch-Westfälischen Technischen Hochschule in Aachen und seit 2004 aktiver Mitarbeiter an der Online-Enzyklopädie. Viele der Admins beherrschten die einfachsten Grundregeln im Umgang mit Menschen nicht. "Diese Leute leben bei Wikipedia ihre Allmachtsfantasien aus und glauben, sich alles herausnehmen zu können." Offenbar können sie das auch. "Als einfacher Nutzer", so Graf, "ist man vollkommen rechtlos und steht am Ende immer auf der Seite der Verlierer." Denn das Schiedsgericht, das man als letzte Instanz aufrufen kann, sei keineswegs neutral, sondern stehe fast immer geschlossen hinter den Admins, die sich wie "Oberlehrer" und "Blockwarte" gerierten.
    Das strukturelle Ungleichgewicht führt letztlich auch zu einem inhaltlichen. So strotzt Wikipedia geradezu vor Detailwissen zu historischen und modernen Kriegsschiffen - inklusive seitenlang ausgebreiteter technischer Details. Kultur- und Bildungseinrichtungen landen hingegen ziemlich schnell als "irrelevant" auf der Liste der "Löschkandidaten". Nach einer siebentägigen "Löschdiskussion" verschwinden sie im digitalen Orkus - inklusive der von den Autoren investierten Arbeitsstunden. "Wir mischen uns grundsätzlich nicht in redaktionelle Vorgänge ein", kommentiert Catrin Schoneville vom Förderverein Wikimedia Deutschland die Klagen enttäuschter Mitarbeiter. Selbstgerechtigkeit und rüpelhaftes Verhalten seien zudem keine auf Wikipedia beschränkte Phänomene, sondern ein Problem bei Diskussionen mit unterschiedlichen Auffassung überall im Internet. Die überwiegende Mehrheit der Autoren arbeite einfach mit und befasse sich nicht mit den Vorwürfen und der Nörgelei, die "immer wieder von dem gleichen kleinen Kreis von Kritikern geäußert würden. Auch ein Nachwuchsproblem sieht die Wikimedia-Sprecherin nicht: "Wir haben derzeit rund 7000 aktive Autoren in der deutschsprachigen Community. Bei einem freiwilligen Projekt liegt es in der Natur der Sache, dass das Engagement, mit dem sich jeder einzelne einbringt, variiert."
    Dennoch bemühe man sich, mit Förderprojekten und Workshops für mehr Motivation zu sorgen und neue Zielgruppen zu erschließen. So werde das Mentorenprogramm, in dessen Rahmen man sich von erfahrenen Autoren bei den ersten Schritten in der Wikipedia-Welt begleitet lassen kann, schon von 90 Prozent der Neueinsteiger angenommen. Stolz ist man bei Wikimedia auf das Projekt "Silberwissen", mit dem vor allem ältere Menschen angesprochen werden sollen. "Das Wissen älterer Generationen könnte Wikipedia bereichern und neue Perspektiven eröffnen", hofft Schoneville. Vielleicht wirkt sich diese Lebenserfahrung ja irgendwann einmal auch auf die in der Wikipedia-Gemeinde herrschenden Umgangsformen aus. Zu wünschen wäre es. Schließlich, und da sind sich ausnahmsweise einmal alle Beteiligten einig, gibt es zu Wikipedia mit seinen beinahe konkurrenz- weil kostenlosen Angeboten derzeit kaum echte Alternativen."
  20. Heinrichs, H.-J.: Mythos zu Lebzeiten : Claude Lévi-Strauss, dem Begründer der Strukturalen Anthropologie, zum fünfundneunzigsten Geburtstag (2003) 0.06
    0.056000367 = product of:
      0.11200073 = sum of:
        0.05021165 = weight(_text_:und in 3333) [ClassicSimilarity], result of:
          0.05021165 = score(doc=3333,freq=100.0), product of:
            0.14489143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06532823 = queryNorm
            0.34654674 = fieldWeight in 3333, product of:
              10.0 = tf(freq=100.0), with freq of:
                100.0 = termFreq=100.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=3333)
        0.06178908 = weight(_text_:handle in 3333) [ClassicSimilarity], result of:
          0.06178908 = score(doc=3333,freq=2.0), product of:
            0.42740422 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06532823 = queryNorm
            0.14456825 = fieldWeight in 3333, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.015625 = fieldNorm(doc=3333)
      0.5 = coord(2/4)
    
    Content
    "Claude Lévi-Strauss' Gesicht, das von jeher etwas Felsartiges an sich hatte, scheint immer mehr wie aus einer anderen, anorganischen Welt zu uns herüberzublicken. Sein Körper wirkt, als sei er schon fast Teil der amorphen Natur geworden, so als kämen seine Gesten und Worte gar nicht aus diesem einen Menschen, sondern aus einer überpersönlichen Sphäre, dem geistigen Reservoir des 20. Jahrhunderts und der Zeit sprachgewaltiger Theorien und großer Erzählungen. Es ist nicht nur sein Denken, es sind seine außergewöhnliche Empfindsamkeit und seine weit über die Wissenschaften hinausreichenden Interessen (zum Beispiel für die Kunst, die Literatur oder die Geschichte des Kochens), die ihn auf einzigartige Weise anziehend machen. Und ganz in diesem Sinn begründet denn auch die Zeitschrift Le Nouvel Observateur ihre Entscheidung, dem heute 95 Jahre alt werdenden und zuletzt mit dem Meister Eckhart-Preis ausgezeichneten Claude Levi-Strauss eine Sonderausgabe zu widmen. Sie ehrt damit den großen Erneuerer der Anthropologie im 20. Jahrhundert und den Schriftsteller, der mit seinem Buch Traurige Tropen eines der eindrucksvollsten Zeugnisse untergehender großer Kulturen geschaffen hat. Sein Werk lässt sich insgesamt als den Versuch ansehen, die Unterschiede zwischen der eigenen und der fremden Kultur, zwischen dem "wilden" und dem "zivilisierten" Denken zu verringern und Gemeinsamkeiten zu erforschen. Der Strukturalist tue im Grunde nichts anderes als das, was er, Claude Levi-Strauss, schon als kleiner Junge, der noch nicht lesen konnte, tat, als er auf zwei Schilder ("boulanger", Bäcker, und "boucher", Metzger) deutete und die gleichen Anfangssilben bemerkte: Er erkannte die invarianten Elemente in den Verschiedenheiten. Mit dem Namen Claude Lévi-Strauss ist aber nicht nur Begeisterung für einen großen Individualisten verknüpft, sondern auch das Misstrauen jener politischen Linken, die in der strukturalistischen Erforschung von Kulturen ein ungeschichtliches Vorgehen sahen. In der Folge von Jean-Paul Sartres Kritik wurde ein Gegensatz von Geschichte und Struktur konstruiert.
    Sartres Schatten lastet noch immer über einer vorurteilsfreien Aufnahme des Strukturalismus. Dabei wird Levi-Strauss' Beitrag für eine neue Sicht des' Menschen und der außereuropäischen Kulturen zuweilen grundlegend verkannt. Sein Engagement gilt gerade der Widerlegung der ethnozentristischen Verzerrungen (die von der Vorherrschaft der eigenen, westlichen Kultur ausgehen); der Behauptung, die Kulturen Afrikas, Südamerikas und des Pazifiks seien "primitiv", es handle sich um "Völker ohne Geschichte". In seiner berühmt gewordenen, 1962 erstmals erschienenen Schrift La pensee sauvage (Das wilde Denken) hatte sich Lévi-Strauss ausführlich mit Sartre auseinandergesetzt und kommentierte dieses Spannungsverhältnis später so: Er halte die Vorwürfe der Geschichtsfeindlichkeit und der politischen Enthaltsamkeit, wie sie ihm aus dem "ideologischen Cafe du Commerce" zugekommen seien, für unbegründet und voreingenommen und dennoch ließe er auch die Position Sartres und "der" Marxisten, die ihm im übrigen gleichgültig seien, als mögliche Einstellung gelten. Nur möchte er für sich beanspruchen, sich mit Dingen zu befassen, die "keine praktischen Auswirkungen haben" - und das tue der Strukturalist. Die Laufbahn des 1908 als Kind französischer Eltern in Brüssel geborenen Claude Lévi-Strauss nimmt ihren Anfang mit der Berufung auf den Lehrstuhl für Soziologie an der Universität von Säo Paulo, den er von 1934 bis 1938 innehatte. Nach dieser Zeit der Lehrtätigkeit und den ersten ethnographischen Expeditionen kehrt er 1939 nach Frankreich zurück, wird 1940 in der Folge der antisemitischen Gesetze der Vichy-Regierung entlassen, unterrichtet dann von 1941 bis 1945 in New York, wo er den ebenfalls im Exil lebenden Linguisten Roman Jakobson kennenlernt. 1947 wird Lévi -Strauss, der in der Ethnologie "das letzte Gedankenexperiment der Zivilisation" sieht, stellvertretender Direktor des Musee de l'Homme 1950 Direktor an der Ecole Pratique des Hautes Etudes und von 1959 bis 1982 (dem Jahr seiner Abschiedsvorlesung) leitet er das "Laboratoire d'anthropologie sociale" am College de France.
    Lévi-Strauss' Werk ist der Ausdruck eines von Ordnungen besessenen Mannes, dessen Vorbild die exaktesten Wissenschaften sind. Sein Grundsatz ist die erstmals 1958 von ihm explizit, aufgestellte Forderung: "Man muss eine Artuniverselles Gesetz ausarbeiten". Gemäß dieser Maxime galt es, die unterschiedlichsten Gesellschaften und deren soziale beziehungsweise kulturelle Produkte durch entsprechende Transformationen auf erfassbare Strukturen zurückzuführen. Das "universelle Gesetz" soll die den spezifischen Strukturen gemeinsamen Eigenschaften ausdrücken und somit für jedes System Geltung haben. Der dabei zentrale Begriff' der Struktur wurde von Lévi-Strauss zuerst in den Verwandtsschaftssystemen entdeckt. Davon handelt seine 1949 in einer zweiten Ausgabe erst 1967 erschienene Studie Die elementaren Strukturen der Verwandtschaft-ein im besten Sinne des Wortes akademisches Lehrbuch. Ist es hier sein Ziel, Verwandtschaftsverhältnisse theoretisch zu ordnen, so versucht Lévi-Strauss in seinerMythologica",in diese wahllose Anhäufung von Mythen eine Ordnung zu bringen." Auch wenn sich dies eher wie die Arbeit in einem physikalischen und chemischen Laboratorium anhören mag-und viele der strukturalistischen Transformationen haben etwas davon -, so ist der Ausgangspunkt doch immer die ethnographische Erfahrung und der erlebende, subjektive Umgang mit den Mythen und den Kulturen, die durch den mythischen Stoff gelebt haben. Unglücklicherweise müssten wir heute, bemerkt er einmal, feststellen, dass selbst bei den als sehr primitiv zu bezeichnenden Gesellschaften eine ursprüngliche Welt nicht mehr existiert. Um sie anzutreffen, müsste man sich nicht nach Amazonien, sondern auf den Mond begeben. Claude Lévi-Strauss war, anders als viele seiner Kritiker, stets bescheiden in seinem eigenen Anspruch, auch wenn seiner Theorie etwas geradezu überdimensional Universales eigen ist, baut doch der Strukturalismus viel stärker, als dies einer Erfahrungswissenschaft eigen ist, auf der Setzung von Allgemeinheiten auf. Aber auch in bezug auf die Gültigkeit seiner Theorie insgesamt hat er sich zurückhaltend geäußert und niemals behauptet, alle Phänomene, die der Ethnologe beobachte, untersuche und klassifiziere, seien struktural. All die klischeehaften Charakterisierungen, die man für L6viStrauss gefunden hat-Geschichtsfeind, Pessimist, Misanthrop, Technokrat, Mathematiker des Menschen-lösen sich heute mehr und mehr als von eigenen Begrenzungen bestimmte Kategorien auf.
    Und waren denn, so kann man heute fragen, die Phantasien der sich als Geschichtsverwalter aufspielenden Theoretiker realitätsnäher, deren Ziel es war, die "hoffnungsberechtigte Menschheit" von strukturalen "Todesengeln" zu befreien? Es sind jetzt die Jahre, in denen die letzten großen Einzelgänger des 20. Jahrhunderts - wie etwa Roland Barthes, Sartre, Michel Foucault oder Lévi-Strauss - mit ihren Gesamtwerken und zum Teilaufwendigen Biographien vergegenwärtigt werden. Es bleibt zu hoffen, dass dies vitalisierende und nicht museale Auswirkungen zur Folge hat; dass Claude Lévi-Strauss' eher literarische Schriften (wie Traurige Tropen und Brasilianisches Album) nicht ausgespielt werden gegen jene seiner Studien, die den ethnologischen Strukturalismus begründeten. Gerade in derpoetisch-diskursiven Doppelnatur gründet dieses Werk von überragender Individualität und kompositorischer Kraft. Claude Lévi-Strauss' Gesicht, das von jeher etwas Felsartiges an sich hatte, scheint immer mehr wie aus einer anderen, anorganischen Welt zu uns herüberzublicken. Sein Körper wirkt, als sei er schon fast Teil der amorphen Natur geworden, so' als kämen seine Gesten und Worte gar nicht aus diesem einen Menschen, sondern aus einer überpersönlichen Sphäre, dem geistigen Reservoir des 20. Jahrhunderts und der Zeit sprachgewaltiger Theorien und großer Erzählungen. Es ist nicht nur sein Denken, es sind seine außergewöhnliche Empfindsamkeit und seine weit über die Wissenschaften hinausreichenden Interessen (zum Beispiel für die Kunst, die Literatur oder die Geschichte des Kochens), die ihn auf einzigartige Weise anziehend machen. Und ganz in diesem Sinn begründet denn auch die Zeitschrift Le Nouvel Observateur ihre Entscheidung, dem heute 95 Jahre alt werdenden und zuletzt mit dem Meister Eckhart-Preis ausgezeichneten Claude Levi-Strauss eine Sonderausgabe zu widmen. Sie ehrt damit den großen Erneuerer der Anthropologie im 20. Jahrhundert und den Schriftsteller, der mit seinem Buch Traurige Tropen eines der eindrucksvollsten Zeugnisse untergehender großer Kulturen geschaffen hat. Sein Werk lässt sich insgesamt als den Versuch ansehen, die Unterschiede zwischen der eigenen und der fremden Kultur, zwischen dem "wilden" und dem "zivilisierten" Denken zu verringern und Gemeinsamkeiten zu erforschen. Der Strukturalist tue im Grunde nichts anderes als das, was er, Claude Levi-Strauss, schon als kleiner Junge, der noch nicht lesen konnte, tat, als er auf zwei Schilder ("boulanger", Bäcker, und "boucher", Metzger) deutete und die gleichen Anfangssilben bemerkte: Er erkannte die invarianten Elemente in den Verschiedenheiten. Mit dem Namen Claude Levi-Strauss ist aber nicht nur Begeisterung für einen großen Individualisten verknüpft, sondern auch das Misstrauen jener politischen Linken, die in der strukturalistischen Erforschung von Kulturen ein ungeschichtliches Vorgehen sahen. In der Folge von Jean-Paul Sartres Kritik wurde ein Gegensatz von Geschichte und Struktur konstruiert."

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1870
  • el 890
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications