Search (13209 results, page 4 of 661)

  1. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.10328604 = product of:
      0.41314417 = sum of:
        0.41314417 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.41314417 = score(doc=6896,freq=6.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  2. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.10222667 = product of:
      0.40890667 = sum of:
        0.40890667 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.40890667 = score(doc=1743,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  3. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.10222667 = product of:
      0.40890667 = sum of:
        0.40890667 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.40890667 = score(doc=2137,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  4. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.10222667 = product of:
      0.40890667 = sum of:
        0.40890667 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.40890667 = score(doc=2035,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  5. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.10222667 = product of:
      0.40890667 = sum of:
        0.40890667 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.40890667 = score(doc=2050,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  6. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.10206318 = product of:
      0.20412636 = sum of:
        0.17037779 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.17037779 = score(doc=729,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.033748575 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.033748575 = score(doc=729,freq=8.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  7. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.10052161 = product of:
      0.20104322 = sum of:
        0.13630222 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.13630222 = score(doc=2567,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.06474099 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.06474099 = score(doc=2567,freq=46.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  8. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.09980246 = product of:
      0.19960491 = sum of:
        0.17037779 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.17037779 = score(doc=617,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.029227123 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.029227123 = score(doc=617,freq=6.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  9. Ovid announces strategic partnerships : Java-based interface (1997) 0.10
    0.09638023 = product of:
      0.3855209 = sum of:
        0.3855209 = weight(_text_:java in 397) [ClassicSimilarity], result of:
          0.3855209 = score(doc=397,freq=4.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.8809384 = fieldWeight in 397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=397)
      0.25 = coord(1/4)
    
    Abstract
    Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
  10. Informationspolitik ist machbar!? : Reflexionen zum luD-Programm 1974-1911 nach 30 Jahren (2005) 0.10
    0.096106365 = product of:
      0.19221273 = sum of:
        0.052608818 = weight(_text_:und in 5380) [ClassicSimilarity], result of:
          0.052608818 = score(doc=5380,freq=54.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.38198817 = fieldWeight in 5380, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=5380)
        0.13960391 = weight(_text_:heftig in 5380) [ClassicSimilarity], result of:
          0.13960391 = score(doc=5380,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.27297854 = fieldWeight in 5380, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.0234375 = fieldNorm(doc=5380)
      0.5 = coord(2/4)
    
    Abstract
    Vor nunmehr dreßig Jahren - genauer am 17. Dezember 1974 - hat das Bundeskabinett der Bundesrepublik Deutschland das Programm der Bundesregierung zur Förderung der Information und Dokumentation (IuD-Programm) 1974 -1977 verabschiedet. Mit einem beabsichtigten Fördervolumen von insgesamt über 442 Millionen DM für die Jahre 1974 bis 1977 versuchte dieses Programm Innovation und Übersichtlichkeit in die "strukturlose Vielfalt" der bestehenden "IuD-Landschaft" der Bundesrepublik Deutschland zu bringen, neue Dienste und Systeme zu etablieren und die Infrastruktur für den Bereich zu stärken. Verantwortlich für die Durchführung war das damalige Bundesministerium für Forschung und Technologie (BMFT). Das Programm als Ganzes oder auch in Teilen ist hoch gelobt und heftig gescholten worden; allen Anfeindungen und Unterstellungen zum Trotz hat es - zumindest die bundesdeutsche - Informationsszene tiefgreifend verändert und eine neue institutionelle Infrastruktur geschaffen. Schließlich war es das erste nationenweite Entwicklungs- und Förderprogramm für die Information und Dokumentation in der westlichen Welt. Die Druckversion in der Schriftenreihe des Bundesministeriums für Forschung und Technologie mit dem charakteristischen grün-weißen Einband erschien zunächst natürlich in deutscher Sprache, eine englische Übersetzung folgte. Dieses Programm ist unauslöschbar mit dem Namen Dr. Heinz Lechmann verbunden, seinerzeit Ministerialrat im Bundesministerium für Forschung und Technologie und sachlich zuständig für den Bereich Information und Dokumentation. Es ist sicher nicht übertrieben, ihn als "Vater des IuD-Programms" zu bezeichnen, hatte er sich doch seit Anfang der 1960ger Jahre dafür eingesetzt, dass die Förderung der Information und Dokumentation dem gesamten Gemeinwesen (Staat, Wirtschaft, Forschung und Gesellschaft) großen Nutzen bringe und deshalb staatlicher Fürsorge bedürfe. Dies hat er zu vielen Anlässen in Wort und Schrift vorgetragen. Ihm sei dieser Sammelband zugeeignet. Der vorliegende Band reflektiert und fokussiert das IuD-Programm aus unterschiedlichsten Perspektiven. Doch er blickt nicht nur zurück, sondern wagt auch einen Blick nach vorne. In 17 Beiträgen auf 300 Seiten wird die jüngste Vergangenheit mit der Zukunft verknüpft, visionäre Konzepte werden mit dem Machbaren und Realen im politischen Paradigmenwechsel konfrontiert.
    Footnote
    Rez. in: Information - Wissenschaft und Praxis. 56(2005) H.7, S.391-392 (H. Lenk): "Der "Sputnik-Schock", der nach 1957 in vielen Ländern die wissenschaftlich-technische Information zu einem Politikgegenstand werden ließ, löste in Deutschland eine Planungswelle aus, welche auch die bis dahin nicht sehr prominente Fachinformationspolitik ergriff. Das lässt deren Evaluation aus heutiger Sicht höchst lehrreich erscheinen. Denn Informationspolitik, selbst wenn man sie auf Fachinformation beschränkt, bleibt eine heikle und kontroverse Angelegenheit. Mit der von der technischen Entwicklung getriebenen Umgestaltung des Gesamtsystems der Versorgung mit Fachinformationen werden heute Konflikte virulent, welche damals schon angelegt waren. Der Rezensent, der sich in diesem Zusammenhang vor einem Vierteljahrhundert selbst zu Wort meldete, hatte mehrfach erwogen, eine umfassende Evaluation durchzuführen, dieses Vorhaben aber immer wieder fallen gelassen. Nötig wäre eine solche Evaluation, um aus ihr zu lernen. Leider erfüllt der vorliegende Band aber nicht den Wunsch nach einer umfassenden Evaluation des IuD-Programms als des Kernstücks der Fachinformationspolitik. Zu disparat sind die einzelnen Beiträge. Was sie bieten ist Spurensicherung mit etlichen perspektivischen Einsprengseln. In der Einleitung wird darauf hingewiesen, dass der Band ursprünglich breiter angelegt war, dass jedoch das Interesse für die "alten Geschichten" der Fachinformationspolitik geschwunden und wichtige Unterlagen nicht mehr auffindbar seien.
    ... Die heute drängenden Fragen ähneln den alten Konfliktlinien doch sehr. Anforderungen der Kommunikationsgrundrechte an die Fachinformationsversorgung und sozialstaatliche Chancengleichheit standen schon damals in Konflikt mit den wirtschaftlichen Funktionsnotwendigkeiten einzelner Akteure in der Informationsversorgungskette. Im Digital Rights Management und in der Besorgnis über die digitale Spaltung kehren die alten Geister wieder, und diesmal in einer globalen Atmosphäre der Unversöhnlichkeit. Kompromisse sind schwieriger geworden. Zwischenhändler in der Fachinformationsversorgung können sich jetzt zu faktischen Gesetzgebern aufschwingen. Versucht man, die Linien des Bandes über nur lose zusammenhängende Insider-Reflexionen hinaus weiter zu ziehen, dann könnte man das unschöne Fragezeichen im Titelverschwinden lassen. Und das ebenso unschöne Ausrufezeichen könnte-wenn es denn sein muss- stehen bleiben als Hinweis darauf, dass wir dazu lernen können. Was fehlt uns also, um Informationspolitik zu machen? Politischer Rückenwind? Konzeptionelle Anstrengung? Neue Akteure? Oder einfach nur Zeit? Die implizite Einladung zur Debatte, die das Buch ausspricht, sollte angenommen werden."
  11. Lischka, K.: Digitale Doppelgänger (2003) 0.09
    0.09407983 = product of:
      0.18815966 = sum of:
        0.048555747 = weight(_text_:und in 2268) [ClassicSimilarity], result of:
          0.048555747 = score(doc=2268,freq=46.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.35255915 = fieldWeight in 2268, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2268)
        0.13960391 = weight(_text_:heftig in 2268) [ClassicSimilarity], result of:
          0.13960391 = score(doc=2268,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.27297854 = fieldWeight in 2268, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2268)
      0.5 = coord(2/4)
    
    Content
    "Im Film "Metropolis" von 1926 brauchte der Forscher Rotwang viel Metall und Strom für einen Identitätsdiebstahl: Unter Blitzen und Lichtbögen bekam ein Roboter das Aussehen der Arbeiterfihrerin Maria. Das künstliche Wesen sollte sie ersetzen und die Massen kontrollieren. Heute reicht für den Identitätsklau - zumindest- in den' USA - eine neunstellige Ziffernfolge, die auf vielen, nicht immer ausreichend gesicherten Rechnern liegt. Das mussten gut 500000 Angehörige der US-Armee erfahren, deren Sozialversicherungsnummern, Adressen und Namen von Einbrechern aus einem Computer der Krankenkasse Tri West gestohlen wurden Die Versicherung hat 100000 US-Dollar Belohnung ausgesetzt und überwacht auf Wunsch kostenlos die Einträge über die Kreditwürdigkeit der Betroffenen. Denn mit den Daten ist es leicht, Konten zu eröff nen und im Namen anderer einzukaufen. Dazu brauchen die Kriminellen nicht einmal Kreditkartennummern - es geht auch auf ungedeckten Kredit. Eine Studentin schöpfte erstmals im April Verdacht, als eine Fluglinie wegen zwei mit ihrer Kreditkarte gebuchten Tickets nachfragte. Als sich im Juli ein Elektronikhandel für die Deckung des Kredits interessierte, waren auf ihren Namen bereits 50000 Dollar Schulden angehäuft. Die Frau war bis in den Winter beschäftigt, die Firmen von der Unrechtmäßigkeit . der Forderungen zu überzeugen und ihre Kreditwürdigkeit wiederherzustellen. Hysterische US-Medienberichte über solchen Identitätsklau erinnern an Schauerromane des 19. Jahrhunderts. Damals erlebten Menschen in der Arbeitswelt, wie mehr und mehr Aufgaben an Maschinen übergingen. Immer öfter tauchten Doppelgänger in den Geschichten Jean Pauls oder E.TA. Hoffmanns auf. Die damals heftig diskutierte Frage, was Menschlichkeit ausmacht, steht heute etwas nüchterner im Raum: Aus wie vielen Daten besteht die Identität eines Menschen? In Deutschland glücklicherweise aus wesentlich mehr als in den Vereinigten Staaten. Dort identifizieren sich Bürger fast ausschließlich mit der Sozialversicherungsnummer gegenüber Staat und Kreditgebern Denn ein nationaler Personalausweis fehlt, Reisepässe besitzen nur we nige, und die Führerscheine der Bundesstaaten sind selten fälschungssicher. "Diese Probleme haben wir in Deutschland nicht", sagt der stellvertretende Landesbeauftragte für den Datenschutz in Schleswig-Holstein, Thilo Weichert. Hier zu Lande sei "in fast allen Fällen die Identifizierung über den Personalausweis nötig" - und die Angst vor Identitätsklau daher unberechtigt. Ohne den per Ausweis verifizierten Namen und Wohnort gebe es weder Konto noch Kreditkarte. Es sind also mehr Angaben als neun Ziffern nötig. Dennoch ist die einfachste und wirkungsvollste Variante des Identitätsklaus auch- in Deutschland möglich: Mit einer Kreditkartennummer können Kriminelle in fremdem Namen einkaufen. Weichert:' "Das ist ja fast schon klassisch - unberech-tigte Internet-Bestellungen,' da online eine direkte Identifizierung nicht möglich ist." Den größten Teil der Computerkriminalität - die Zahl der Fälle hat sich von 1993 bis 2001 verachtfacht - macht in der deutschen Kriminalstatistik denn auch der Betrug mit solchen rechtswidrig erlangten Karten aus.
    Gut 60 Prozent von 80000 Fällen waren es 2001. Die Kreditkartennummern beschaffen sich unliebsame Zeitgenossen auf verschiedenen Wegen. Meist stehlen sie die Daten. Wie Unternehmen wichtige Kundeninformationen auf ihren Rechnern schützen, darüber sagen selbst bekannte Vertreter wie Amazon und E-Bay nichts, nicht einmal Allgemeines. Öffentlich geworden ist daher bislang eher Negatives, etwa dass im Jahr 2001 Hacker bei der Amazon-Tochter Bibliofind die Kreditkartendaten von fast 100 000 Kunden klauten. Die Anbieter der elektronischen Geldbörsen sind dabei, Diebstahl und Nutzung erschwindelter Informationen zu erschweren: Neue Verfahren prüfen und belasten die Kartennummer online auf einem Zentralrechner der Gesellschaften; die Angaben werden nicht bei den Händlern gespeichert. In einem nächsten Schritt sollen Passwörter folgen, die ebenfalls über die Infrastruktur der Kreditkartenunternehmen kontrolliert werden. Es geht aber nicht nur ums Geld. Auch viele andere Aspekte der Identität jedes Bürgem sind digitalisierte lnformationen über Verdienst, Arbeitgeber, Schulzeiten, Arbeitslosigkeit und Kinder schlummern etwa in den Datenbanken der Bundesversicherungsanstalt für Angestellte. Ärzte und Krankenkassen arbeiten mit Gesundheitsdaten. Und Auskunfteien wie die Schufa kennen Informationen über die finanzielle Vergangenheit. Den Schutz all der Angaben reglementieren in Deutschland die Datenschutzgesetze stark, weit stärker als in den Vereinigten Staaten. Dort lockerte 1989 die "Federal Trade Commission" auf Druck von Auskunfteien, Kautionsbüros und Privatdetektiven den Schutz für Informationen über die Kreditwürdigkeit. Folge: Für 49 Dollar liefern Anbieter wje docusearch.com die Sozialversicherungsnummer jeder beliebigen Person. In Deutschland sind die Schufa; und ihre Konkurrenten verpflichtet, stichpro benartig die Berechtigung von Anfragen zur Kreditwürdigkeit zu prüfen. Die spannendsten Dinge geben die Bürger manchmal ohnehin freiwillig preis - vor allem in den Diskussionsforen des Usenets. Im Archiv der Suchmaschine Google (groups.google.de) stehen Beiträge aus mehr als einem Jahrzehnt. Einzeln betrachtet sind viele harmlos; mehrere Texte eines Autors zusammen liefern aber oft weit mehr Details, als man etwa Marktforschern anvertrauen würde. Ganz zu schweigen von den erotischen Kurzgeschichten einer hochrangigen Universitätsangestellten, die man in Verbindung mit ihrer offiziellen E-Mail-Adresse ohne Mühe findet. Nicht ohne Grund gehört zur Recherche von Personalvermittlern längst die Suche in den Newsgroups. Das Bewusstsein für die digitalisierten Lebensspuren wächst nur langsam - langsamer jedenfalls als die Technologie. In etwa vier Jahren soll laut Gordon Bell, Chef der Microsoft-Forschungsgruppe "My LifeBits" eine Technologie marktreif sein, die den Alltag eines Menschen in Form von digitalisierten Dokumenten, Bildern, Tönen und Videos speichert. Die nötige Speicherkapazität für die digitalen Erinnerungen eines Menschenlebens sieht Bell bei 1000 Gigabyte. Er selbst hat seit 1995 in seinem Zweitgedächtnis auf einer Festplatte 30 Gigabyte angehäuft: Viel neuer Stoff für Datenschützer - und neue Jean Pauls."
  12. Springer, M.: Muss Musil modern? (2002) 0.09
    0.09354618 = product of:
      0.18709236 = sum of:
        0.047488455 = weight(_text_:und in 1315) [ClassicSimilarity], result of:
          0.047488455 = score(doc=1315,freq=44.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.34480965 = fieldWeight in 1315, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1315)
        0.13960391 = weight(_text_:heftig in 1315) [ClassicSimilarity], result of:
          0.13960391 = score(doc=1315,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.27297854 = fieldWeight in 1315, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1315)
      0.5 = coord(2/4)
    
    Content
    "In seinem jüngsten Buch "Sieben Wegbereiter", das soeben bei DVA erschienen ist" unternimmt Marcel Reich-Ranicki - dank unentwegter Fernsehpräsenz populärster deutscher Literaturkritiker-den Versuch" den bislang als Klassiker der Moderne anerkannten Schriftsteller Robert Musil posthum als "gehässigen" Neidhammel und "schamlosen" Plagiator zu entlarven. In der auf den ersten Blick unbegreiflichen Verunglimpfung offenbart sich bei näherem Hinsehen Reich-Ranickis pauschale Allergie gegen jede "moderne" Literatur. Denn dieser Kritiker verabscheut seit jeher alle Texte, die dem Umstand Rechnung tragen" dass eine von moderner Technik und Naturforschung revolutionierte Wirklichkeit sich nicht mehr mit den literarischen Mitteln des 19. Jahrhunderts be schreiben lässt. Darum mag die Leichenschändung auch ein Nachgehakt in dieser Zeitschrift verdienen. Musil war zunächst Naturwissenschaftler; er studierte Physik und promovierte in Psychologie über den Physiker und Philosophen Ernst Mach. Musils Hauptwerk" der unvollendete Roman "Der Mann ohne Eigenschaften"" umkreist mit einem funkelnden Figurenreigen das "moderne" Epochenproblem" das sich zu Beginn des 20. Jahrhunderts gebieterisch stellte: Wie lebt es sich in einer Welt" die durch beschleunigten technischen Wandel und Schwindel erregende Umwälzungen des wissenschaftlichen Weltbilds aus den Fugen gerät" während Gefühl" Moral" Politik und "Seele" im Postkutschenzeitalter verharren? Schon im ersten Absatz des "Mann ohne Eigenschaften" wird dieses Thema leichthin angeschlagen und von da an durch die Romangestalten vielstimmig variiert. Diese Melodie ist auch ReichRanicki nicht ganz entgangen. Doch in völliger Verkennung der ironischen Haltung Musils zum so genannten wissenschaftlichen Fortschritt konstatiert der rasende Kritiker: "Sein naiver Glaube an die Erlösung der Menschheit durch die exakten Wissenschaften" der ihn ja in seinen frühen Jahren bezaubert hatte" ließ mit der Zeit keineswegs nach." Vom Großkritiker weithin unbemerkt" widmet sich ein "moderner" Strang der Literatur schon seit langem dem Problem" wie eine Welt zu beschreiben sei" die sich immer weniger dem Augenschein und der Alltagssprache erschließt, dafür desto mehr der Methodik einer Naturerforschung, die ihre Resultate letztlich nur in der Sprache der Mathematik zu formulieren vermag. Schon im 18. Jahrhundert schrieb der Physiker Lichtenberg darüber ironische Gedankensplitter in seine "Sudelbücher", darunter den gegen alle Augenscheindenker gerichteten Satz "Die Hauptsache ist immer unsichtbar". Im 19. Jahrhundert schilderte Georg Büchner - er verfasste eine wissenschaftliche Arbeit über das Nervensystem der Fische - etwa in der verblüffend "modernen" Erzählung "Lenz", wie seinen Personen der naive Bezug zwischen Bewusstsein und Realität verloren geht. Und Zeitgenossen Musils wie Hugo von Hofmannsthal im "Lord-ChandosBrief", Rainer Maria Rilke in der Erzählung "Malte Laurids Brigge", ganz zu schweigen von Franz Kafka, behandeln die "moderne" Krise" den Zerfall des gewohnten Zusammenhangs von Wahrnehmung, Sprache und Wirklichkeit.
    Der auf traditionelle Vollbluterzähler abonnierte Großkritiker tadelt die "Unanschaulichkeit der Sprache Musils" als Kunstfehler. Der posthume Verriss gipfelt darum in der Behauptung: "Die Wahrheit ist: Der Mann ohne Eigenschaften' war misslungen und Musil tatsächlich ein ganz und gar gescheiterter Mann." Zum Beweis berichtet Reich-Ranicki, Musil habe seinen prominenten Zeitgenossen wie Thomas Mann den literarischen Erfolg missgönnt; denn er selbst lebte" während er" "vom mehr oder weniger manischen Sendungsbewusstsein geblendet", an seinem Hauptwerk schrieb" in einer "ärmlichen Wohnung ohne fließendes Wasser". Noch viel schwerer wiegt Reich-Ranickis Vorwurf" Musil habe an allzu vielen Einfällen gelitten: Es sei "gerade die Fülle der Details" der Einfälle" die Musils Werk so fragwürdig macht". Vor allem aber sei Musil so ganz und gar nicht modern - "... nur da" wo er ... traditionell erzählt" gelingen ihm Kapitel von beachtlicher oder gelegentlich auch hoher Qualität". Insbesondere sei ein vermeintliches "Hauptstück des Romans", der Inzest der Geschwister" ein alter Hut: "Gerade diesem Handlungsstrang lässt sich schwerlich Modernität und auf keinen Fall Originalität nachrühmen. Der Inzest ist ein Urmotiv" ein ehrwürdiger Topos der Weltliteratur, besonders oft als Versatzstück verwendet ... Im "Mann ohne Eigenschaften' folgt Musil in dieser Hinsicht ganz und gar der Tradition, um nicht zu sagen: der Konvention." Diese Beweisführung für Musils angebliche Unmodernität ist schon deshalb ohne Substanz" weil die Musil-Forschung heftig darüber streitet" ob der Autor den Inzest im Roman überhaupt vorkommen lassen wollte. Jedenfalls geht der Vorwurf völlig an der Frage vorbei" ob Musil "modern" ist oder nicht. Musils eigentliches Thema muss einem ja nicht schmecken - Reich-Ranicki mag toben wie der Suppenkaspar -, aber sofern der Begriff der Moderne einen Sinn hat, kreist er über der Kluft zwischen abstrakter Naturwissenschaft und Sinnenwelt" die niemand so umfassend" originell und unterhaltsam ausgeleuchtet hat wie Robert Musil. Reißwolf Reich-Ranicki hat nie einen Zweifel daran gelassen, dass ihn an der Literatur einzig deren Unterhaltungsfunktion interessiert. Dieses populistische Dogma bläht die Segel seiner enormen Popularität" treibt ihn aber auf seine alten Tage auch in gefährliche Untiefen. Literatur muss nicht immer nur unterhaltsam das bestätigen" was wir schon wussten. Sie darf auch experimentieren" neue Formen erproben, die Welt etwa mit Forscheraugen sehen. Wem diese Anstrengung, die sich zur Unterhaltungsliteratur ähnlich verhält wie die Grundlagenforschung zum marktreifen Produkt" allzu mühsam ist" der muss davon nichts lesen. Wer aber solche Literatur aus dem Kanon der Moderne verbannen möchte" der richtet sich als Kritiker selbst. Der von Reich-Ranicki zum einsamen End- und Höhepunkt der deutschsprachigen Literatur erhobene Thomas Mann war für Musils Modernität empfänglicher. Über den "Mann ohne Eigenschaften" urteilte er: "Dies funkelnde Buch" das zwischen Essay und epischem Lustspiel sich in gewagter und reizender Schwebe hält, ist gottlob kein Roman mehr - ist es darum nicht mehr" weil" wie Goethe sagt "alles Vollkommene in seiner Art über seine Art hinausgehen und etwas anderes Unvergleichliches werden muss."."
  13. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.09340623 = product of:
      0.18681246 = sum of:
        0.13630222 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.13630222 = score(doc=2121,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.05051024 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.05051024 = score(doc=2121,freq=28.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  14. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.09340623 = product of:
      0.18681246 = sum of:
        0.13630222 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.13630222 = score(doc=346,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.05051024 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.05051024 = score(doc=346,freq=28.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  15. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.09153281 = product of:
      0.18306562 = sum of:
        0.13630222 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.13630222 = score(doc=6889,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.046763398 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.046763398 = score(doc=6889,freq=24.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  16. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.09153281 = product of:
      0.18306562 = sum of:
        0.13630222 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.13630222 = score(doc=1642,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.046763398 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.046763398 = score(doc=1642,freq=24.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  17. Reisser, M.; Rothe, M.; Schleh, B.: "Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele" : Gemeinsame Jahrestagung Stuttgart 2003 (2003) 0.09
    0.090674296 = product of:
      0.18134859 = sum of:
        0.04174468 = weight(_text_:und in 2730) [ClassicSimilarity], result of:
          0.04174468 = score(doc=2730,freq=34.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.30310458 = fieldWeight in 2730, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2730)
        0.13960391 = weight(_text_:heftig in 2730) [ClassicSimilarity], result of:
          0.13960391 = score(doc=2730,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.27297854 = fieldWeight in 2730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2730)
      0.5 = coord(2/4)
    
    Content
    "Seit gut zwei Jahren vergeht keine Tagung mehr ohne Regelwerksdiskussionen, die direkt befassten Gremien tagen in Permanenz. Das schlägt sich in der Fachpresse nieder, zudem wurden die Abonnenten der bibliothekarischen Diskussionslisten (InetBiB, RAK-List, ForumOeb...) in den letzten Wochen und Monaten satt mit Pro- und Contra-Argumenten in Sachen »RAK versus AACR« gefüttert. In Stuttgart saßen einmal mehr die »üblichen Verdächtigen« auf dem Podium, ihnen gegenüber ein zu früher Stunde relativ zahlreich erschienenes Publikum, dem die Veranstalter einen »Blick über die Grenzen der RAK/AACR-Diskussion« versprochen hatten. - Sacherschließung unterbelichtet - Für Bernhard Eversberg (Universitätsbibliothek Braunschweig) ist das neu entflammte Interesse an Regelwerksfragen eine verspätete Reaktion auf das Vordringen des Internet in den bibliothekarischen Kompetenzbereich. Außerhalb der Bibliothekszene werde dies aber kaum wahrgenommen. Selbst bei der Entwicklung von einheitlichen Metadaten-Formaten wie Dublin Core würden »bibliothekarische Erfahrungen kaum berücksichtigt«. Auch der Berufsstand selbst bewege sich nur langsam, noch immer »weichen bibliothekarische Kataloge erheblich von Suchmaschinenkonzepten ab«. Eversberg plädierte für ein pragmatisches Vorgehen in Regelwerksfragen, das sich an klaren Zielvorgaben im Sinne der Bibliothekskundschaft ausrichten müsse: - verlässliches Finden des Vorhandenen (Null-Treffer vermeiden) - Unterschiedliches unterscheidbar präsentieren (konsistente Datenpflege) - Zusammengehörendes zusammenführen (Kontexte und Beziehungen einbeziehen) - Gefundenes überschaubar darstellen (Präsentation) - Ausgewähltes auch tatsächlich verfügbar machen (Zugänglichkeit).
    Er forderte eine »neue Art der Regelwerksarbeit«, die »online und kooperativ« vonstatten gehen müsse, zudem ein Regelwerk, das durchgängig und aktuell im Netz verfügbar sei. Wie die Beteiligten aber - bei aller Kooperationsbereitschaft - auch künftig zu verbindlichen Beschlüssen kommen sollen, ließ Eversberg offen. Immerhin konnte er mit der von ihm entwickelten »Regelwerks-Datenbank« (www.allegro-c.delregeln) seine Forderung anschaulich ins Bild setzen. Heidrun Wiesenmüller (Württembergische Landesbibliothek, Stuttgart) war in der RAK/AARC-Debatte nie um deutliche Worte verlegen, auch an diesem Morgen bekamen die anwesenden Vertreter Der Deutschen Bibliothek einen Schuss vor den Bug. Die Praktiker bräuchten »keinen neuen Katalogbruch« und »keine Diskussionen auf der grünen Wiese«, auf der Tagesordnung stünden vielmehr »Vereinfachungen und Integration«, auch im Hinblick auf eine Kompatibilität zu den AACR - »aber nicht um jeden Preis«. Wiesenmüller kritisierte heftig, dass in der ganzen Debatte die Sacherschließung außen vor bliebe. Sie warnte aber davor, sich auch hier in Detailfragen zu verzetteln: »Besser überhaupt Sacherschließung, als gar keine!« Mit intelligenter Software und besserer Koordination der Verbünde ließe sich das Problem unterschiedlicher Sacherschließungskonzepte schon erheblich entschärfen. Auch die gängigen Bibliothekssysteme verdienten stärkere Beachtung, so hätten sich »Opacs seit Anfang der Neunziger nicht geändert«. Die Zeit dränge, schon deshalb müssten Bibliothekare »heterogene Datenlandschaften akzeptieren«. Eine Gleichmacherei von oben habe jedenfalls »keine Zukunft«.
    - De-Standardisierung als Lösung? - Adrian Nolte (Stadtbibliothek Essen) übte ebenfalls scharfe Kritik am Entscheidungsverfahren: »Was bringt eine Formatumstellung Öffentlichen Bibliotheken, die sich im Überlebenskampf befinden?« Gerade solch existenzielle Fragen blieben in der Debatte um Regelwerke und Datenformate nahezu unberücksichtigt, die gegenwärtig diskutierte »Reform« sei gerade den kommunalen Bibliotheken schlicht »aufgedrängt worden«. Auch Nolte fasste seine Erwartungen in mehreren Thesen zusammen: - Die Sacherschließung müsse »Schwerpunkt der künftigen Arbeit werden«; - Informationstechnologie, Regelwerksarbeit und Optimierung der Datenformate seien besser aufeinander abzustimmen (Stichwort »Kompatibilität«); - dementsprechend müsse die Bibliotheken künftig stärker auf Spezialisten zurückgreifen, der Allround-Bibliothekar sei bei der Lösung und kontinuierlichen Bearbeitung der allfälligen Probleme überfordert; - um den Nutzer gerecht zu werden, seien verstärkt »multiple Zugänge nötig«; - und: »Die Vielfalt an Regelwerken lässt sich nicht einebnen«, die Zukunft liege folgerichtig in der »De-Standardisierung«. Wie seine Vorredner sprach auch Friedrich Geißelmann (Universitätsbibliothek Regensburg) den Themenkomplex »Sacherschließung« an, allerdings im Kontext der internationalen Zusammenarbeit und der sich daraus ergebenden Sprachprobleme bei der Pflege von Normdaten. Durch die Verwendung von Suchmaschinen, Digitalen Bibliotheken und Fachdatenbanken sei eine »breite Bewegung hin zu Konkordanzen« absehbar. Auch der Trend zu Aufstellungssystematiken in vielen wissenschaftlichen Bibliotheken zeige deutlich: »Die bibliothekarische Sacherschließung hat Zukunft!«"
    Footnote
    Bericht von der 29. Arbeits- und Fortbildungstagung der ASpB vom 8.-11.4.2003. Darin auch vorstehender Abschnitt zur Podiumsdiskussion "Die Zukunft der formalen und inhaltlichen Erschließung" (S.492-494)
  18. Berg, L.: Wie das Internet die Gesellschaft verändert : Google gründet ein Forschungsinstitut in Berlin (2011) 0.09
    0.08940811 = product of:
      0.17881621 = sum of:
        0.0392123 = weight(_text_:und in 552) [ClassicSimilarity], result of:
          0.0392123 = score(doc=552,freq=30.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.2847172 = fieldWeight in 552, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=552)
        0.13960391 = weight(_text_:heftig in 552) [ClassicSimilarity], result of:
          0.13960391 = score(doc=552,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.27297854 = fieldWeight in 552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.0234375 = fieldNorm(doc=552)
      0.5 = coord(2/4)
    
    Content
    "Vor zehn Jahren kannten nur Eingeweihte die Suchmaschine Google, heute ist das Googeln so selbstverständlich wie Kaffeetrinken. Am Aufstieg des kalifornischen Unternehmens ist ablesbar, wie sehr das Internet die Gesellschaft durchdrungen hat. Verändert hat sich aber auch das Image der US -amerikanischen Firma. Bis vor wenigen Jahren weckte der Name die Vorstellung von cleveren Computerfreaks, die der Welt freundlicherweise einen Weg durch den Informationsdschungel bahnen. Spätestens seit der Debatte um den Online-Straßenatlas Street View ist das Bild nicht mehr so positiv: Viele fürchten jetzt die unersättliche, machtbesessene Datenkrake. Besonders heftig war der Protest gegen Street View in Deutschland. Just hierzulande, in Berlin, fördert der Marktführer unter den Internet-Suchmaschinen nun den Aufbau eines sozial- wissenschaftlichen Forschungsinstituts, in dem es um "Internet und Gesellschaft" gehen soll. Eric Schmidt, der Ex-Vorstandsvorsitzende von Google, hatte die Gründung im Februar bei einem Vortrag an der Humboldt-Universität (HU) angekündigt. Im Senatssaal der Universität wurde das Projekt gestern bei einer sehr gut besuchten Pressekonferenz näher vorgestellt. Der ehemalige Google-Chef war nicht mehr angereist. Er grüßte aber per Videobotschaft und betonte, dass das neue Institut völlig unabhängig von Google arbeiten werde. Sein Unternehmen habe lediglich die Initiative ergriffen und stelle Geld bereit.
    Getragen wird das neue Forschungszentrum von den drei Berliner Institutionen Humboldt-Universität, Universität der Künste (UDK) und Wissenschaftszentrum Berlin für Sozialforschung (WZB). Kooperationspartner ist das Hans-Bredow-Institut für Medienforschung an der Universität Hamburg. Google Deutschland fördert das Projekt mit insgesamt 4,5 Millionen Euro zur Verfügung, in drei jährlichen Tranchen von je 1,5 Millionen Euro. Nach weiteren Kooperationspartnern und Finanziers wolle man suchen, hieß es auf der Pressekonferenz. Auch bei den beiden anderen Berliner Universitäten, Freie Universität und Technische Universität, sehe man "Andockstellen". - Unis und WZB als Träger Untergebracht wird das neue Institut in der Juristischen Fakultät der HU. Dort sind Büros für ein insgesamt zehnköpfiges Kernteam vorgesehen: für vier Direktoren, vier Mitarbeiter und zwei Geschäftsführer. Geplant ist auch die Gründung einer Graduate School, zunächst mit zwei Stellen für Doktoranden und weiteren Positionen für Postdoktoranden. Offizieller Arbeitsbeginn ist im Herbst, nach dem Auftakt mit einem internationalen Symposium über die sozialen Aspekte des Internets vom 25. bis 28. Oktober in Berlin. "Berlin ist die digitale Hauptstadt Deutschlands", begründete der Google-Sprecher Ralf Bremer die Standortwahl. Beeindruckend sei die Fülle von Startup-Unternehmen im Bereich der elektronischen Medien.
    Google pflege weltweit viele akademische Partnerschaften, allerdings fast ausnahmslos zu Fragen der Informationstechnik. Die Förderung eines sozialwissenschaftlichen Instituts sei für seine Firma ein Novum, betonte Bremer. Die Wahl sei auf Berlin gefallen, weil es hier sehr viel Kompetenz auf diesem Gebiet gebe. - Kreatives Schwarmverhalten An Ideen für künftige Projekte mangelt es nicht, das zeigten die Beiträge der künftigen Direktoren des Instituts auf der Pressekonferenz. Der HU-Rechtswissenschaftler Ingolf Pernice will zum Beispiel untersuchen, ob die Vorstellung vom Staat sich durch das Internet verändert. Eine fast ver- gessene Utopie, die globale Verfassung, sei durch das weltweite Netz wieder in den Bereich des Möglichen gerückt, sagte Pernice. Thomas Schildhauer, Informatiker an der Universität der Künste, möchte das kreative Schwarm- verhalten ausloten. Er berichtete vom 300-Dollar-Haus , das im Internet gemeinschaftlich für Krisengebiete entwickelt wird. Schildhauer sucht überdies nach Wegen, um die drohende Spaltung der Gesellschaft in Computerkundige und digitale Analphabeten zu verhindern.
    Auch der Jurist Wolfgang Schulz vom Hamburger Hans-Bredow-Institut interessiert sich für die Schwarmintelligenz: Warum nicht die Weisheit der Massen nutzen und Patente ins Internet stellen, um ihre Neuheit zu prüfen, schlug er vor. Die Politikwissenschaftlerin Jeanette Hofmann vom WZB beschäftigt sich bereits seit 15 Jahren wissenschaftlich mit dem Internet. Ihr geht es um die Regeln, die das Internet bestimmen - um technische Standards, aber auch um soziale Gepflogenheiten und kulturelle Normen. Mit den Mitteln des neuen Instituts will Jeanette Hofmann die Zukunft des Internets erforschen und dabei auch Fragen des Datenschutzes behandeln. Im Oktober, beim Symposium, sollen die Projektideen mit Kollegen aus aller Welt diskutiert werden. Um Doppelarbeit zu vermeiden, will man sich mit den führenden Einrichtungen auf diesem Gebiet abstimmen, etwa dem Berkman Center an der Harvard University und dem Oxford Internet Institute. Die Ergebnisse des neuen Berliner Instituts seien nicht für Google reserviert - "sie werden frei zugänglich im Internet publiziert", kündigte die WZB Chefin Jutta Allmendinger an. Das Engagement des Unternehmens sei lobenswert und es halte sich völlig aus der inhaltlichen Arbeit heraus: "Sonst hätten wir nicht mitgemacht.""
  19. Tsai, B.-s.: Infomapping in information retrieval (1997) 0.09
    0.0885309 = product of:
      0.3541236 = sum of:
        0.3541236 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
          0.3541236 = score(doc=3877,freq=6.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.8091937 = fieldWeight in 3877, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3877)
      0.25 = coord(1/4)
    
    Abstract
    Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
  20. Thomas, C.: Blackout : Leitartikel (2012) 0.09
    0.088054284 = product of:
      0.17610857 = sum of:
        0.036504664 = weight(_text_:und in 882) [ClassicSimilarity], result of:
          0.036504664 = score(doc=882,freq=26.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.26505727 = fieldWeight in 882, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=882)
        0.13960391 = weight(_text_:heftig in 882) [ClassicSimilarity], result of:
          0.13960391 = score(doc=882,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.27297854 = fieldWeight in 882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.0234375 = fieldNorm(doc=882)
      0.5 = coord(2/4)
    
    Abstract
    Wo das Internet seine Potenziale ausschöpft und seine ganze Dynamik entfaltet, zählt das Urheberrecht zu den ersten Opfern der Internetkultur.
    Content
    "Welcher Blackout ist schon originell? Als Bewusstseinsstörung, als echter Aussetzer, ist er eher peinlich - oder auch beunruhigend, da mochte die Definition, wie sie die deutschsprachige Seite von Wikipedia um zwölf Uhr MEZ lieferte, noch so sachlich daherkommen. Während hier vom "plötzlichen Versagen eines Zustandes" die Rede war, führte die englischsprachige Seite ihre Nutzer auf eine dunkle Seite. Der Blackout als Protest. Der Blackout als bewusste Tat. Das zeigt, dass das Internet wahrhaftig ein Tummelplatz ist, der unglaublich absurde Energien zu erzeugen vermag. Es war der erste Blackout dieser Art. Was Google oder Facebook bereits in Aussicht stellten, setzte Wikipedia in die Tat um. Anlass sind zwei US-Gesetzesinitiativen, namentlich bekanntwurde sie als Stop Online Piracy Act (SOPA) und Protect Intellectual Property Act (PIPA). Mit ihnen sollen nicht nur Anstrengungen unternommen, sondern gesetzliche Grundlagen geschaffen werden, solche Webseiten zu sperren, über die Raubkopien etwa von Filmen und Musiktiteln vertrieben werden können. Es geht also, das ist keine originelle Erkenntnis, um nichts weniger als Urheberrechtsfragen, zu denen der Wikipedia-Gründer Jimmy Wales in einem Interview meinte: "Das ist eine ziemlich plumpe Gesetzgebung, die gefährlich für ein offenes Internet ist."
    Auch das ist kein origineller Gedanke - aber wie auch? Das hat unmittelbar mit dem Internet selbst zu tun, ist es doch eine Plattform des Recyclings, der nicht abreißenden Vervielfältigung von Informationen und Meinungen. Was im Internet erst in Umlauf ist, wird in Sekundenbruchteilen übernommen - vieles davon unhinterfragt. Was im Internet Meinung ist, spricht nicht zwangsläufig für offene Formen der Kommunikation, auch wenn sie immerzu behauptet werden, gebetsmühlenartig wiederholt werden. Sicher, das Internet ist ein Schauplatz, der Regierungen nicht nur irritiert, sondern ins Wanken gebracht hat, etwa im vergangenen Jahr, man denke nur an die Empörungen und Massenerhebungen in Nordafrika. Dennoch ist das Internet, dem auch der Wikipedia-Gründer Wales huldigt wie einem Fetisch, nicht unter allen Umständen ein Forum der Aufklärung geworden - wenn man darunter weiterhin so etwas wie die Selbsttätigkeit des Denkens versteht, den Versuch, sich seines eigenen Verstandes zu bedienen, der sich orientiert an allgemein verbindlichen Standards. In demokratisch legitimierten Gesetzen kann man solche Standards verbrieft sehen - und dazu zählt, auch das ist kein origineller Gedanke, das Urheberrecht. Dessen Wahrung durch Gesetze vermag mit der ungeheuren Dynamik des Internets nicht Schritt zu halten. Zu dieser Dynamik zählt eine permanent in die Welt gesetzte Selbstlegitimierung des Internets durch seine Protagonisten - ein Freibrief auch für Übertretungen oder Rechtsbrüche, die eine demokratisch herbeigeführte Gesetzgebung zu ahnden hat.
    Wales, und sicherlich nicht nur er, ist als Internetaktivist so etwas wie ein Suchmaschinist der Deregulierung von geistigem Eigentum. Wenn obendrein Kritiker der Gesetzes-Initiative des US-Kongresses die vorgesehenen Netzsperren als "Zensur" kritisieren, ist auch das, nun ja, kein eigenständiger Gedanke. Es ist das Ritual in einem Kulturkampf, der - um die Motive nicht aus den Augen zu verlieren - von ökonomischen Interessen beherrscht wird. Keine Frage, ein Medienmogul wie etwa Rupert Murdoch, der die Internetpiraterie auch aus aktuellem Anlass wieder heftig beklagt hat, um Gesetze zur Eindämmung einzuklagen, ist einer der größten Freibeuter. Als Heuchler ist er ein Aktivist. Die Internetkultur hat sich ihre eigenen Nutzungs- und Verhaltensformen geschaffen, angefangen damit, dass in einem "offenen" Internet, in dem Autor und Publikum, Produzent und Nutznießer immer weniger unterscheidbar sind, das Copyright kaum noch "transparent" bleibt. Mit Blick auf das Internet sind immer wieder gewaltige Potenziale und eine schier ungeheure Dynamik angekündigt worden. In der Tat, wo es seine Potenziale ausschöpft und seine ganze Dynamik entfaltet, zählt das Urheberrecht zu den ersten Opfern der Internetkultur. Wo doch wir, die Generation Google, zu Virtuosen in der Kunst des Textkopierens geworden sind. Wir, Wikipedia-Aktivisten, wissen um den Satz des Bert Brecht und seiner "laxen Haltung" zum geistigen Eigentum, um ihn täglich mehrfach recycelnd zu exekutieren. Die jahrhundertealte Tradition der Wahrung des geistigen Eigentums beruht auf einer Kulturtechnik. Wenn die englische Wikipediaseite diese Kulturtechnik durch einen Blackout ignoriert, wird damit in der Tat eine längst universelle Bewusstseinsstörung ins Netz gestellt. In dem Blackout findet Wikipedia auch zu sich selbst."

Authors

Languages

Types

  • a 9352
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications