Search (13209 results, page 4 of 661)

  1. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.10328604 = product of:
      0.41314417 = sum of:
        0.41314417 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.41314417 = score(doc=6014,freq=6.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  2. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.10
    0.10328604 = product of:
      0.41314417 = sum of:
        0.41314417 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.41314417 = score(doc=4612,freq=6.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java
  3. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.10328604 = product of:
      0.41314417 = sum of:
        0.41314417 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.41314417 = score(doc=6896,freq=6.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  4. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.10222667 = product of:
      0.40890667 = sum of:
        0.40890667 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.40890667 = score(doc=1743,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  5. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.10222667 = product of:
      0.40890667 = sum of:
        0.40890667 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.40890667 = score(doc=2137,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  6. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.10222667 = product of:
      0.40890667 = sum of:
        0.40890667 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.40890667 = score(doc=2035,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  7. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.10222667 = product of:
      0.40890667 = sum of:
        0.40890667 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.40890667 = score(doc=2050,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  8. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.10206318 = product of:
      0.20412636 = sum of:
        0.17037779 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.17037779 = score(doc=729,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.033748575 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.033748575 = score(doc=729,freq=8.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  9. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.10052161 = product of:
      0.20104322 = sum of:
        0.13630222 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.13630222 = score(doc=2567,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.06474099 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.06474099 = score(doc=2567,freq=46.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  10. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.09980246 = product of:
      0.19960491 = sum of:
        0.17037779 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.17037779 = score(doc=617,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.029227123 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.029227123 = score(doc=617,freq=6.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  11. Frey, S.: Vom Wort zum Bild - Von der Vernunft zum Instinkt? (2002) 0.10
    0.0981403 = product of:
      0.1962806 = sum of:
        0.033409383 = weight(_text_:und in 1257) [ClassicSimilarity], result of:
          0.033409383 = score(doc=1257,freq=16.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.24258271 = fieldWeight in 1257, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1257)
        0.16287121 = weight(_text_:herrn in 1257) [ClassicSimilarity], result of:
          0.16287121 = score(doc=1257,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.31847495 = fieldWeight in 1257, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1257)
      0.5 = coord(2/4)
    
    Content
    "Die Medien können erstaunliche Dinge bewirken. Sie können Politiker zu Fall bringen, Kriege gewinnen, Firmen große Probleme schaffen. Aber wie gelangten sie eigentlich in diese Machtposition? Was ist der Mechanismus, der es ihnen erlaubte, sich in einer Weise zu entwickeln, dass heutzutage nicht zu Unrecht von ihnen als von einer "vierten Gewalt" im Staate gesprochen wird? Schließlich haben die Medien ja keinerlei formales Recht, Politiker in Amt und Würden zu heben oder sie zu feuern. Im Falle von Kriegen ist es ihnen nicht erlaubt, an der strategischen Planung oder am Kampfgeschehen selbst teilzunehmen. Und wenn sie Firmen in große Bedrängnis bringen, so nicht etwa auf dem üblichen Wege eines regulären Wettbewerbs. Die Macht der Medien ist von ganz anderer Art. Sie beruht gänzlich auf kommunikativem Geschick, d. h. auf der Fähigkeit, Menschen dazu zu bringen, die von den Medien verbreitete Information zu beachten, sie zu verstehen und ihr Glauben zu schenken. - Knecht des Gehirns - Von der Macht der Medien zur Manipulation der öffentlichen Meinung kann daher auch nur insoweit gesprochen werden, als es ihnen gelingt, die Aufmerksamkeit der Menschen auf sich zu lenken und ihr Publikum davon zu überzeugen, dass die ihm übermittelte Information zuverlässig ist. Aber wie schaffen sie das? Offenkundig nicht einfach durch die bloße Verbreitung von Information. Denn in einer modernen demokratischen Gesellschaft, die dem Bürger freien, unzensierten Zugang zu einer unlimitierten Anzahl von Informationsquellen gewährt, stehen die Medien selbst in einer Konkurrenzsituation, die alle Merkmale eines darwinistischen Überlebenskampfes aufweist. Und diesen können sie - falls Darwins Überlegungen korrekt sind - überhaupt nur dadurch gewinnen, dass sie sich ihren Umweltbedingungen optimal anpassen. Diese wiederum sind im Falle der Medien nun aber in erster Linie definiert durch die Funktionsweise jenes wundersamen Informationsverarbeitungsapparats, den wir das menschliche Gehirn nennen. Wenn es also darum gehen soll, herauszufinden, wie es den Medien gelingen konnte, sich den hehren Status einer vierten Gewalt anzueignen - einer Gewalt, die in Montesquieus Modell der drei Staatsgewalten noch gar nicht mal vorgesehen war -, müssen wir klären, wie der menschliche Wahrnehmungsapparat mit den Informationen umgeht, die ihm die Medien über die Sinnesorgane zuführen. Das heißt, wir müssen, um es in den Worten von Kurt und Gladys Lang, den großen Pionieren der amerikanischen Medienforschung, auszudrücken, uns der schwierigen Aufgabe stellen, herauszufinden, wie "das Beurteilungsschema des anonymen Herrn Jedermann" funktioniert.- Mehr als tausend Worte - Dazu aber gilt es zunächst einmal zu klären, auf welchem Wege es überhaupt gelingt, homo sapiens etwas "glauben zu machen". Wie kann man es erreichen, dass Menschen das Wahrgenommene als wahr erachten, wie ist es zu schaffen, dass ihnen ein Argument einleuchtet, dass sie eine Schlussfolgerung überzeugt? Man würde denken, dass bei einem Wesen, das sich - als einziges auf diesem Planeten - mit der Erfindung der Lautsprache sein eigenes Kommunikationswerkzeug geschaffen hat, der Prozess der Meinungsbildung vor allem auf verbalem Wege erfolgt. Ohne die Erfindung der Sprache hätte der Mensch schließlich einen sehr engen geistigen Horizont. Er wüsste nichts von der Existenz all jener Dinge, die jenseits seines engen persönlichen Erfahrungsraumes liegen. Er könnte kaum vom Wissen und vom Erfahrungsschatz anderer profitieren. Ja, er wüsste nicht mal, ob und in welcher Weise das Weltbild, das sein Gegenüber sich zurechtlegt, sich von dem seinigen unterscheidet. ..."
  12. Bell, G.; Gemmell, J.: Erinnerung total (2007) 0.10
    0.09752924 = product of:
      0.19505848 = sum of:
        0.05545457 = weight(_text_:und in 1300) [ClassicSimilarity], result of:
          0.05545457 = score(doc=1300,freq=60.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.40265095 = fieldWeight in 1300, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1300)
        0.13960391 = weight(_text_:herrn in 1300) [ClassicSimilarity], result of:
          0.13960391 = score(doc=1300,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.27297854 = fieldWeight in 1300, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1300)
      0.5 = coord(2/4)
    
    Abstract
    Dank neuester Technik werden die Menschen alles aufzeichnen können, was sie sehen, hören, sagen und schreiben. All diese Daten sind in einem persönlichen digitalen Archiv verfügbar. In Kürze - Weil das menschliche Gedächtnis fehlbar ist, arbeiten Forscher an einem System, das persönliche Kommunikation, Dokumente, Bilder und Videos automatisch aufzeichnet und alles in einem durchsuchbaren Archiv bereithält. - Aufzeichnen und Abspeichern werden durch den rasanten Fortschritt in Sensor- und Speichertechnologie immer einfacher und billiger. Das größere Problem ist die Entwicklung von Software, die diese Daten organisiert und auffindbar macht. - Digitale Gedächtnisse werden große Vorteile in der medizinischen Versorgung, der Arbeitsproduktivität und anderen Bereichen mit sich bringen, aber die Entwickler müssen dafür Sorge tragen, dass die Archive sicher sind.
    Content
    "Unser Gedächtnis ist oft nervtötend unzuverlässig. Wir stoßen jeden Tag an seine Grenzen, wenn uns die Telefonnummer eines Freundes, der Name eines Geschäftspartners oder der Titel eines Lieblingsbuchs nicht einfallen will. Wir alle haben Strategien gegen die Folgen unserer Vergesslichkeit entwickelt, vom guten alten Schmierzettel bis zum elektronischen Terminplaner, und trotzdem gehen uns immer wieder wichtige Informationen durch die Lappen. Seit einiger Zeit arbeiten wir in einer Gruppe bei Microsoft Research an einem Pilotprojekt, das der Unvollkommenheit unseres Gedächtnisses radikal abhelfen soll: der totalen digitalen Aufzeichnung eines Menschenlebens. Unsere erste Versuchsperson ist einer von uns: Gordon Bell. Seit sechs Jahren unternehmen wir es, seine Kommunikation mit anderen Menschen sowie all seine Interaktion mit Maschinen aufzuzeichnen, außerdem alles, was er sieht und hört, sowie alle Internetseiten, die er aufsucht, und dies alles in einem persönlichen digitalen Archiv abzuspeichern, das einerseits leicht zu durchsuchen und andererseits sicher ist. Die Aufzeichnung beschränkt sich nicht auf bewusst Erlebtes. Tragbare Sensoren messen Dinge, die der Mensch überhaupt nicht wahrnimmt, wie etwa den Sauerstoffgehalt im Blut oder die CO, -Konzentration in der Atemluft. Ein Computer kann dann diese Daten auf gewisse Muster hin durchsuchen; so wäre zum Beispiel festzustellen, unter welchen Umweltbedingungen sich Asthma bei einem Kind verschlimmert oder ob die Daten des Herzschlags zusammen mit anderen physiologischen Größen Vorboten eines Herzanfalls sind. In Gestalt dieser Sensoren läuft also ein permanentes medizinisches Früherkennungsprogramm. Ihr Arzt hätte Zugang zu Ihrer detaillierten und ständig aktuellen Krankenakte, und wenn Sie, wie üblich, auf die Frage »Wann ist dieses Symptom zum ersten Mal aufgetreten?« keine klare Antwort haben - im digitalen Archiv ist sie zu finden.
    In unserem Forschungsprojekt »MyLifeBits« haben wir einige Hilfsmittel für ein solches lebenslanges digitales Archiv ausgearbeitet. Es gelingt uns inzwischen, ein Ereignis so lebensecht in Ton und Bild wiederzugeben, dass dies der persönliche Erinnerung so aufhilft wie das Internet der wissenschaftlichen Recherche. Zu jedem Wort, das der Besitzer des Archivs irgendwann - in einer E-Mail, in einem elektronischen Dokument oder auf einer Internetseite - gelesen hat, findet er mit ein paar Tastendrücken den Kontext. Der Computer führt eine Statistik über die Beschäftigungen seines Besitzers und macht ihn beizeiten darauf aufmerksam, dass er sich für die wichtigen Dinge des Lebens nicht genügend Zeit nimmt. Er kann auch die räumliche Position seines Herrn in regelmäßigen Zeitabständen festhalten und damit ein komplettes Bewegungsbild erstellen. Aber vielleicht das Wichtigste: Das Leben eines Menschen wird der Nachwelt, insbesondere seinen Kindern und Enkeln, so genau, so lebhaft und mit allen Einzelheiten überliefert, wie es bisher den Reichen und Berühmten vorbehalten war.
    Ein Netz von Pfaden Ein früher Traum von einem maschinell erweiterten Gedächtnis wurde gegen Ende des Zweiten Weltkriegs von Vannevar Bush geäußert. Bush, damals Direktor des Office of Scientific Research and Development (OSRD), das die militärischen Forschungsprogramme der USA koordinierte, und besser bekannt als Erfinder des Analogrechners, stellte 1945 in seinem Aufsatz »As we may think« eine fiktive Maschine namens Memex (Memory Extender, »Gedächtnis-Erweiterer«) vor, die alle Bücher, alle Aufzeichnungen und die gesamte Kommunikation eines Menschen auf Mikrofilm speichern sollte. Das Memex sollte in einem Schreibtisch eingebaut sein und über eine Tastatur, ein Mikrofon und mehrere Bildschirme verfügen. Bush hatte vorgesehen, dass der Benutzer am Schreibtisch mit einer Kamera Fotografien und Dokumente auf Mikrofilm ablichtete oder neue Dokumente erstellte, indem er auf einen berührungsempfindlichen Bildschirm schrieb. Unterwegs sollte eine per Stirnband am Kopf befestigte Kamera das Aufzeichnen übernehmen. Vor allem aber sollte das Memex ähnlich dem menschlichen Gehirn zu assoziativem Denken fähig sein. Bush beschreibt das sehr plastisch: »Kaum hat es einen Begriff erfasst, schon springt es zum nächsten, geleitet von Gedankenassoziationen und entlang einem komplexen Netz von Pfaden, das sich durch die Gehirnzellen zieht.« Im Lauf des folgenden halben Jahrhunderts entwickelten unerschrockene Informatikpioniere, unter ihnen Ted Nelson und Douglas Engelbart, einige dieser Ideen, und die Erfinder des World Wide Web setzten Bushs »Netz von Pfaden« in die Netzstruktur ihrer verlinkten Seiten um. Das Memex selbst blieb jedoch technisch außer Reichweite. Erst in den letzten Jahren haben die rasanten Fortschritte in Speichertechnik, Sensorik und Rechentechnologie den Weg für neue Aufzeichnungs- und Suchtechniken geebnet, die im Endeffekt weit über Bushs Vision hinausgehen könnten."
  13. Ovid announces strategic partnerships : Java-based interface (1997) 0.10
    0.09638023 = product of:
      0.3855209 = sum of:
        0.3855209 = weight(_text_:java in 397) [ClassicSimilarity], result of:
          0.3855209 = score(doc=397,freq=4.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.8809384 = fieldWeight in 397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=397)
      0.25 = coord(1/4)
    
    Abstract
    Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
  14. Schmeh, K.: ¬Die WeIt der geheimen Zeichen : die faszinierende Geschichte der Verschlüsselung (2004) 0.10
    0.09625381 = product of:
      0.19250762 = sum of:
        0.027982842 = weight(_text_:und in 2445) [ClassicSimilarity], result of:
          0.027982842 = score(doc=2445,freq=22.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.20318104 = fieldWeight in 2445, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2445)
        0.16452478 = weight(_text_:herrn in 2445) [ClassicSimilarity], result of:
          0.16452478 = score(doc=2445,freq=4.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.3217083 = fieldWeight in 2445, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2445)
      0.5 = coord(2/4)
    
    Abstract
    Herrn Klaus Schmeh ist es nun mit diesem Buch in hervorragender Weise geglückt, die interessantesten Aspekte der Kryptologie in ebenso verständlicher wie fesselnder Weise darzustellen. In den ersten beiden Teilen des Buches wird ein Bogen gespannt, der von der Verschlüsselung im amerikanischen Bürgerkrieg bis hin zum Codebrechen im Kalten Krieg reicht. Natürlich darf eine spannende Behandlung des Brechens der berühmten Enigma nicht fehlen. Auch weniger bekannte Begebenheiten, wie die Erfolge der deutschen Codebrecher im Zweiten Weltkrieg oder Kryptologie in der DDR, werden in interessanter Weise dargestellt. Im nächsten Teil des Buches gelingt Herrn Schmeh das Meisterstück, die überaus spannende Geschichte der modernen Datensicherheit seit den siebziger Jahren bildhaft und sehr interessant ohne theoretische Überlast darzustellen. Die Themen sind hier ebenso vielfältig wie die Bedeutung der Verschlüsselung in unserem täglichen Leben geworden ist: Von der Entstehungsgeschichte der bekanntesten Verschlüsselungssoftware PGP über das deutsche Signaturgesetz bis hin zur Quantenkryptographie, die schon in einigen Jahren einsatzbereit sein kann, werden hier zahlreiche Themen in fesselnder Weise aufbereitet. Besonders gefällt mir, dass neben der historischen Bedeutung von (oft zu schwachen) Codes auch der technische Hintergrund ohne mathematischen Ballast beschrieben wird. Alles in allem ein Buch, welches einen nicht mehr loslässt und das ich vom Laien bis zum Datensicherheitsexperten jedem empfehlen kann!
    Footnote
    Rez. in Spektrum der Wissenschaft 2005, H.3, S.104-106 (J. Müller-Quade) "Schon nach 30 Seiten kann kein Leser mehr ernsthaft an der Wichtigkeit der Kryptografie zweifeln. Geheimschriften waren schon im 19. Jahrhundert kriegsentscheidend, und das Entschlüsseln geheimer Botschaften hat sogar geholfen, ein Rätsel der Geschichtswissenschaften zu lösen. Das Buch gliedert 3500 Jahre Kryptografiegeschichte in drei Epochen. Deren erste, die Zeit der Verschlüsselung von Hand, überspannt den längsten Zeitraum, von der Antike bis zum Ersten Weltkrieg, nimmt aber in dem Buch den geringsten Platz ein, denn außer ein paar spannenden Geschichten gibt es zum Fortschritt der Kryptografie aus dieser Zeit nicht viel zu berichten. In der zweiten Epoche, dem Zeitalter der Verschlüsselungsmaschinen, überschlagen sich dagegen die Ereignisse. Eine Hauptrolle spielt dabei die legendäre deutsche Chiffriermaschine »Enigma«, die im Zweiten Weltkrieg von den Briten entschlüsselt wurde. Nach allgemein akzeptierter Meinung haben die Deutschen an der Sicherheit der Enigma nie gezweifelt, weswegen dreißig Jahre später die Nachricht von der Entschlüsselung sie wie ein Schock traf (Spektrum der Wissenschaft 6/1999, S. 26). Umso eindrucksvoller ist der Abschnitt »Hitlers letzte Maschinen« in Schmehs Buch, demzufolge diese Meinung in ihrer Allgemeinheit wahrscheinlich falsch ist. Die Epoche der Verschlüsselungsmaschinen zieht sich mit einigen spannenden Episoden bis in den Kalten Krieg hinein. Die dritte Epoche ist die der Verschlüsselung mit dem Computer und einer ihrer Höhepunkte die Lösung des Schlüsselaustauschproblems, etwa durch die scheinbar paradoxe Kryptografie mit veröffentlichtem Schlüssel (public key cryptography). Das Public-Key-Verfahren RSA dient als Beispiel für eine Funktion, deren Umkehrung nur mit einer »Falltür« (einer geheimen Zusatzinformation) möglich ist. Allerdings wird es in dieser Rohform heute nicht mehr angewandt. Vielmehr werden Nachrichten geschickt mit Zufallsdaten aufgefüllt, damit nicht gleiche Klartexte deterministisch immer auf denselben Chiffretext abgebildet werden. Selbst wenn der Angreifer schon einmal ein verschlüsseltes »ja« am Anfang eines Textes gesehen hat, kann er dasselbe Wort an derselben Stelle nicht wiedererkennen. Eine kleine Unstimmigkeit bei dem Zahlenbeispiel in der Box stört die Erklärung nicht. In einigen Kapiteln geht das Buch auch über das eigentliche Thema Verschlüsselungsverfahren hinaus. So ist die digitale Unterschrift eine völlig neue Anwendung der altehrwürdigen Kryptografie. Schmeh bringt an dieser Stelle nicht nur die technischen Aspekte, sondern auch die interessanten rechtlichen und politischen Konsequenzen der digitalen Signatur. Beim gesellschaftlichen Aspekt der Kryptografie bespricht das Buch so aktuelle Ereignisse, dass die geschichtliche Darstellung in den Hintergrund tritt.
    Das Buch beeindruckt durch eine große Vielfalt von Themen. So wird auch das Problem angesprochen, dass ein eigentlich sicheres Verfahren dadurch gefährdet sein kann, dass dem Angreifer Seitenkanäle der Information, wie etwa der Stromverbrauch einer Chipkarte, zur Verfügung stehen. Potenzielle Bedrohungen gegenwärtiger Verschlüsselungsverfahren sind der DNA-Computer und der Quantencomputer. Aber man hat die Aussicht, den Teufel mit dem Beelzebub auszutreiben, nämlich den Quantencomputer mit der Quantenkryptografie. Nicht ausdrücklich in dem Buch angesprochen ist das Problem der Authentifikation von Nachrichten. Der Empfänger einer Nachricht muss sich vergewissern, dass ihr Sender der ist, der er zu sein vorgibt. Sonst könnte sich ein Obeltäter bereits beim Schlüsselaustausch unbemerkt zwischen die beiden Parteien drängen und von da an jede Kommunikation unter ihnen unentdeckt verfälschen. Dagegen hilft auch das einzige nachweislich unknackbare Verschlüsselungsverfahren, der One-Time-Pad, nicht, da ein Angreifer gezielt »Bits kippen« und so die Nachricht, ohne sie zu entschlüsseln, verfälschen kann. Da selbst Fachbücher kaum auf dieses Problem hinweisen, wurde der One-Time-Pad bereits - nutzlos - in kommerzielle quantenkryptografische Programme eingebaut. Die in dem Buch besprochenen digitalen Signaturen können solche Probleme lösen, solange man nicht auf nachweislicher Unknackbarkeit besteht. Schmeh widmet sich auch den so genannten Hash-Funktionen, die aus einer großen Datei eine kurze Kennnummer errechnen und damit etwa Signaturverfahren beschleunigen können, da es genügt, diese Kennnummer zu signieren.
    Besonders interessant ist dabei die potenzielle Unsicherheit der Hash-Funktion MD5, die aus den Arbeiten des Bochumer Kryptologen Hans Dobbertin folgt, denn kurz nach Erscheinen des Buches wurde MD5 tatsächlich gebrochen. Das Buch bietet nicht nur spannende Geschichten, sondern hat auch einen didaktischen Anspruch. Wichtige Begriffe werden am Ende eines Kapitels noch einmal kurz dargestellt, Randnotizen erlauben dem flüchtigen Leser einen raschen Wiedereinstieg. Ein Anhang bietet weitere Anregungen und zeigt einige noch ungelöste Fragen der Kryptografiegeschichte. Die schönsten der zahlreichen Bilder sind am Ende noch einmal in Farbe wiedergegeben. Das Werk sei also auch vorinformierten Lesern wärmstens empfohlen. Wer vorab eine Leseprobe genießen möchte, findet sie unter http://wwwheise.de/tp/deutsch/inhalt/buch/17995/1.html und unter http://www.heise.de/tp/deutsch/ inhalt/co/ 18371 / 1.html einen Artikel über einen Zeitzeugen des deutschen Dechiffrierwesens im Zweiten Weltkrieg, der sich auf Grund des Buchs beim Autor gemeldet hat."
  15. Knapp, U.: Verboten, aber nicht strafbar : Verfassungsgericht erläutert Recht auf private CD-Kopien (2005) 0.10
    0.095902294 = product of:
      0.19180459 = sum of:
        0.028933374 = weight(_text_:und in 5001) [ClassicSimilarity], result of:
          0.028933374 = score(doc=5001,freq=12.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.21008278 = fieldWeight in 5001, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5001)
        0.16287121 = weight(_text_:herrn in 5001) [ClassicSimilarity], result of:
          0.16287121 = score(doc=5001,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.31847495 = fieldWeight in 5001, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5001)
      0.5 = coord(2/4)
    
    Content
    "Vermutlich sind es Millionen Menschen, die täglich Verbotenes tun - die den Kopierschutz einer gekauften CD oder DVD überlisten, um eine Kopie für private Zwecke anzufertigen. Das Problem hat nun das oberste Gericht in Deutschland erreicht, das Bundesverfassungsgericht in Karlsruhe: In einem interessanten Urteil verdeutlicht es die Rechtslage: Die weit verbreitete Praxis ist zwar verboten, aber nicht strafbar. Anlass für die Kammerentscheidung - die das Gericht übrigens nicht wie sonst als Pressemitteilung veröffentlichte, sondern nur auf Anfrage herausgab - war eine Verfassungsbeschwerde von Herrn P. Er stellte dar, er kaufe durchschnittlich 25 CD und etwa 20 DVD im Jahr. Bis zum Inkrafttreten des geänderten Urheberrechts habe er davon regelmäßig digitale Kopie angefertigt. Zur Sicherheit, sagt er, damit Musik und Filme bei Beschädigungen nichtverloren seien. Nach dem aktuellen Urheberrecht vom September 2003 darf er das zwar weiter; Kopien zum privaten Gebrauch bleiben erlaubt. Aber er darf einen vorhandenen Kopierschutz nicht entfernen - auch nicht zur Herstellung eines Duplikats zum Privatgebrauch. Damit ist das, was eigentlich erlaubt ist, faktisch doch verboten. Denn, so Herr P., 80 Prozent der Datenträger seien mit einem Schutzmechanismus ausgestattet. Dass er folglich von den meisten seiner gekauften CD und DVD keine Privatkopie mehr anfertigen könne, verstoße gegen sein Eigentumsrecht. Das Verbot der Kopierschutzentfernung sei folglich in jenen Fällen verfassungswidrig, in denen es um rein private Kopien gehe: übrigens tat der deutsche Gesetzgeber mehr als die europäische Richtlinie verlangte. Brüssel sah vor, dass die Entfernung des Kopierschutzes zur Herstellung rein privater Abzüge gestattet werden kann. Der deutsche Gesetzgeber verbot aber auch das.
    Der Fall landete beim Ersten Senat und führte zu einem einstimmigen Kammerbeschluss: Die Verfassungbeschwerde wurde zwar nicht zur Entscheidung angenommen, aber Herr P. kann mit dem Ergebnis dennoch zufrieden sein. Die drei zuständigen Verfassungsrichter stellen in ihrem Beschluss vom Juli nämlich fest, dass die Entfern des Kopierschutzes im Privatbereich zwar rechtswidrig sei. Das Gesetz sehe aber keine Strafandrohung vor, wenn man es zur allein privaten Nutzung dennoch tut. Das heißt, wer den Kopierschutz entfernt, um Kopien kommerziell zu vertreiben, kann angezeigt und strafrechtlich verfolgt werden. Wer den Kopierschutz entfernt, um allein für sich oder einige Freunde eine Kopie zu erstellen, kann strafrechtlich nicht verfolgt werden. Hier wäre, sagen die Bundesverfassungsrichter, nur eine zivilrechtliche Verfolgung möglich. Das heißt im Klartext, die Herstellerfirm könnte die Privatkopierer wegen Entfernung des Schutzes auf Unterlassung, eventuell auf Schadenersatz verklagen. Das ist nach den bisherigen Erfahrungen allerdings nur Theorie, sagen die Karlsruher Richter in ihrem Beschluss: "soweit ersichtlich wurden in Deutschland derartige Verfahren bei Privatkopien bislang nicht angestrengt." Wenn Herr P. nun jemals eine Zivilklage wegen rechtswidrigen Entfernens des Kopierschutzes erreichen sollte, müsse er sich zunächst vor den Fachgerichten dagegen wehren. Erst wenn der Rechtsweg erschöpft sei und er seinen Prozess verlieren sollte, könnte er sich wiede an das Bundesverfassungsgericht wenden. Warum das Bundesverfassungsgericht die Kammerentscheidung nicht der Presse bekannt gab, ist ungeklärt. Vielleicht schien dem Gericht der Fall zu unspektakulär. Denkbar wäre aber auch eine ganz andere Erklärung: Die Karlsruher Richter wollten möglicherweise nicht dazu beitragen, dass sich die Millionen Privatkopierer, in Sicherheit wiegen.
  16. Neuböck, I.: Bericht vom Deutschen Bibliothekartag aus Sicht der Katalogisierung (2005) 0.09
    0.09354618 = product of:
      0.18709236 = sum of:
        0.047488455 = weight(_text_:und in 4777) [ClassicSimilarity], result of:
          0.047488455 = score(doc=4777,freq=44.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.34480965 = fieldWeight in 4777, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4777)
        0.13960391 = weight(_text_:herrn in 4777) [ClassicSimilarity], result of:
          0.13960391 = score(doc=4777,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.27297854 = fieldWeight in 4777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4777)
      0.5 = coord(2/4)
    
    Content
    ... "Gleich zu Beginn gibt es einen amerikanischen Beitrag von Jeff Garrett (Illinois), der uns erzählt, dass Kataloge in Zukunft ohnedies überflüssig würden. Google würde zukünftig unsere Arbeit übernehmen, und zwar wesentlich effizienter, viel komfortabler und mit Volltextrecherche. Er stellt die provokante Frage, ob Kataloge nur noch ein Notbehelf zum Auffinden von Büchern seien, der bald überwunden sei. Es gäbe bereits Untersuchungen, die darlegen, dass eine Volltextrecherche zu einer höheren Nutzung eines Werkes führe als eine Katalogrecherche. Im Anschluss daran berichtet Patrick LeBoeuf (Bibliotheque Nationale de France) über das FRBR (Funktional Requirements for Bibliographic Records)-Modell und einige FRBR-Anwendungen. Er stellt die FRBR-Entitäten anhand von 3 Gruppen dar: 1. Ein Wort kann viele Bedeutungen haben (z.B. Buch = Item, Manifestation, Expression, Work) 2. Wer ist verantwortlich? (Verfasser, Urheber) 3. Wovon ist in diesem Werk die Rede Alle Entitäten der ersten beiden Gruppen gehören auch zur 3. Gruppe. Generell übt das FRBR-Modell einen Einfluss auf die Normierung auf internationaler Ebene aus. Es gibt auch Pläne für die Entwicklung eines internationalen Katalogisierungswerkes. Die FRBR-Entitäten sind in den Frankfurter Katalogisierungsprinzipien festgehalten und auch bei der Entwicklung der AACR3 soll auf diese Rücksicht genommen werden. Diese Aussagen können als erster Schritt in diese Richtung gesehen werden. Im Anschluss daran berichtet LeBoeuf über einige Anwendungen des FRBR-Modells. Die erste Anwendung geschah in AustLitGateway, eine Art Online-Enzyklopädie. Die zweite Anwendung war Virtua. In Virtua kann man MARC Datensätze in FRBR-Entitäten aus der ersten Gruppe aufspalten, z.B., kann man auf diese Weise einen Werk-Datensatz auswählen und erhält alle Versionen, die es zu diesem Werk gibt. Bei den einzelnen Ausgaben gibt es jeweils Kurzbeschreibungen und Hinweise auf den Standort dieser Ausgabe. Ein höchst interessantes Projekt in diesem Zusammenhang ist das xisbn-Projekt des WoldCat von OCLC. Auch hier wurde das FRBR-Modell eingesetzt mit dem Ziel, bei einer ISBN-Suche alle Ausgaben eines Werkes angezeigt zu bekommen. Derzeit ist das FRBR-Modell nur in Projekten im Einsatz, sollte in Zukunft u.a. die Möglichkeit bieten eine einzelne Recherche gleichzeitig in Bibliotheken und Museen durchzuführen.
    Endlich berichten Frau Dr. Elisabeth Niggerman (DDB) (!!!) und Reiner Diedrichs (GBV) über die Auswirkungen der DFG-Studie. Eine schrittweise Internationalisierung der deutschen Regeln wird mehrheitlich gewünscht. Diese Meinung wird als Alternative vom Standardisierungsausschuss akzeptiert. Es liegen nun Vorschläge der AG-Verbund vor nämlich: - MARC21 ist obligatorisch für Verbundsysteme als Austauschformat - Verbesserungvon Datenaustausch und Fremddatennutzung - Flache Hierarchien und vollständige Information im Datensatz - Obligatorische Verwendung internationaler Codierungen - Intensive Normdatenverwendung - Einheitliche Datenstruktur und einheitliche Formatanwendung Dazu sind folgende Rahmenbedingungen notwendig: - Das Regelwerk soll die Ziele der AG-Verbund effektiv unterstützen - Keine den AACR widersprechenden Regeln - Keine Kann-Beistimmungen für strukturelle Aspekte im Regelwerk - Obligatorische Individualisierung Folgende Punkte wurden vom Standardisierungsausschuss beschlossen: - MARC21 - Deutsch als Ansetzungs- und Arbeitssprache - Vereinheitlichung und Integration der Sonderregeln in einem Werk - Übereinstimmung der Entitäten bei Titel, Personen- und Körperschaftsnamen durch Einführung international üblicher Regeln (im Hinblick auf internationale Normdaten) - Anpassung der Splitregeln bei fortlaufenden Sammelwerken (ein diesbezüglicher Entwurf wurde von der ZDB bereits ausgearbeitet) - Aktive Teilnahme am Geneseprozess der AACR3 - Gemeinsame Normdaten - gemeinsame Ansetzung von Personen bei PND und SWD - Untersuchung zur Bedeutung von Ansetzungs- und Einheitssachtitel "Uniform Title" - Insgesamt sollte eine Bewegung in Richtung - Internationalisierung - Austauschbarkeit von Daten - Kostenreduktion - Konsequente Zielverfolgung und straffe Zeitpläne Die Diskussion zu diesen Vorträgen war kaum erwähnenswert. Als Rahmenfür die Umsetzung von MARC21 und einem angepassten Regelwerk wurden nach wie vor 10 Jahre genannt. In persönlichen Gesprächen wird klar, dass mittlerweile der Umstieg auf MARC21 nicht mehr so gravierend gesehen wird, da die meisten Systeme ein Internformat verwenden und nur die Auslieferung der Daten anstelle von MAB2 und eben in MARC21 erfolgen muss. Beim Regelwerk selbst herrscht eine sehr uneinheitliche Meinung. Manche sind der Meinung, dass im Grunde doch die AACR3 kommen wird, andere sind fest davon überzeugt, dass das deutsche Regelwerk bestehen bleiben wird. Die Änderungsvorschläge der ZDB für die neuen Splitregeln sind jedenfalls eine Angleichung dieser an die AACR2.
    In der Veranstaltung der Verbundsystem wurde von Herrn Diederichs (GBV) nochmals das derzeitige Regelwerk kritisiert, das eigentlich nur einen elektrifizierten Katalog produziere und die Forderung einer Internationalisierung des Regelwerkes ohne Kann-Beistimmungen, Hausregeln oder eigenen Sonderregeln, sowie der Entwicklung eines Qualitätsstandards aufgestellt. Seine Forderungen beziehen die Sacherschließung mit ein. Er fordert Konkordanzen für die Sacherschließung von Altdaten bzw. hauseigener Sacherschließung mit der DDC der Verbundzentrale. Neue Recherchetools wie die neue Suchmaschine des HBZ geben ihm diesbezüglich Recht (Infos dazu: http://suchen.hbz-nrw.de HBZ-Suchmaschine)."
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.2, S.82-85
  17. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.09340623 = product of:
      0.18681246 = sum of:
        0.13630222 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.13630222 = score(doc=2121,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.05051024 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.05051024 = score(doc=2121,freq=28.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  18. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.09340623 = product of:
      0.18681246 = sum of:
        0.13630222 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.13630222 = score(doc=346,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.05051024 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.05051024 = score(doc=346,freq=28.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  19. Buhr, E.: Sommerreise : Nida-Rümelins Kanon (2002) 0.09
    0.09186795 = product of:
      0.1837359 = sum of:
        0.044131987 = weight(_text_:und in 1868) [ClassicSimilarity], result of:
          0.044131987 = score(doc=1868,freq=38.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.32043862 = fieldWeight in 1868, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1868)
        0.13960391 = weight(_text_:herrn in 1868) [ClassicSimilarity], result of:
          0.13960391 = score(doc=1868,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.27297854 = fieldWeight in 1868, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1868)
      0.5 = coord(2/4)
    
    Content
    ""Don't know much about history / don't know much biology / don't know much about a science book / don't know much about the French I took" (Sam Cook, Wonderful World). - Die Beschulung der Jugend ist eine komplizierte Sache, das war schon lange vor dem Pisa-Debakel bekannt. Man kann sich leicht darauf einigen, dass eine Mehrheit der Bevölkerung lesen und schreiben lernen sollte-was ja, glaubt man den Verkündern der Bildungs-Apokalypse, keine Selbstverständlichkeit mehr zu sein scheint. Die Lernziele, die darüber hinausgehen, sind allerdings schwieriger zu klären. Der Streit ist im Kern die gute alte Kanon-Debatte: Was ist kulturell wertvoll, von praktischem Nutzen, zu überlieferndes Bildungsgut? Diese Fragen werden von den Vertretern der verschiedenen Generationen traditionsgemäß sehr unterschiedlich beantwortet. Während Großväter gern darauf verweisen, dass sie früher in der Schule unendliche Mengen von deutschen Balladen auswendig zu lernen hatten und auf Familienfesten regelmäßig und ungefragt ins Deklamieren von Schillers Glocke und anderen Hits verfallen, kontern die Enkel alle kulturpessimistischen Verfallserzählungen mit der enzyklopädischen Kenntnis von Pokemon-Figuren, Star Wars-Mythologie oder Chartkonstellationen. Aus Enkelperspektive muss man nur den Kanon in Richtung Weltwissen des Computerzeitalters verschieben, um einzusehen: Auch die Jugend hat einiges im Kopf. Die Konnotationen der verschiedenen Konzepte sind dabei klar: Goethe passt zu Großvater passt zu konservativ und überholt, die curriculäre Adelung von Popkultur verheißt dagegen den Anschein von Jugend, Frische, Modernität. Womit auch die Motivation für die kleine Sommerreise im Zeichen von Jugend und Bildung genannt wäre, die unser Kulturstaatsminister Julian Nida-Rümelin in dieser Woche unternommen hat. Es begann in Gronau, der münsterländischen Heimatstadt von Udo Lindenberg. Dort entsteht zur Zeit das erste Rock- und Popmuseum auf deutschem Boden. Grundstock der Sammlung sind umfangreiche Schenkungen von Herrn Lindenberg; in dieser Woche hat das Museum außerdem eine Original GI-Jacke von Elvis Presley aus den Händen eines Gelsenkirchener Fan-Clubs sowie die Totenmaske von Rio Reiser aus den Händen von Rios Bruder entgegennehmen dürfen. Offensichtlich nicht abgeschreckt von so viel Nekrophilie, fand sich auch Nida-Rümelin an der Popmuseumsbaustelle ein und bedauerte, dass die Rock- und Popmusik in Deutschland jahrzehntelang als unliebsamer Importartikel wie Comics und Kaugummi verpönt gewesen sei. Es gelte, Versäumtes nachzuholen. Seine Idee dazu: Das MusikInteresse junger Menschen solle künftig auch an Schulen stärker über die Popmusik gefördert werden. Die meisten Jugendlichen seien nicht primär über die Klassik für die Musikkultur zu gewinnen. Natürlich: Wo man die Bestände eines mit dem vielsagenden Attribut Altrocker versehen Musikers neben Devotionalien verstorbenener Helden auszustellen gedenkt, da mag auch die Idee einleuchten, Pop in der Schule zu lehren. Aus der Sicht des Pop ist das völlig ungefährlich. Vielleicht ist Schiller in deutschen Klassenzimmern getötet worden; Udo Lindenbergs Musik aber ist sowieso schon lange tot, auch ohne Museum.
    Und dank des schneckenartigen Tempos, in dem normalerweise Inhalte ihren Weg von der wirklichen Welt in die Lehrpläne finden, wird in den Schulen kein einziges Popstück durch öffentliches Vorführen an falschem Ort seine Aura verlieren, das irgendeinem Schüler noch etwas bedeutet. Sollen Sie doch die Akkordstruktur von Nirvanas Come as you are im Musikunterricht studieren und dazu Kurt Cobains demnächst erschienen Tagebücher lesen - das hätte immer noch den angemessenen Abstand vom wirklichen Leben der jetzigen Schülergeneration, der lebensnotwendig ist, um Schule ertragen zu können, und ergäbe zudem eine nette Lehreinheit mit Goethes Werther. Nachdem Nida-Rümelin so den Pop in die Schulen hineingelobt hatte, war er offensichtlich so in Schwung, dass er es gleich mit dem nächsten Produkt der Kulturindustrie versuchte: Bei der Vorstellung der saarländischen Schulfilmwoche "Lernort Kino" verkündetete er, für die ästhetische Erziehung von Jugendlichen seien Kinofilme ebenso bedeutsam wie Popmusik. Er äußerte sich besorgt, dass der Durchschnittsdeutsche nur 1,9 Mal pro Jahr ins Kino gehe. Film müsse daher als Medium der Kunst und Unterhaltung von der Bildungslandschaft angenommen werden. Im Saarland geht man mit nun mit gutem Beispiel voran und schulklassenweise zum Preis von 2,50 Euro in ausgewählte Spielfilme, darunter Literaturverfilmungen, Filmklassiker und aktuelle "themenbezogene" Filme, die möglichst zur politischen Bildung beitragen. Auch der Film wird es überleben, wenn er zum subventionierten Gegenstand didaktischer Bemühungen wird. Und diejenigen, die mittels des Filmprogramms ästhetisch erzogen werden sollen, werden als ersten Lernerfolg wahrscheinlich mitnehmen, dass es auch in den vermeintlichen Unterhaltungsmedien Pop und Film eine Unterscheidung zwischen E und U gibt: Auf der einen Seite das Privatvergnügen, auf der anderen Seite der kanonisierte Stoff. Nichts gegen Kanon, nichts gegen Pop in der Schule. Aber Charterfolge funktionieren anders - auch im Wahlkampf."
  20. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.09153281 = product of:
      0.18306562 = sum of:
        0.13630222 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.13630222 = score(doc=6889,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.046763398 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.046763398 = score(doc=6889,freq=24.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt

Authors

Languages

Types

  • a 9352
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications