Search (131 results, page 1 of 7)

  • × theme_ss:"Datenformate"
  1. Loviscach, J.: Formen mit Normen (2000) 0.37
    0.3731912 = product of:
      0.49758828 = sum of:
        0.297324 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.297324 = score(doc=6100,freq=2.0), product of:
            0.47730878 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06772732 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.041644484 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.041644484 = score(doc=6100,freq=4.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.15861979 = weight(_text_:html in 6100) [ClassicSimilarity], result of:
          0.15861979 = score(doc=6100,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.45498204 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.75 = coord(3/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    HTML
    Java
  2. Burd, B.: Java und XML für Dummies (2003) 0.37
    0.3676175 = product of:
      0.735235 = sum of:
        0.668979 = weight(_text_:java in 2694) [ClassicSimilarity], result of:
          0.668979 = score(doc=2694,freq=18.0), product of:
            0.47730878 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06772732 = queryNorm
            1.4015644 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
        0.06625596 = weight(_text_:und in 2694) [ClassicSimilarity], result of:
          0.06625596 = score(doc=2694,freq=18.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.44108194 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
      0.5 = coord(2/4)
    
    Abstract
    Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
    Object
    Java
  3. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.24
    0.23763171 = product of:
      0.3168423 = sum of:
        0.18582751 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.18582751 = score(doc=617,freq=2.0), product of:
            0.47730878 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06772732 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.031877417 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.031877417 = score(doc=617,freq=6.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.09913737 = weight(_text_:html in 617) [ClassicSimilarity], result of:
          0.09913737 = score(doc=617,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.28436378 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.75 = coord(3/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  4. Palme, J.: HTML / XML / SGML : Gemeinsamkeiten und Unterschiede (1998) 0.13
    0.13224272 = product of:
      0.26448545 = sum of:
        0.05843227 = weight(_text_:und in 620) [ClassicSimilarity], result of:
          0.05843227 = score(doc=620,freq=14.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.38899773 = fieldWeight in 620, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=620)
        0.20605318 = weight(_text_:html in 620) [ClassicSimilarity], result of:
          0.20605318 = score(doc=620,freq=6.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.59103906 = fieldWeight in 620, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.046875 = fieldNorm(doc=620)
      0.5 = coord(2/4)
    
    Abstract
    Ausgehend von den Begriffen Dokumentation und Publikation werden die Probleme bei der Erfassung, Speicherung, Bereitstellung und langfristigen Archivierung von elektronischen Dokumenten mit komplexen Inhalten thematisiert. Der ISO-Standard 8879 (Standard Generalized Markup Language - SGML) stellt ein Konzept für die rStrukturierung von Wissen, das in elektronischen Dokumenten verschiedenster Art enthalten ist, zur Verfügung. Da SGML ein internationaler Standard ist und auf dem Prinzip der Hard- und Softwareunabhängigkeit basiert, kann SGML für Verwaltung und Pflege von komplexen Lebenszeitendokumenten eingesetzt werden. Die am Inhalt orientierte Strukturierung der Dokumente läßt sich darüber hinaus für ein qualitätvolles Retrieval nutzen. In Abgrenzung zu SGML werden die von dieser Norm abgeleiteten Konzepte von XML (Extensible Markup Language) und HTML (HyperText Markup Language) vorgestellt.
    Object
    HTML
  5. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.11
    0.112651944 = product of:
      0.45060778 = sum of:
        0.45060778 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.45060778 = score(doc=6896,freq=6.0), product of:
            0.47730878 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06772732 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  6. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.11
    0.111318186 = product of:
      0.22263637 = sum of:
        0.18582751 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.18582751 = score(doc=729,freq=2.0), product of:
            0.47730878 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06772732 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.03680887 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.03680887 = score(doc=729,freq=8.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  7. Oeltjen, W.: Dokumentenstrukturen manipulieren und visualisieren : über das Arbeiten mit der logischen Struktur (1998) 0.11
    0.10583508 = product of:
      0.21167016 = sum of:
        0.07287785 = weight(_text_:und in 616) [ClassicSimilarity], result of:
          0.07287785 = score(doc=616,freq=16.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.48516542 = fieldWeight in 616, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=616)
        0.13879232 = weight(_text_:html in 616) [ClassicSimilarity], result of:
          0.13879232 = score(doc=616,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.3981093 = fieldWeight in 616, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=616)
      0.5 = coord(2/4)
    
    Abstract
    Thema dieses Beitrages sind Dokumentenstrukturen und zwar aus zwei Blickrichtungen: aus der Sicht der Autoren, die ein Dokument mit Computerunterstützung erstellen und die Dokumentenstruktur manipulieren und aus der Sicht der Lesenden, die ein Dokument lesen und die Struktur des Dokumentes wahrnehmen. Bei der Dokumentenstruktur wird unterschieden zwischen der logischen Struktur und der grafischen Struktur eines Dokumentes. Diese Trennung ermöglicht das Manipulieren und Visualisieren der logischen Struktur. Welche Bedeutung das für die Autoren und für die Benutzenden des Dokumentes hat, soll in dem Beitrag u.a. am Beispiel der Auszeichnungssprache HTML, der Dokumentenbeschreibungssprache des World-Wide Web, erörtert werden
  8. Schild, M.: Perspektiven für eine integrierte Erschließung : HTML - XML - SGML (1999) 0.10
    0.098141 = product of:
      0.392564 = sum of:
        0.392564 = weight(_text_:html in 2615) [ClassicSimilarity], result of:
          0.392564 = score(doc=2615,freq=4.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            1.1260232 = fieldWeight in 2615, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.109375 = fieldNorm(doc=2615)
      0.25 = coord(1/4)
    
    Object
    HTML
  9. Document markup (1997) 0.08
    0.084120855 = product of:
      0.33648342 = sum of:
        0.33648342 = weight(_text_:html in 182) [ClassicSimilarity], result of:
          0.33648342 = score(doc=182,freq=4.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.9651627 = fieldWeight in 182, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.09375 = fieldNorm(doc=182)
      0.25 = coord(1/4)
    
    Abstract
    Considers the role of the document markup languages: SGML, HTML and the newer and potentially highly significant XML in the field of electronic publishing
    Object
    HTML
  10. Eversberg, B.: Was sind und was sollen bibliothekarische Datenformate (1999) 0.07
    0.07014547 = product of:
      0.14029095 = sum of:
        0.041153565 = weight(_text_:und in 1154) [ClassicSimilarity], result of:
          0.041153565 = score(doc=1154,freq=10.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.27396923 = fieldWeight in 1154, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1154)
        0.09913737 = weight(_text_:html in 1154) [ClassicSimilarity], result of:
          0.09913737 = score(doc=1154,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.28436378 = fieldWeight in 1154, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1154)
      0.5 = coord(2/4)
    
    Abstract
    Vor fünf Jahren erschien die erste zusammenfassende Darstellung über bibliothekarische Datenformate von Bernhard Eversberg. Sie war bereits nach kurzer Zeit vergriffen. Die Überarbeitung dieses Büchleins hat zwar länger gedauert als geplant, führte jedoch zu einem respektablen Handbuch, das nun auch die aktuellen Pica-Formate voll einbezieht. Mit dem Abschnitt "Konkordanz der Formate" wurde ein wichtiges und in seiner Art einmaliges Nachschlagewerk geschaffen, das die Behandlung von mehr als 370 Begriffen in den einzelnen Formaten darstellt.
    Die gedruckte Ausgabe dieses "Reiseführers" für die Welt der bibliothekarischen Datenformate erschien 1994. Seit einigen Jahren ist sie vergriffen und inzwischen natürlich auch teilweise veraltet. Um dem immer wieder artikulierten Bedarf abzuhelfen, zugleich aber die neuen Möglichkeiten des Mediums WWW zu nutzen, bietet diese elektronische Ausgabe
    Die "Konkordanz der Formate" wurde nicht in einen HTML-Text umgewandelt, sondern wird in wesentlich besser nutzbarer Form, als allegro-Datenbank, zum Herunterladen angeboten. Es gibt zwei Formen: eine Windows95-Version mit dem neuen OPAC-Program alcarta und eine DOS-Version mit dem älteren OPAC-Programm APAC. Die Konkordanz ist außerdem auch in neuer Form enthalten in dem oben genannten "neuen Teil". Die Papierausgabe kann aus Gründen der Kosten und des Arbeitsaufwands leider nicht neu aufgelegt werden.
  11. Blake, P.: Taking HTML to the next level : XML allows you to define your own language (1997) 0.07
    0.06868439 = product of:
      0.27473757 = sum of:
        0.27473757 = weight(_text_:html in 1229) [ClassicSimilarity], result of:
          0.27473757 = score(doc=1229,freq=6.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.7880521 = fieldWeight in 1229, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0625 = fieldNorm(doc=1229)
      0.25 = coord(1/4)
    
    Abstract
    Extensible Markup Language (XML) attempts to overcome the limitations of HyperText Markup Language (HTML) by offering the ability to deploy more sophisticated documents anc exchange complex data over the WWW. A simplified version of SGML, XML has been developed by the WWW Consortium (W3C), is at first draft stage with the W3C and is supported by the latest version of Netscape and Microsoft Internet Explorer 4.0
    Object
    HTML
  12. Medeiros, N.: Making room for MARC in a Dublin Core world (1999) 0.06
    0.059482425 = product of:
      0.2379297 = sum of:
        0.2379297 = weight(_text_:html in 1350) [ClassicSimilarity], result of:
          0.2379297 = score(doc=1350,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.68247306 = fieldWeight in 1350, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.09375 = fieldNorm(doc=1350)
      0.25 = coord(1/4)
    
    Footnote
    Vgl. auch unter: http://www.onlineinc.com/onlinemag/OL1999/medeiros11.html
  13. Markup and metadata (1998) 0.06
    0.05608057 = product of:
      0.22432227 = sum of:
        0.22432227 = weight(_text_:html in 2835) [ClassicSimilarity], result of:
          0.22432227 = score(doc=2835,freq=4.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.6434418 = fieldWeight in 2835, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0625 = fieldNorm(doc=2835)
      0.25 = coord(1/4)
    
    Abstract
    Discusses the range of applications of the XML meta language, which allows users to design their own markup language and share it with others. Instead of being confined to HTML, where 'one size fits all', industries, academic disciplines and professional organizations can use XML syntax to create a common set of tags which standardize the presentation of information. The linking abilities of XML are more powerful than HTML, so that it will support bidirectional and multiway links, as well as those to a span of text rather than to a single point
  14. Oehlschläger, S.: Aus der 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 24. und 25. April 2007 in Berlin (2007) 0.05
    0.052771796 = product of:
      0.10554359 = sum of:
        0.055974904 = weight(_text_:und in 1465) [ClassicSimilarity], result of:
          0.055974904 = score(doc=1465,freq=74.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.37263846 = fieldWeight in 1465, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1465)
        0.049568687 = weight(_text_:html in 1465) [ClassicSimilarity], result of:
          0.049568687 = score(doc=1465,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.14218189 = fieldWeight in 1465, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1465)
      0.5 = coord(2/4)
    
    Abstract
    Am 24. und 25. April 2007 fand die 52. Sitzung der Arbeitsgemeinschaft der Verbundsysteme auf Einladung der KOBV-Verbundzentrale in Berlin statt.
    Content
    "Umstieg auf MARC 21 Das Projekt Umstieg auf MARC 21 gliedert sich in mehrere Arbeitspakete: einerseits die Entwicklung einer Konkordanz von MAB2 nach MARC 21 und die Beantragung von Veränderungen im MARC-21-Format, andererseits die Entwicklung eines Editionssystems, eine Übersetzung von MARC Concise und die Erstellung einer Expertise zur Verwendung von MARCXML. Seit der letzten Sitzung der Arbeitsgemeinschaft der Verbundsysteme gelang es den Projektbeteiligten, diese Arbeitspakete in großen Teilen abzuschließen bzw. weiter voranzubringen. Kooperative Neukatalogisierung Ziel des Projektes Kooperative Neukatalogisierung ist es, dass jeder Titel in den Verbünden, bei der Deutschen Nationalbibliothek und in der ZDB nur noch einmal nach einheitlichen Regeln erfasst und erschlossen wird. Damit soll einerseits die Eigenkatalogisierungsquote in den Verbünden gesenkt werden und andererseits sollen die Daten schneller als bisher zur Verfügung stehen. Die AG Kooperative Neukatalogisierung unter dem Vorsitz von Frau Dr. Block (GBV) hat nach intensiver Arbeit ein Papier vorgelegt, in dem der Stand der Arbeiten dokumentiert und die gemeinsam von der Arbeitsgruppe getroffenen Vereinbarungen zusammengefasst sind. Die Arbeitsgemeinschaft der Verbundsysteme dankte der Arbeitsgruppe für ihre gute Arbeit und verabschiedete das Papier einstimmig.
    Catalogue Enrichment Die Arbeitsgruppe Catalogue Enrichment unter Federführung des hbz hat im Berichtszeitraum nicht getagt. Der Vorsitzende der AGV berichtet, dass das Projekt insgesamt eine gute Dynamik erreicht habe. Ursprünglich war man von dem Gedanken eines Referenzservers ausgegangen. Die Idee dabei war es, einen Server aufzusetzen, an den alle angereicherten Daten geliefert werden sollten. Dabei sollte automatisch abgeglichen werden, ob irgendwo bereits Daten vorliegen. Nunmehr müsse geprüft werden, ob ein zentraler Server in dieser Form noch benötigt werde. Normdaten-Onlineschnittstelle Im Projekt Online-Normschnittstelle konnten die Hersteller-Funktionstests mit der Deutschen Nationalbibliothek mittlerweile erfolgreich abgeschlossen werden, und die Funktionstests mit den Anwendern stehen unmittelbar bevor. Nach dem entsprechend angepassten Zeitplan für die Projekte Online-Normschnittstelle und Online-Redaktionsverfahren für Normdaten ist der Beginn der "produktiven Phase", d.h. der Einsatz im Echtbetrieb der Normdatei, für das zweite Halbjahr 2007 vorgesehen. Die Zeitplanung für die Einführung ist entscheidend von den Ergebnissen der Anwendertests abhängig. Das Online-Updateverfahren (Z39,50-Update und zeitnahe Replikation Ober °Al in die Bibliotheksverbünde) soil dabeizuerst in der Personennamendatei (PND) eingesetzt werden. Füreinen Einführungszeitraum von zwei Monaten sollen Redaktionsverfahren und Teilnehmerkreis zunächst weitgehend unverändert bleiben (noch keine Einbeziehung der Katalogisierer). Der Einführungszeitraum soll dazu genutzt werden, etwaige noch nicht erkannte Funktionsschwächen zu beseitigen, die für das volle Online-Redaktionsverfahren notwendigen Formaterweiterungen und Umsetzungen vorzunehmen und in den Bibliotheksverbünden und Bibliotheken die notwendigen Geschäftsgangsänderungen zu planen und durchzuführen. Im Anschluss sollen dann für die PND der Teilnehmerkreis am Online-Kommunikationsverfahren auf alle Katalogisierer in den teilnehmenden Bibliotheksverbünden ausgeweitet und das Online-Redaktionsverfahren eingesetzt werden.
    DDC-vascoda Für den Sucheinstieg bei vascoda wird bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungsjahr) kombiniert werden kann, angeboten. Die Suche kann zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Da in vascoda die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument eingeführt ist und bereits nennenswerte Bestände mit der DDC erschlossen sind, bietet sich die Möglichkeit, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Im Berichtszeitraum wurde in der vascoda AG Betrieb und mit dem hbz als Portalbetreiber die konzeptionelle und technische Einbindung des DDC-Browsings im vascoda-Portal diskutiert und beschlossen. Die Navigation mit DDC wird ähnlich wie die Navigation über die Fachcluster auf der linken Seite der Trefferliste integriert, beim Navigieren im Baum werden synchron die passenden Ressourcen aus der Suchmaschine in der mittleren Spalte eingeblendet. Wegen hoher Arbeitsbelastung im hbz wird dieses Feature wahrscheinlich nicht Teil des vascoda-Relaunches im Juni 2007 sein, sondern erst im 2. Halbjahr 2007 integriert werden. Weiter wurde ein Angebot implementiert für Fachportale und andere Institutionen, die mit DDC erschließen, aber nicht die technischen Möglichkeiten haben, ein eigenes Browsing zu entwickeln. Das Verfahren sieht vor, dass die DNB einen Dienst anbietet, der ein HTML-Snippet mit der gewünschten Browsing-Struktur generiert (ähnlich wie MelvilSearch), die in die Oberfläche des Fachportals integriert werden kann. Der Dienst wird voraussichtlich im 2. Quartal 2007 in Betrieb genommen werden können. In Zusammenarbeit mit der SUB Göttingen wurde ein Workshop zum Thema Lizenzfragen für DDC in Bezug auf Fachportale und andere Online-Angebote abgehalten. Die Ergebnisse wurden im vascoda-Newsletter veröffentlicht.
    kim - Kompetenzzentrum Interoperable Metadaten Projektziel ist der Aufbau eines Kompetenzzentrums Interoperable Metadaten (KIM), das im deutschsprachigen Raum den Ausbau der Kompetenzen für die Themen interoperable Metadaten, Metadatenaustausch und Formate fördern soll. Strukturierte Beschreibungen (Metadaten) verschiedener Datenbestände werden als "interoperabel" bezeichnet, wenn in ihnen über einheitliche Suchverfahren recherchiert oder sie sinnvoll in die Datenverwaltung integriert werden können. Interoperabilität wird erreicht, indem man sich in kontrollierten institutionellen Zusammenhängen an technische Spezifikationen hält. Eine zentrale Aufgabe des "Kompetenzzentrum Interoperable Metadaten" als DCMI-Affiliate in Deutschland (nach Projektende im deutschsprachigen Raum mit Partnern aus Österreich und der Schweiz) besteht dabei in der Bildung einer Kernarbeitsgruppe mit weiteren spezifischen Arbeitsgruppen, die durch die Begutachtung bereits existierender Anwendungsprofile ein gemeinsames Verständnis für "good practice" in der Anwendung sowohl des Dublin-Core-Modells als auch des Semantic-Web-Modells entwickelt. Dieses Verständnis bildet die Grundlage für die Entwicklung von Zertifizierungsverfahren, Ausbildungsangeboten und Beratungsdiensten im Bereich interoperable Metadaten.
    CrissCross Ziel des Projekts ist die Schaffung eines multilingualen, thesaurusbasierten und benutzerorientierten Recherchevokabulars zu heterogen erschlossenen Dokumenten für die Nutzer des deutschen wissenschaftlichen Bibliothekswesens. Dazu werden die Sachschlagwörter der SWD mit den Notationen der Dewey Dezimalklassifikation verbunden sowie mit ihren Äquivalenten in LCSH und Rameau verknüpft. Projektpartner sind die Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln und die Deutsche Nationalbibliothek. Das Projekt hat am 1. Februar 2006 begonnen und soll zum 31. Januar 2008 abgeschlossen sein. Im Berichtszeitraum wurde die Arbeitsumgebung im Pica/Iltis-System der Deutschen Nationalbibliothek und im Tool für die DDC-Notationsvergabe "MelvilClass" verwendet, um DDC-Notationen an SWD-Schlagwörtern zu erfassen. Die bisherigen Erfahrungen zeigen, dass die intellektuelle Vergabe sehr viel aufwändiger als gedacht ist. Dementsprechend wird neu über maschinelle Verfahren nachgedacht, wie ein maschineller Abgleich zwischen den SWD-Termen und den DDC-Registerbegriffen. Bei Übereinstimmung soll eine automatisch generierte Vorschlags-Notation im SWD-Satz gespeichert werden. Inwiefern durch die unterschiedliche Begriffsbildung Übereinstimmungen zwischen den Vokabularien existieren, welche Vorbereitungen ev. notwendig sind (z.B. MILOS) und welchen Nutzen automatische generierte Vorschlagsnotationen haben, muss noch weiter fachlich geprüft werden. Die aufwändige intellektuelle Verlinkung der SWD-Schlagwörter zur DDC soll sich in Zukunft auf relevante, d.h. häufig verwendete, Schlagwörter beziehen. Hierzu werden entsprechende Auswertungen in der DNB-Datenbank gemacht. Die LCSH/Rameau-Tupels aus dem MACS Projekt konnten noch nicht nach Pica / Iltis geladen werden, da die Aktualisierungen in MACS noch nicht abgeschlossen sind."
  15. Ansorge, K.: Das was 2007 (2007) 0.05
    0.050812148 = product of:
      0.101624295 = sum of:
        0.052055605 = weight(_text_:und in 3405) [ClassicSimilarity], result of:
          0.052055605 = score(doc=3405,freq=64.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.34654674 = fieldWeight in 3405, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3405)
        0.049568687 = weight(_text_:html in 3405) [ClassicSimilarity], result of:
          0.049568687 = score(doc=3405,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.14218189 = fieldWeight in 3405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3405)
      0.5 = coord(2/4)
    
    Content
    Darin u.a: "Netzpublikationen - Die DNB hat mit Inkrafttreten des Gesetzes über die Deutsche Nationalbibliothek im Jahr 2006 den Auftrag der Sammlung, Erschließung, Verzeichnung und Archivierung von Netzpublikationen erhalten. Zum Sammelgebiet Netzpublikationen gehören alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden. Die Abgabepflicht umfasst sowohl Internetveröffentlichungen mit Entsprechungen zum Printbereich als auch webspezifische Medienwerke." "Kataloganreicherung - In Gesprächen mit dem Deutschen Bibliotheksverband und dem Börsenverein des Deutschen Buchhandels hatte sich die DNB bereiterklärt, die Rolle eines zentralen Dienstleisters bei der Verbreitung digitaler Zusatzinformationen zu bibliografischen Daten zu übernehmen. Für die Anreicherung der Daten der Deutschen Nationalbibliografie mit qualitativ hochwertigen Zusatzinformationen (recherchierbare PDF-Dokumente) konnten im Jahr 2007 die Weichen gestellt werden. Seit Jahresbeginn 2008 werden die Inhaltsverzeichnisse der jährlich rund 75.000 monografischen Neuerscheinungen des Verlagsbuchhandels gescannt und als ergänzende bibliografische Daten über das Internet und die Datendienste der DNB angeboten. Im Rahmen der bestehenden Kooperation mit der MVB Marketing- und Verlagsservice des Buchhandels GmbH werden zukünftig neben den Daten des VLB (Verzeichnis Lieferbarer Bücher) auch die entstehenden Zusatzinformationen ausgetauscht."
    "Standardisierung - Auch 2007 ist die Arbeitsstelle für Standardisierung (AfS) auf dem Weg zur Internationalisierung der deutschen Regelwerke, Formate und Normdateien entscheidende Schritte vorangekommen. Im Mittelpunkt der Vorbereitungen für den Format-umstieg standen eine Konkordanz von MAB2 nach MARC 21 und die Festlegung neuer Felder, die für den Umstieg auf nationaler Ebene notwendig sind. Neben einer Vielzahl anderer Aktivitäten hat die DNB zwei Veranstaltungen zum Format-umstieg durchgeführt. In Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses wurden drei Stellungnahmen zu Entwürfen des Regelwerkes »Resource Description and Access (RDA)« erarbeitet; es fand eine Beteiligung an der internationalen Diskussion zu wichtigen Grundlagen statt. Der Erfüllung des Wunsches nach Einführung der Onlinekommunikation mit Normdateien ist die DNB im vergangenen Jahr deutlich nähergekommen: Änderungen an Normdaten sollen gleichzeitig in die zentral bei der DNB gehaltenen Dateien und in der Verbunddatenbank vollzogen werden. Seit Anfang September ist die erste Stufe der Onlinekommunikation im produktiven Einsatz: Die PND-Redaktionen in den Aleph-Verbünden arbeiten online zusammen. Das neue Verfahren wird sich auf alle bei der DNB geführten Normdaten erstrecken und in einem gestuften Verfahren eingeführt werden. Die DNB war in zahlreichen Standardisierungsgremien zur Weiterentwicklung von Metadatenstandards wie z.B. Dublin Core und ONIX (Online Information eXchange) sowie bei den Entwicklungsarbeiten für The European Library beteiligt. Die Projektarbeiten im Projekt KIM - Kompetenzzentrum Interoperable Metadaten wurden maßgeblich unterstützt. Im Rahmen der Arbeiten zum Gesetz über die Deutsche Nationalbibliothek wurde ein Metadatenkernset für die Übermittlung von Metadaten an die DNB entwickelt und in einer ersten Stufe mit einem ONIX-Mapping versehen. Innerhalb des Projektes »Virtual International Authority File - VIAF« entwickelten die Library of Congress (LoC), die DNB und OCLC - zunächst für Personennamen - gemeinsam eine virtuelle, internationale Normdatei, in der die Normdatensätze der nationalen Normdateien im Web frei zugänglich miteinander verbunden werden sollen. Die bisherigen Projektergebnisse haben die Machbarkeit einer internationalen Normdatei eindrucksvoll unter Beweis gestellt. Darum haben die Projektpartner in einem neuen Abkommen, das auch die Bibliothèque Nationale de France einschließt, im Oktober 2007 ihr Engagement für den VIAF nochmals bekräftigt und damit eine Konsolidierungs- und Erweiterungsphase eingeleitet."
    "DDC-Deutsch - Bereits im Jahr 2006 wurde die Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung der in den Reihen B (Monografien und Periodika außerhalb des Verlagsbuchhandels) und H (Hochschulschriften) der Deutschen Nationalbibliografie angezeigten Publikationen eingeführt. Mit Heft 1/2007 hat die DDC auch in der Reihe A (Monografien und Periodika des Verlagsbuchhandels) Einzug gehalten. Die dort angezeigten Publikationen werden zusätzlich wie bisher vollständig mit RSWK Schlagwortketten erschlossen. Die DNB wird damit zum größten europäischen Lieferanten von Dewey-Notationen und nimmt nach der LoC weltweit die zweite Stelle ein. Durch die Integration der Daten der DNB in den WorldCat werden Sichtbarkeit und Nutzungsmöglichkeiten dieses Angebots auch über den deutschsprachigen Raum hinaus verbessert. Um den Informationsaustausch unter den europäischen DDC-Anwendern zu verbessern, europäische Belange in der Klassifikation stärker durchzusetzen und die Verbreitung in Europa gemeinsam mit OCLC zu koordinieren, wurde die EDUG (European DDC Users' Group) gegründet."
    "CrissCross - Ende Januar 2006 startete das von der DNB und der Fachhochschule Köln gemeinsam betriebene und von der DFG geförderte Projekt CrissCross. Das Projekt soll ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular schaffen. Hierzu werden die Sachschlagwörter der Schlagwortnormdatei (SWD) mit den DDC-Notationen verbunden. Die Multilingualität wird durch die Verknüpfung mit ihren Äquivalenten in den beiden umfassenden Schlagwortnormdateien Library of Congress Subject Headings (LCSH) und Rameau (Répertoire d'autorité-matière encyclopédique et alphabétique unifié) erreicht. Die im Rahmen des Projekts erarbeiteten Festlegungen zur methodischen Vorgehensweise bei der Verknüpfung der DDC mit den SWD-Sachschlagwörtern wurden weiter präzisiert und fortentwickelt. Für die zweite Komponente des Projekts, die Anreicherung der in der Datenbank des MACS-Projekts vorliegenden Verbindungen zwischen LCSH und Rameau um den äquivalenten SWD-Terminus, wurde eine Vervollständigung und eine Verbesserung der Datenbasis erreicht und Tests der Verlinkung durchgeführt."
    "DDC-vascoda - Das Projekt DDC-vascoda wurde 2007 abgeschlossen. Für den Sucheinstieg bei vascoda wurde bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungs-)Jahr kombiniert werden kann, angeboten. Die Suche konnte zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Vascoda verwendete die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument. Ziel des Projektes DDC-vascoda war es, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Weiterhin wurde ein HTML-Dienst entwickelt, der es Fachportalen und anderen Datenanbietern ermöglicht, ohne großen Programmieraufwand ein DDC-Browsing über die eigenen Daten bereitzustellen."
  16. Wall, C.E.; Cole, T.W.; Kazmer, M.M.: HyperText MARCup : a conceptualization for encoding, de-constructing, searching, retrieving, and using traditional knowledge tools (1995) 0.05
    0.0490705 = product of:
      0.196282 = sum of:
        0.196282 = weight(_text_:html in 4254) [ClassicSimilarity], result of:
          0.196282 = score(doc=4254,freq=4.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.5630116 = fieldWeight in 4254, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4254)
      0.25 = coord(1/4)
    
    Abstract
    Pierian Press and the University of Illinois have been experimenting with directly parsing classified, analytical bibliographies into an electronic structure using the respective strengths of both HTML and MARC. This structure, which is explained and illustrated in this article, mitigates the weaknesses of each standard by drawing on the strengths of the other. The resulting electronic knowledge constructs can be mounted on local library systems and function as dynamic maps onto a specified subset of resources on those systems. Linkages can be added and/or removed to customize each construct to local holdings and/or needs
    Object
    HTML
  17. Flammia, G.: Document object models for the information marketplace (1997) 0.04
    0.039654948 = product of:
      0.15861979 = sum of:
        0.15861979 = weight(_text_:html in 2692) [ClassicSimilarity], result of:
          0.15861979 = score(doc=2692,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.45498204 = fieldWeight in 2692, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0625 = fieldNorm(doc=2692)
      0.25 = coord(1/4)
    
    Abstract
    Extensible Markup Language (XML) is an extension of HTML which simplifies the creation of specialized markup languages for any application domain without requiring knowledge of SGML. Reviews some of the features of XML that make it attractive for conducting secure electronic transactions over the Internet and keeping a record of them
  18. Lupovici, C.: ¬L'¬information secondaire du document primaire : format MARC ou SGML? (1997) 0.03
    0.03469808 = product of:
      0.13879232 = sum of:
        0.13879232 = weight(_text_:html in 1892) [ClassicSimilarity], result of:
          0.13879232 = score(doc=1892,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.3981093 = fieldWeight in 1892, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1892)
      0.25 = coord(1/4)
    
    Abstract
    Secondary information, e.g. MARC based bibliographic records, comprises structured data for identifying, tagging, retrieving and management of primary documents. SGML, the standard format for coding content and structure of primary documents, was introduced in 1986 as a publishing tool but is now being applied to bibliographic records. SGML now comprises standard definitions (DTD) for books, serials, articles and mathematical formulae. A simplified version (HTML) is used for Web pages. Pilot projects to develop SGML as a standard for bibliographic exchange include the Dublin Core, listing 13 descriptive elements for Internet documents; the French GRISELI programme using SGML for exchanging grey literature and US experiments on reformatting USMARC for use with SGML-based records
  19. Boßmeyer, C.: UNIMARC und MAB : Strukturunterschiede und Kompatibilitätsfragen (1995) 0.03
    0.025501933 = product of:
      0.10200773 = sum of:
        0.10200773 = weight(_text_:und in 2436) [ClassicSimilarity], result of:
          0.10200773 = score(doc=2436,freq=6.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.67909014 = fieldWeight in 2436, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=2436)
      0.25 = coord(1/4)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 42(1995) H.5, S.465-480
  20. SGML und XML : Anwendungen und Perspektiven (1999) 0.02
    0.02410208 = product of:
      0.09640832 = sum of:
        0.09640832 = weight(_text_:und in 2392) [ClassicSimilarity], result of:
          0.09640832 = score(doc=2392,freq=28.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.6418135 = fieldWeight in 2392, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2392)
      0.25 = coord(1/4)
    
    Abstract
    SGML und XML sind fundamentale Konzepte der heutigen und künftigen Speicherung, Verarbeitung und Verbreitung langlebiger Informationen, gerade im Hinblick auf die weltweite Vernetzung durch das Internet. Ausgehend von den technischen und ökonomischen Herausforderungen unserer Informationsgesellschaft, stellen die Autoren die wichtigen Entwicklungen dar und berichten über aktuelle Projekte mit SGML- und XML-Anwendungen in der Praxis. Das Buch wendet sich an das Management informationsverarbeitender und -produzierender Unternehmen, an die Technik-Verantwortlichen und SGML-/XML-Anwender sowie an Studierende informationsverarbeitender Fächer und der Informatik.
    Content
    Einführungen (Zukunft und Vergangenheit).- Charles Goldfarb: SGML-Philosophie und Zukunft.- Pam Genussa: SGML/XML und IETM.- Manfred Krüger: SGML - Der lange Weg.- Praxis heute.Zeitung/Zeitschrift.- Nachschlagewerke.- Technische Dokumentation.- Praxis - morgen.- Register.- Literatur.- Autorenliste.

Languages

  • d 103
  • e 20
  • f 2
  • More… Less…

Types

  • a 99
  • m 15
  • el 8
  • s 8
  • x 6
  • l 2
  • n 2
  • r 1
  • More… Less…