Search (130 results, page 1 of 7)

  • × theme_ss:"Datenformate"
  1. Burd, B.: Java und XML für Dummies (2003) 0.38
    0.3772086 = product of:
      0.7544172 = sum of:
        0.6864326 = weight(_text_:java in 2694) [ClassicSimilarity], result of:
          0.6864326 = score(doc=2694,freq=18.0), product of:
            0.48976174 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06949432 = queryNorm
            1.4015644 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
        0.06798457 = weight(_text_:und in 2694) [ClassicSimilarity], result of:
          0.06798457 = score(doc=2694,freq=18.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.44108194 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
      0.5 = coord(2/4)
    
    Abstract
    Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
    Object
    Java
  2. Loviscach, J.: Formen mit Normen (2000) 0.17
    0.17390609 = product of:
      0.34781218 = sum of:
        0.3050812 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.3050812 = score(doc=6100,freq=2.0), product of:
            0.48976174 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06949432 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.042730987 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.042730987 = score(doc=6100,freq=4.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.5 = coord(2/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    Java
  3. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.12
    0.11559103 = product of:
      0.4623641 = sum of:
        0.4623641 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.4623641 = score(doc=6896,freq=6.0), product of:
            0.48976174 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06949432 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  4. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.11
    0.114222474 = product of:
      0.22844495 = sum of:
        0.19067574 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.19067574 = score(doc=729,freq=2.0), product of:
            0.48976174 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06949432 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.037769213 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.037769213 = score(doc=729,freq=8.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  5. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.11
    0.11169241 = product of:
      0.22338483 = sum of:
        0.19067574 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.19067574 = score(doc=617,freq=2.0), product of:
            0.48976174 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06949432 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.032709096 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.032709096 = score(doc=617,freq=6.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  6. Birkner, M.: VuFind an der AK Bibliothek Wien (2015) 0.07
    0.07135171 = product of:
      0.14270341 = sum of:
        0.05911817 = weight(_text_:und in 2833) [ClassicSimilarity], result of:
          0.05911817 = score(doc=2833,freq=10.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.38355696 = fieldWeight in 2833, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2833)
        0.08358524 = weight(_text_:https in 2833) [ClassicSimilarity], result of:
          0.08358524 = score(doc=2833,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 2833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2833)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Artikel geht es um die bisherigen Tests der AK Bibliothek Wien mit dem Discovery System VuFind. Es handelt sich um eine mögliche Alternative zu Primo, einer weit verbreiteten proprietären Suchlösung an österreichsischen Bibliotheken. Nach einem kurzen technischen Überblick wird beschrieben, welche Entwicklungen und Anpassungen vorgenommen werden mussten, um eine Kompatibilität zwischen VuFind und den in der AK Bibliothek vorherrschenden Bedingungen zu schaffen. Dabei wird näher auf die Verarbeitung des Datenformats MAB2 sowie die Schnittstellen zum Bibliothekssystem Aleph und dem Bibliotheks-Repository eingegangen. Die ersten Ergebnisse werden präsentiert und noch zu lösende Probleme angesprochen. Zudem wird ein Ausblick auf zukünftige Vorhaben gegeben.
    Content
    Vgl. https://phaidra.univie.ac.at/detail_object/o:387193.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 68(2015) H.1, S.79-90
  7. Scholz, M.: Wie können Daten im Web mit JSON nachgenutzt werden? (2023) 0.07
    0.06912848 = product of:
      0.13825697 = sum of:
        0.042730987 = weight(_text_:und in 345) [ClassicSimilarity], result of:
          0.042730987 = score(doc=345,freq=4.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.2772374 = fieldWeight in 345, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=345)
        0.09552599 = weight(_text_:https in 345) [ClassicSimilarity], result of:
          0.09552599 = score(doc=345,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.34856486 = fieldWeight in 345, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0625 = fieldNorm(doc=345)
      0.5 = coord(2/4)
    
    Abstract
    Martin Scholz ist Informatiker an der Universitätsbibliothek Erlangen-Nürnberg. Als Leiter der dortigen Gruppe Digitale Entwicklung und Datenmanagement beschäftigt er sich viel mit Webtechniken und Datentransformation. Er setzt sich mit der aktuellen ABI-Techik-Frage auseinander: Wie können Daten im Web mit JSON nachgenutzt werden?
    Content
    Vgl.: https://doi.org/10.1515/abitech-2023-0039.
  8. Suominen, O.; Hyvönen, N.: From MARC silos to Linked Data silos? (2017) 0.06
    0.061991066 = product of:
      0.12398213 = sum of:
        0.022661526 = weight(_text_:und in 4732) [ClassicSimilarity], result of:
          0.022661526 = score(doc=4732,freq=2.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.14702731 = fieldWeight in 4732, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4732)
        0.10132061 = weight(_text_:https in 4732) [ClassicSimilarity], result of:
          0.10132061 = score(doc=4732,freq=4.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.36970887 = fieldWeight in 4732, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.046875 = fieldNorm(doc=4732)
      0.5 = coord(2/4)
    
    Abstract
    Seit einiger Zeit stellen Bibliotheken ihre bibliografischen Metadadaten verstärkt offen in Form von Linked Data zur Verfügung. Dabei kommen jedoch ganz unterschiedliche Modelle für die Strukturierung der bibliografischen Daten zur Anwendung. Manche Bibliotheken verwenden ein auf FRBR basierendes Modell mit mehreren Schichten von Entitäten, während andere flache, am Datensatz orientierte Modelle nutzen. Der Wildwuchs bei den Datenmodellen erschwert die Nachnutzung der bibliografischen Daten. Im Ergebnis haben die Bibliotheken die früheren MARC-Silos nur mit zueinander inkompatiblen Linked-Data-Silos vertauscht. Deshalb ist es häufig schwierig, Datensets miteinander zu kombinieren und nachzunutzen. Kleinere Unterschiede in der Datenmodellierung lassen sich zwar durch Schema Mappings in den Griff bekommen, doch erscheint es fraglich, ob die Interoperabilität insgesamt zugenommen hat. Der Beitrag stellt die Ergebnisse einer Studie zu verschiedenen veröffentlichten Sets von bibliografischen Daten vor. Dabei werden auch die unterschiedlichen Modelle betrachtet, um bibliografische Daten als RDF darzustellen, sowie Werkzeuge zur Erzeugung von entsprechenden Daten aus dem MARC-Format. Abschließend wird der von der Finnischen Nationalbibliothek verfolgte Ansatz behandelt.
    Content
    https://www.o-bib.de/article/view/2017H2S1-13. DOI: https://doi.org/10.5282/o-bib/2017H2S1-13.
  9. Boßmeyer, C.: UNIMARC und MAB : Strukturunterschiede und Kompatibilitätsfragen (1995) 0.03
    0.02616728 = product of:
      0.10466912 = sum of:
        0.10466912 = weight(_text_:und in 2436) [ClassicSimilarity], result of:
          0.10466912 = score(doc=2436,freq=6.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.67909014 = fieldWeight in 2436, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=2436)
      0.25 = coord(1/4)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 42(1995) H.5, S.465-480
  10. SGML und XML : Anwendungen und Perspektiven (1999) 0.02
    0.024730904 = product of:
      0.098923616 = sum of:
        0.098923616 = weight(_text_:und in 2392) [ClassicSimilarity], result of:
          0.098923616 = score(doc=2392,freq=28.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.6418135 = fieldWeight in 2392, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2392)
      0.25 = coord(1/4)
    
    Abstract
    SGML und XML sind fundamentale Konzepte der heutigen und künftigen Speicherung, Verarbeitung und Verbreitung langlebiger Informationen, gerade im Hinblick auf die weltweite Vernetzung durch das Internet. Ausgehend von den technischen und ökonomischen Herausforderungen unserer Informationsgesellschaft, stellen die Autoren die wichtigen Entwicklungen dar und berichten über aktuelle Projekte mit SGML- und XML-Anwendungen in der Praxis. Das Buch wendet sich an das Management informationsverarbeitender und -produzierender Unternehmen, an die Technik-Verantwortlichen und SGML-/XML-Anwender sowie an Studierende informationsverarbeitender Fächer und der Informatik.
    Content
    Einführungen (Zukunft und Vergangenheit).- Charles Goldfarb: SGML-Philosophie und Zukunft.- Pam Genussa: SGML/XML und IETM.- Manfred Krüger: SGML - Der lange Weg.- Praxis heute.Zeitung/Zeitschrift.- Nachschlagewerke.- Technische Dokumentation.- Praxis - morgen.- Register.- Literatur.- Autorenliste.
  11. Shieh, J.: PCC's work on URIs in MARC (2020) 0.02
    0.023881497 = product of:
      0.09552599 = sum of:
        0.09552599 = weight(_text_:https in 1123) [ClassicSimilarity], result of:
          0.09552599 = score(doc=1123,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.34856486 = fieldWeight in 1123, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0625 = fieldNorm(doc=1123)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://doi.org/10.1080/01639374.2019.1705951.
  12. Mönnich, M.: Elektronisches Publizieren von Hochschulschriften : Formate und Datenbanken (2000) 0.02
    0.022896368 = product of:
      0.09158547 = sum of:
        0.09158547 = weight(_text_:und in 5709) [ClassicSimilarity], result of:
          0.09158547 = score(doc=5709,freq=6.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.5942039 = fieldWeight in 5709, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=5709)
      0.25 = coord(1/4)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.80
    Source
    Wissenschaft online: Elektronisches Publizieren in Bibliothek und Hochschule. Hrsg. B. Tröger
  13. DFG und Mellon-Foundation fördern internationalen Datenaustausch (2006) 0.02
    0.021635033 = product of:
      0.08654013 = sum of:
        0.08654013 = weight(_text_:und in 70) [ClassicSimilarity], result of:
          0.08654013 = score(doc=70,freq=42.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.56146985 = fieldWeight in 70, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=70)
      0.25 = coord(1/4)
    
    Abstract
    Die Deutsche Forschungsgemeinschaft (DFG) und die Andrew W. Mellon Foundation unterstützen die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Der Daten- und Informationsaustausch zwischen den Bibliotheken der deutschsprachigen Länder und denen der übrigen Welt wird dadurch wesentlich erleichtert.
    Content
    "Der aktuelle Speicherort einer Publikation verliert angesichts der steigenden Zahl an digital vorliegenden und über das World Wide Weh verfügbaren Publikationen seine Bedeutung. Entscheidend für die Forschung sind Aufindbarkeit und schnelle Nutzungsmöglichkeit der Informationen. Global zu arbeiten, Daten, Informationen und Texte zu tauschen ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Die von der Deutschen Forschungsgemeinschaft und der Andrew W. Mellon Foundation geförderten Projekte verfolgen das Ziel, die Daten deutschsprachiger Bibliotheken weltweit sichtbar zu machen. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und deren reibungsloser gegenseitiger Austausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Die Deutsche Bibliothek pflegt seit vielen Jahren Kooperationsbeziehungen auf nationaler und internationaler Ebene. Dazu gehören die Entwicklung und Anwendung von gemeinsamen Regeln und Standards sowie Produktion und Vertrieb von bibliografischen Dienstleistungen und die Pflege kooperativ geführter Datenbanken, insbesondere für Normdaten. Einen weiteren Schwerpunkt bilden Entwicklung und Anwendung moderner Technologien für die Langzeitarchivierung der Bestände im Rahmen internationaler Kooperationen, unabhängig davon, ob die Publikationen auf Papier, Mikrofilm oder digital vorliegen."
  14. Galvão, R.M.: UNIMARC format relevance : maintenance or replacement? (2018) 0.02
    0.02089631 = product of:
      0.08358524 = sum of:
        0.08358524 = weight(_text_:https in 163) [ClassicSimilarity], result of:
          0.08358524 = score(doc=163,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 163, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=163)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://doi.org/10.1080/01639374.2017.1370054.
  15. Aslanidi, M.; Papadakis, I.; Stefanidakis, M.: Name and title authorities in the music domain : alignment of UNIMARC authorities format with RDA (2018) 0.02
    0.02089631 = product of:
      0.08358524 = sum of:
        0.08358524 = weight(_text_:https in 178) [ClassicSimilarity], result of:
          0.08358524 = score(doc=178,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 178, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=178)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://doi.org/10.1080/01639374.2018.1423596.
  16. Samples, J.; Bigelow, I.: MARC to BIBFRAME : converting the PCC to Linked Data (2020) 0.02
    0.02089631 = product of:
      0.08358524 = sum of:
        0.08358524 = weight(_text_:https in 1120) [ClassicSimilarity], result of:
          0.08358524 = score(doc=1120,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 1120, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1120)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://doi.org/10.1080/01639374.2020.1751764.
  17. Boruah, B.B.; Ravikumar, S.; Gayang, F.L.: Consistency, extent, and validation of the utilization of the MARC 21 bibliographic standard in the college libraries of Assam in India (2023) 0.02
    0.02089631 = product of:
      0.08358524 = sum of:
        0.08358524 = weight(_text_:https in 2185) [ClassicSimilarity], result of:
          0.08358524 = score(doc=2185,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 2185, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2185)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://www.tandfonline.com/toc/wccq20/61/7-8?nav=tocList.
  18. Boßmeyer, C.: Internationale bibliographische Standards und ihre Auswirkungen auf die deutschen Bibliotheken (1989) 0.02
    0.019625459 = product of:
      0.078501835 = sum of:
        0.078501835 = weight(_text_:und in 18) [ClassicSimilarity], result of:
          0.078501835 = score(doc=18,freq=6.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.50931764 = fieldWeight in 18, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=18)
      0.25 = coord(1/4)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.48
    Source
    4. Deutscher Bibliothekskongreß / 78. Deutscher Bibliothekartag in Berlin 1988: Reden und Vorträge. Hrsg.: B. Dankert u.a
  19. Hirsch, S.: Aspekte der Entwicklung von Fachinformationssystemen auf der Basis von XML/RDF (2000) 0.02
    0.018694807 = product of:
      0.07477923 = sum of:
        0.07477923 = weight(_text_:und in 5503) [ClassicSimilarity], result of:
          0.07477923 = score(doc=5503,freq=16.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.48516542 = fieldWeight in 5503, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5503)
      0.25 = coord(1/4)
    
    Abstract
    In einem Problemaufriss werden die heutigen Schwierigkeiten professioneller Informationsbeschaffung mit dem Internet und seinen heterogenen Informationsbeständen skizziert. Mit dem Ziel, diese Situation zu verbessern, sind die beiden neuen Standards entwickelt worden: Extensible Markup Language (XML) und Resource Description Framework (RDF). Es wird aus dokumentarischer Sicht ein Einblick in die Möglichkeiten und Grenzen dieser Techniken, ihre Syntax und Semantik gegeben. In einem Überblick werden erste Beispiele für XML/RDF-Komponenten in zukünftigen Fachinformationssystemen vorgestellt. Auf absehbare ökonomische, politische und juristische Konsequenzen der Anwendung von XML/RDF für Informations- und Dokumentationsstellen wird eingegangen. Es werden mögliche neue Aufgaben für die Informationswissenschaft im Rahmen der XML- und RDF-Entwicklung aufgezeigt
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.2, S.75-82
  20. Oeltjen, W.: Dokumentenstrukturen manipulieren und visualisieren : über das Arbeiten mit der logischen Struktur (1998) 0.02
    0.018694807 = product of:
      0.07477923 = sum of:
        0.07477923 = weight(_text_:und in 616) [ClassicSimilarity], result of:
          0.07477923 = score(doc=616,freq=16.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.48516542 = fieldWeight in 616, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=616)
      0.25 = coord(1/4)
    
    Abstract
    Thema dieses Beitrages sind Dokumentenstrukturen und zwar aus zwei Blickrichtungen: aus der Sicht der Autoren, die ein Dokument mit Computerunterstützung erstellen und die Dokumentenstruktur manipulieren und aus der Sicht der Lesenden, die ein Dokument lesen und die Struktur des Dokumentes wahrnehmen. Bei der Dokumentenstruktur wird unterschieden zwischen der logischen Struktur und der grafischen Struktur eines Dokumentes. Diese Trennung ermöglicht das Manipulieren und Visualisieren der logischen Struktur. Welche Bedeutung das für die Autoren und für die Benutzenden des Dokumentes hat, soll in dem Beitrag u.a. am Beispiel der Auszeichnungssprache HTML, der Dokumentenbeschreibungssprache des World-Wide Web, erörtert werden

Years

Languages

  • d 102
  • e 21
  • f 1
  • More… Less…

Types

  • a 98
  • m 15
  • el 8
  • s 8
  • x 6
  • l 2
  • n 2
  • r 1
  • More… Less…