Search (129 results, page 1 of 7)

  • × theme_ss:"Datenformate"
  1. Burd, B.: Java und XML für Dummies (2003) 0.37
    0.37135887 = product of:
      0.74271774 = sum of:
        0.67578745 = weight(_text_:java in 2694) [ClassicSimilarity], result of:
          0.67578745 = score(doc=2694,freq=18.0), product of:
            0.48216656 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06841661 = queryNorm
            1.4015644 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
        0.06693027 = weight(_text_:und in 2694) [ClassicSimilarity], result of:
          0.06693027 = score(doc=2694,freq=18.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.44108194 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
      0.5 = coord(2/4)
    
    Abstract
    Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
    Object
    Java
  2. Loviscach, J.: Formen mit Normen (2000) 0.17
    0.17120916 = product of:
      0.3424183 = sum of:
        0.30035 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.30035 = score(doc=6100,freq=2.0), product of:
            0.48216656 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06841661 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.042068314 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.042068314 = score(doc=6100,freq=4.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.5 = coord(2/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    Java
  3. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.11
    0.11379845 = product of:
      0.4551938 = sum of:
        0.4551938 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.4551938 = score(doc=6896,freq=6.0), product of:
            0.48216656 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06841661 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  4. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.11
    0.11245113 = product of:
      0.22490226 = sum of:
        0.18771876 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.18771876 = score(doc=729,freq=2.0), product of:
            0.48216656 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06841661 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.03718349 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.03718349 = score(doc=729,freq=8.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  5. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.11
    0.1099603 = product of:
      0.2199206 = sum of:
        0.18771876 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.18771876 = score(doc=617,freq=2.0), product of:
            0.48216656 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06841661 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.032201845 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.032201845 = score(doc=617,freq=6.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  6. Stephens, O.: Introduction to OpenRefine (2014) 0.04
    0.04345397 = product of:
      0.17381588 = sum of:
        0.17381588 = weight(_text_:help in 3884) [ClassicSimilarity], result of:
          0.17381588 = score(doc=3884,freq=6.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.5400978 = fieldWeight in 3884, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.046875 = fieldNorm(doc=3884)
      0.25 = coord(1/4)
    
    Abstract
    OpenRefine is described as a tool for working with 'messy' data - but what does this mean? It is probably easiest to describe the kinds of data OpenRefine is good at working with and the sorts of problems it can help you solve. OpenRefine is most useful where you have data in a simple tabular format but with internal inconsistencies either in data formats, or where data appears, or in terminology used. It can help you: Get an overview of a data set Resolve inconsistencies in a data set Help you split data up into more granular parts Match local data up to other data sets Enhance a data set with data from other sources Some common scenarios might be: 1. Where you want to know how many times a particular value appears in a column in your data. 2. Where you want to know how values are distributed across your whole data set. 3. Where you have a list of dates which are formatted in different ways, and want to change all the dates in the list to a single common date format.
  7. Kartus, E.: Beyond MARC : is it really possible? (1995) 0.03
    0.03345088 = product of:
      0.13380352 = sum of:
        0.13380352 = weight(_text_:help in 5821) [ClassicSimilarity], result of:
          0.13380352 = score(doc=5821,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.41576743 = fieldWeight in 5821, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.0625 = fieldNorm(doc=5821)
      0.25 = coord(1/4)
    
    Abstract
    In their attempts to make materials more accessible, librarians are making catalogue entries unnecessarily complicated. Discusses the current scenario where catalogues appear to contain much information that is irrelevant to users. Provides an example of a future scenario where one composite catalogue record replaces a number of unitary records. Asks why the information that publishers have in machine readable form cannot be used with current technology to help simplify the entry
  8. Durand, J.J.: Making your MARC (1997) 0.03
    0.029269518 = product of:
      0.11707807 = sum of:
        0.11707807 = weight(_text_:help in 871) [ClassicSimilarity], result of:
          0.11707807 = score(doc=871,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.3637965 = fieldWeight in 871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.0546875 = fieldNorm(doc=871)
      0.25 = coord(1/4)
    
    Abstract
    Addresses some of the questions raised by school library media specialists but intended to help all those whose last cataloguing course was taken in library school before the technological revolution to make the most of the MARC record format. Covers necessary cataloguing tools and basic information needed to create an accurate MARC record, as well as successful additional information and some expectations of its future iuses. Emphasizes the importance of accurate MARC records if the online catalogue is to meet user needs, and be able to be merged with other catalogues. Also notes the MARC record's usefulness in streamlining activities such as circulation, use statistics, overdue notices, holding reports, bibliographies and inventories
  9. Carvalho, J.R. de; Cordeiro, M.I.; Lopes, A.; Vieira, M.: Meta-information about MARC : an XML framework for validation, explanation and help systems (2004) 0.03
    0.029269518 = product of:
      0.11707807 = sum of:
        0.11707807 = weight(_text_:help in 3848) [ClassicSimilarity], result of:
          0.11707807 = score(doc=3848,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.3637965 = fieldWeight in 3848, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3848)
      0.25 = coord(1/4)
    
  10. Boßmeyer, C.: UNIMARC und MAB : Strukturunterschiede und Kompatibilitätsfragen (1995) 0.03
    0.025761478 = product of:
      0.10304591 = sum of:
        0.10304591 = weight(_text_:und in 2436) [ClassicSimilarity], result of:
          0.10304591 = score(doc=2436,freq=6.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.67909014 = fieldWeight in 2436, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=2436)
      0.25 = coord(1/4)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 42(1995) H.5, S.465-480
  11. Beall, J.: Representation DDC system in MARC 21 (2008) 0.03
    0.025088158 = product of:
      0.10035263 = sum of:
        0.10035263 = weight(_text_:help in 3167) [ClassicSimilarity], result of:
          0.10035263 = score(doc=3167,freq=2.0), product of:
            0.32182297 = queryWeight, product of:
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.06841661 = queryNorm
            0.31182557 = fieldWeight in 3167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.7038717 = idf(docFreq=1093, maxDocs=44421)
              0.046875 = fieldNorm(doc=3167)
      0.25 = coord(1/4)
    
    Abstract
    Magda Heiner-Freiling argued for assignment of extra DDC numbers for improved access, including table numbers and other parts of numbers as well as fully built numbers, and for coding to identify component parts of built numbers. Changes to the MARC 21 Bibliographic format that support her approach are found in MARC Proposal No. 2008-01 Representation of the Dewey Decimal Classification (DDC) System in MARC 21 formats. The new 083 Additional Dewey Decimal Classification Number field is used for assignment of extra Dewey numbers for improved access. The new 085 Synthesized Classification Number Components field is used to identify component parts of built Dewey numbers. This paper uses specific examples to show how the new fields can help improve access.
  12. SGML und XML : Anwendungen und Perspektiven (1999) 0.02
    0.024347378 = product of:
      0.09738951 = sum of:
        0.09738951 = weight(_text_:und in 2392) [ClassicSimilarity], result of:
          0.09738951 = score(doc=2392,freq=28.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.6418135 = fieldWeight in 2392, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2392)
      0.25 = coord(1/4)
    
    Abstract
    SGML und XML sind fundamentale Konzepte der heutigen und künftigen Speicherung, Verarbeitung und Verbreitung langlebiger Informationen, gerade im Hinblick auf die weltweite Vernetzung durch das Internet. Ausgehend von den technischen und ökonomischen Herausforderungen unserer Informationsgesellschaft, stellen die Autoren die wichtigen Entwicklungen dar und berichten über aktuelle Projekte mit SGML- und XML-Anwendungen in der Praxis. Das Buch wendet sich an das Management informationsverarbeitender und -produzierender Unternehmen, an die Technik-Verantwortlichen und SGML-/XML-Anwender sowie an Studierende informationsverarbeitender Fächer und der Informatik.
    Content
    Einführungen (Zukunft und Vergangenheit).- Charles Goldfarb: SGML-Philosophie und Zukunft.- Pam Genussa: SGML/XML und IETM.- Manfred Krüger: SGML - Der lange Weg.- Praxis heute.Zeitung/Zeitschrift.- Nachschlagewerke.- Technische Dokumentation.- Praxis - morgen.- Register.- Literatur.- Autorenliste.
  13. Mönnich, M.: Elektronisches Publizieren von Hochschulschriften : Formate und Datenbanken (2000) 0.02
    0.022541292 = product of:
      0.09016517 = sum of:
        0.09016517 = weight(_text_:und in 5709) [ClassicSimilarity], result of:
          0.09016517 = score(doc=5709,freq=6.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.5942039 = fieldWeight in 5709, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=5709)
      0.25 = coord(1/4)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.80
    Source
    Wissenschaft online: Elektronisches Publizieren in Bibliothek und Hochschule. Hrsg. B. Tröger
  14. DFG und Mellon-Foundation fördern internationalen Datenaustausch (2006) 0.02
    0.021299519 = product of:
      0.085198075 = sum of:
        0.085198075 = weight(_text_:und in 70) [ClassicSimilarity], result of:
          0.085198075 = score(doc=70,freq=42.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.56146985 = fieldWeight in 70, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=70)
      0.25 = coord(1/4)
    
    Abstract
    Die Deutsche Forschungsgemeinschaft (DFG) und die Andrew W. Mellon Foundation unterstützen die Einführung des international gebräuchlichen Datenaustauschformats MARC 21 im deutschsprachigen Bibliothekswesen. Der Daten- und Informationsaustausch zwischen den Bibliotheken der deutschsprachigen Länder und denen der übrigen Welt wird dadurch wesentlich erleichtert.
    Content
    "Der aktuelle Speicherort einer Publikation verliert angesichts der steigenden Zahl an digital vorliegenden und über das World Wide Weh verfügbaren Publikationen seine Bedeutung. Entscheidend für die Forschung sind Aufindbarkeit und schnelle Nutzungsmöglichkeit der Informationen. Global zu arbeiten, Daten, Informationen und Texte zu tauschen ist zur täglichen Routine für Wissenschaftler und Bibliothekare geworden. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Die von der Deutschen Forschungsgemeinschaft und der Andrew W. Mellon Foundation geförderten Projekte verfolgen das Ziel, die Daten deutschsprachiger Bibliotheken weltweit sichtbar zu machen. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Sprachraumübergreifende Standards für Metadaten und deren reibungsloser gegenseitiger Austausch sind Voraussetzung für die wissenschaftliche Kommunikation und für den individuellen Erfolg des einzelnen Forschers. Die Deutsche Bibliothek pflegt seit vielen Jahren Kooperationsbeziehungen auf nationaler und internationaler Ebene. Dazu gehören die Entwicklung und Anwendung von gemeinsamen Regeln und Standards sowie Produktion und Vertrieb von bibliografischen Dienstleistungen und die Pflege kooperativ geführter Datenbanken, insbesondere für Normdaten. Einen weiteren Schwerpunkt bilden Entwicklung und Anwendung moderner Technologien für die Langzeitarchivierung der Bestände im Rahmen internationaler Kooperationen, unabhängig davon, ob die Publikationen auf Papier, Mikrofilm oder digital vorliegen."
  15. Boßmeyer, C.: Internationale bibliographische Standards und ihre Auswirkungen auf die deutschen Bibliotheken (1989) 0.02
    0.019321108 = product of:
      0.07728443 = sum of:
        0.07728443 = weight(_text_:und in 18) [ClassicSimilarity], result of:
          0.07728443 = score(doc=18,freq=6.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.50931764 = fieldWeight in 18, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=18)
      0.25 = coord(1/4)
    
    Series
    Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.48
    Source
    4. Deutscher Bibliothekskongreß / 78. Deutscher Bibliothekartag in Berlin 1988: Reden und Vorträge. Hrsg.: B. Dankert u.a
  16. Hirsch, S.: Aspekte der Entwicklung von Fachinformationssystemen auf der Basis von XML/RDF (2000) 0.02
    0.018404888 = product of:
      0.07361955 = sum of:
        0.07361955 = weight(_text_:und in 5503) [ClassicSimilarity], result of:
          0.07361955 = score(doc=5503,freq=16.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.48516542 = fieldWeight in 5503, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5503)
      0.25 = coord(1/4)
    
    Abstract
    In einem Problemaufriss werden die heutigen Schwierigkeiten professioneller Informationsbeschaffung mit dem Internet und seinen heterogenen Informationsbeständen skizziert. Mit dem Ziel, diese Situation zu verbessern, sind die beiden neuen Standards entwickelt worden: Extensible Markup Language (XML) und Resource Description Framework (RDF). Es wird aus dokumentarischer Sicht ein Einblick in die Möglichkeiten und Grenzen dieser Techniken, ihre Syntax und Semantik gegeben. In einem Überblick werden erste Beispiele für XML/RDF-Komponenten in zukünftigen Fachinformationssystemen vorgestellt. Auf absehbare ökonomische, politische und juristische Konsequenzen der Anwendung von XML/RDF für Informations- und Dokumentationsstellen wird eingegangen. Es werden mögliche neue Aufgaben für die Informationswissenschaft im Rahmen der XML- und RDF-Entwicklung aufgezeigt
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.2, S.75-82
  17. Oeltjen, W.: Dokumentenstrukturen manipulieren und visualisieren : über das Arbeiten mit der logischen Struktur (1998) 0.02
    0.018404888 = product of:
      0.07361955 = sum of:
        0.07361955 = weight(_text_:und in 616) [ClassicSimilarity], result of:
          0.07361955 = score(doc=616,freq=16.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.48516542 = fieldWeight in 616, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=616)
      0.25 = coord(1/4)
    
    Abstract
    Thema dieses Beitrages sind Dokumentenstrukturen und zwar aus zwei Blickrichtungen: aus der Sicht der Autoren, die ein Dokument mit Computerunterstützung erstellen und die Dokumentenstruktur manipulieren und aus der Sicht der Lesenden, die ein Dokument lesen und die Struktur des Dokumentes wahrnehmen. Bei der Dokumentenstruktur wird unterschieden zwischen der logischen Struktur und der grafischen Struktur eines Dokumentes. Diese Trennung ermöglicht das Manipulieren und Visualisieren der logischen Struktur. Welche Bedeutung das für die Autoren und für die Benutzenden des Dokumentes hat, soll in dem Beitrag u.a. am Beispiel der Auszeichnungssprache HTML, der Dokumentenbeschreibungssprache des World-Wide Web, erörtert werden
  18. Kupfer, T.: DIF: Universelle Darstellung und Austausch geowissenschaftlicher Metadaten mit dem Directory Interchange Format (2004) 0.02
    0.018404888 = product of:
      0.07361955 = sum of:
        0.07361955 = weight(_text_:und in 5637) [ClassicSimilarity], result of:
          0.07361955 = score(doc=5637,freq=4.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.48516542 = fieldWeight in 5637, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=5637)
      0.25 = coord(1/4)
    
    Imprint
    Potsdam : Fachhochschule, Institut für Information und Dokumentation
  19. Gömpel, R.; Niggemann, E.: RAK und MAB oder AACR und MARC? : Strategische Überlegungen zu einer aktuellen Diskussion (2002) 0.02
    0.017637676 = product of:
      0.0705507 = sum of:
        0.0705507 = weight(_text_:und in 775) [ClassicSimilarity], result of:
          0.0705507 = score(doc=775,freq=20.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.4649412 = fieldWeight in 775, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=775)
      0.25 = coord(1/4)
    
    Abstract
    Nachdem Regelwerksfragen in den letzten Jahren keine zentrale Rolle gespielt haben, hat die Diskussion über einen Umstieg von RAK und MAB auf AACR und MARC in den letzten Monaten einen gewaltigen Schub bekommen. Die vor fünf Jahren im Zusammenhang mit einem "Konvergenzprojekt" angestellten Überlegungen sind dabei nach wie vor aktuell. Die Veränderungen in der Regelwerks-Gremienlandschaft seit Gründung der Konferenz für Regelwerksfragen sowie die Gründe für das erneute Aufleben der deutschen Regelwerksdiskussion werden rekapituliert und die Situation Der Deutschen Bibliothek vor dem Hintergrund dieser Diskussion skizziert. Neben den Nachteilen einer Ablösung von RAK und MAB werden die Vorteile internationaler Regeln und Standards aus Nutzersicht sowie aus ökonomischer Sicht skizziert. Vor der Entscheidung für oder gegen eine Migration auf internationale Regeln und Formate sollte die Durchführung einer Machbarkeitsstudie stehen, in der die technischen, finanziellen und organisatorischen Rahmenbedingungen sowie die damit verbundenen Zeitperspektiven untersucht werden.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 49(2002) H.1, S.3-12
  20. Helmkamp, K.; Oehlschläger, S.: ¬Die Internationalisierung deutscher Standards : auf dem Weg von MAB2 zu MARC 21. "Access" - der Schlüssel zum Erfolg (2006) 0.02
    0.01752093 = product of:
      0.07008372 = sum of:
        0.07008372 = weight(_text_:und in 5873) [ClassicSimilarity], result of:
          0.07008372 = score(doc=5873,freq=58.0), product of:
            0.15174113 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06841661 = queryNorm
            0.46186373 = fieldWeight in 5873, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5873)
      0.25 = coord(1/4)
    
    Abstract
    Seit einigen Jahren ist der Begriff "Access" oder "Zugang" in aller Munde. Er bezieht sich auf den Zugang zu Informationsressourcen im World Wide Web und stellt eine zentrale Voraussetzung für den Erfolg oder Misserfolg in der modernen Gesellschaft dar. Viele Lebensbereiche sind auf einen ungehinderten Zugang zu digitalen Ressourcen angewiesen. Für ein Wirtschaftsunternehmen ist es im 21. Jahrhundert nicht mehr nur wichtig, über traditionelle Produktionsfaktoren, wie Maschinen oder Kapital, zu verfügen, von gleicher Bedeutung ist der Zugang auf Informationen, die intern und extern zur Verfügung stehen, und die Grundlage für ein umfassendes Wissensmanagement bilden. Damit kann der Innovationsprozess beschleunigt und das eigene Risiko vermindert werden, beispielsweise wenn bei der Produktentwicklung die Zeit bis zur Markteinführung verringert und damit ein wesentlicher Vorteil gegenüber den Konkurrenten erzielt wird. Auch die Welt der Wissenschaft hat sich in den letzten Jahrzehnten sehr verändert. Das Interesse von Wissenschaftlern ist nicht auf ihre jeweilige eigene nationale und kulturelle Umgebung beschränkt. Sie benötigen Informationen über Dokumente und Daten aus der ganzen Welt. Gleichzeitig wollen sie die eigenen Forschungsergebnisse in der internationalen Forschungsgemeinschaft zur Diskussion stellen. Schließlich ist der Zugang zu digitalen und konventionellen Ressourcen eine Voraussetzung für den Erfolg in dynamischen und global agierenden Gesellschaften und Systemen. Diese sind davon abhängig, dass Wissen ständig neu generiert und organisiert wird, und propagieren das lebenslange Lernen. Das Konzept des lebenslangen Lernens richtet sich an den Einzelnen, der seine Informationskompetenz ständig erweitern soll. Dadurch wird das Bedürfnis nach Bildungsangeboten im weitesten Sinne und folglich nach einem ungehinderten Zugang zu ihnen geweckt. All dies zeigt, dass ein reibungsloser Metadatenaustausch auf der Grundlage von sprachraumübergreifenden Standards eine wichtige Voraussetzung für Erfolge in ganz unterschiedlichen Bereichen ist. Daraus erwachsen wichtige Aufgaben für Bibliothekarinnen und Bibliothekare, die Daten über Dokumente bereitstellen und den Nachweis und Zugang zu ihnen garantieren. Deutschsprachige und ausländische Bibliotheken verwenden derzeit noch unterschiedliche Standards bei der Speicherung und dem Austausch von Katalogdaten. Während in Deutschland und Österreich das Maschinelle Austauschformat für Bibliotheken MAB2 verwendet wird, ist das Format Machine Readable Cataloguing MARC 21 der weltweit am weitesten verbreitete Standard.
    Content
    "Der Beschluss Der Standardisierungsausschuss hat in seiner 9. Sitzung am 15. Dezember 2004 wegweisende Beschlüsse zur Internationalisierung der deutschen Standards gefasst' Diese sehen als ersten Meilenstein die flächendeckende Einführung von MARC 21 als Austauschformat vor. Die Verbundsysteme als größte Datenproduzenten haben sich verpflichtet, MARC 21 einheitlich, d.h. ohne verbundspezifische Besonderheiten, einzuführen und anzuwenden. Gleichzeitig sollen die bisher unterschiedlichen Verbundrichtlinien vereinheitlicht werden. Die Einführung von MARC 21 bildet zusammen mit den Bestrebungen zur Verbesserung der Zusammenarbeit der Verbundsysteme einen entscheidenden Schritt, die Voraussetzungen für die Fremddatenübernahme und den Datentausch für die deutschen Bibliotheken sowohl auf nationaler als auch auf internationaler Ebene erheblich zu verbessern. Der Auftrag des Standardisierungsausschusses, den Umstieg auf MARC 21 vorzubereiten, richtet sich an die Arbeitstelle für Standardisierung (AfS). Für das Umstiegsprojekt gelang es erfolgreich, international agierende und verlässliche Partner zu gewinnen und Drittmittel einzuwerben: Die Andrew W. Mellon Foundation, die als amerikanische Stiftung ein Interesse an intensiven Kontakten zwischen den USA und deutschsprachigen Ländern u.a. auf der Ebene des Datentransfers hat, erklärte sich bereit, die Migration von MAB2 nach MARC 21 vor allem durch die Unterstützung von Kontakten auf der Arbeitsebene zu fördern. Die Deutsche Forschungsgemeinschaft genehmigte einen Antrag für verschiedene Arbeitspakete, wie z.B. die Entwicklung eines Editionssystems und einer Übersetzung von MARC Concise, und eine auf 18 Monaten befristete Mitarbeiterstelle, die in erster Linie die Aufgabe hat, das Projekt zu betreuen und zu dokumentieren. Nach der Zeit- und Ressourcenplanung der AfS gliedert sich das Umstiegsvorhaben in zwei große Abschnitte: die Vorbereitungsphase, die Anfang Januar 2007 abgeschlossen sein wird, und im Anschluss daran die Phase des konkreten Umstiegs."

Years

Languages

  • d 102
  • e 20
  • f 1
  • More… Less…

Types

  • a 96
  • m 15
  • el 9
  • s 8
  • x 6
  • l 2
  • n 2
  • r 1
  • More… Less…