Search (132 results, page 1 of 7)

  • × theme_ss:"Metadaten"
  1. Kirschenbaum, M.: Documenting digital images : textual meta-data at the Blake Archive (1998) 0.23
    0.22653297 = product of:
      0.45306593 = sum of:
        0.25281855 = weight(_text_:java in 4287) [ClassicSimilarity], result of:
          0.25281855 = score(doc=4287,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.5450528 = fieldWeight in 4287, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4287)
        0.20024738 = weight(_text_:handling in 4287) [ClassicSimilarity], result of:
          0.20024738 = score(doc=4287,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.48508468 = fieldWeight in 4287, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4287)
      0.5 = coord(2/4)
    
    Abstract
    Describes the work undertaken by the Wiliam Blake Archive, Virginia University, to document the metadata tools for handling digital images of illustrations accompanying Blake's work. Images are encoded in both JPEG and TIFF formats. Image Documentation (ID) records are slotted into that portion of the JPEG file reserved for textual metadata. Because the textual content of the ID record now becomes part of the image file itself, the documentary metadata travels with the image even it it is downloaded from one file to another. The metadata is invisible when viewing the image but becomes accessible to users via the 'info' button on the control panel of the Java applet
  2. Popper, A.: Daten eingewickelt : Dynamische Webseiten mit XML und SQL (2001) 0.20
    0.19846986 = product of:
      0.39693972 = sum of:
        0.36116937 = weight(_text_:java in 6804) [ClassicSimilarity], result of:
          0.36116937 = score(doc=6804,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.77864695 = fieldWeight in 6804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=6804)
        0.035770364 = weight(_text_:und in 6804) [ClassicSimilarity], result of:
          0.035770364 = score(doc=6804,freq=2.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.24504554 = fieldWeight in 6804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=6804)
      0.5 = coord(2/4)
    
    Abstract
    Wer dynamische Webseiten mit XML erzeugt, wird über kurz oder lang auch Datenbanken anzapfen wollen. Das Apache-Projekt Cocoon liefert eine komfortable Java/Servlet-Produktionsumgebung dafür
  3. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.11
    0.109473646 = product of:
      0.43789458 = sum of:
        0.43789458 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.43789458 = score(doc=6896,freq=6.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  4. Ungern-Sternberg, S.v.: Informationsdag om metadata i Lund (1996) 0.05
    0.050061844 = product of:
      0.20024738 = sum of:
        0.20024738 = weight(_text_:handling in 907) [ClassicSimilarity], result of:
          0.20024738 = score(doc=907,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.48508468 = fieldWeight in 907, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0546875 = fieldNorm(doc=907)
      0.25 = coord(1/4)
    
    Abstract
    The Day was held in Oct 96 to inform about developments in dexcription of electronic documents. Metadata are necessary to aid handling of electronic network resources. A workshop in Dublin Mar 95 compiled 13 elements needed to identify a document-like object, while the Warwick workshop Apr 96 proposed a framework for electronic entries with more metadata types than the Dublin Core. The Nordic Metadata Project aims to evaluate existing metadata format; develop the Dublic Core; make conversion of the Core to the Nordic MARC format possible; and set up a metadata search service for Nordic Internet documents. At the 2nd International Conference on Conceptions of Library and Information Science, Copenhagen Oct 96 a metadata structure for research profiles on Internet homepages was proposed
  5. Rossiter, B.N.; Sillitoe, T.J.; Heather, M.A.: Database support for very large hypertexts (1990) 0.05
    0.050061844 = product of:
      0.20024738 = sum of:
        0.20024738 = weight(_text_:handling in 1048) [ClassicSimilarity], result of:
          0.20024738 = score(doc=1048,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.48508468 = fieldWeight in 1048, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1048)
      0.25 = coord(1/4)
    
    Abstract
    Current hypertext systems have been widely and effectively used on relatively small data volumes. Explores the potential of database technology for aiding the implementation of hypertext systems holding very large amounts of complex data. Databases meet many requirements of the hypermedium: persistent data management, large volumes, data modelling, multi-level architecture with abstractions and views, metadata integrated with operational data, short-term transaction processing and high-level end-user languages for searching and updating data. Describes a system implementing the storage, retrieval and recall of trails through hypertext comprising textual complex objects (to illustrate the potential for the use of data bases). Discusses weaknesses in current database systems for handling the complex modelling required
  6. McCallum, S.H.: Preservation metadata standards for digital resources : what we have and what we need (2005) 0.04
    0.04291015 = product of:
      0.1716406 = sum of:
        0.1716406 = weight(_text_:handling in 5353) [ClassicSimilarity], result of:
          0.1716406 = score(doc=5353,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.41578686 = fieldWeight in 5353, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.046875 = fieldNorm(doc=5353)
      0.25 = coord(1/4)
    
    Abstract
    A key component for the successful preservation of digital resources is going to be the metadata that enables automated preservation processes to take place. The number of digital items will preclude human handling and the fact that these resources are electronic makes them logical for computer driven preservation activities. Over the last decade there have been a number of digital repository experiments that took different approaches, developed and used different data models, and generally moved our understanding forward. This paper reports on a recent initiative, PREMIS, that builds upon concepts and experience to date. It merits careful testing to see if the metadata identified can be used generally and become a foundation for more detailed metadata. And how much more will be needed for preservation activities? Initiatives for additional technical metadata and document format registries are also discussed.
  7. Jeffery, K.G.; Bailo, D.: EPOS: using metadata in geoscience (2014) 0.04
    0.04291015 = product of:
      0.1716406 = sum of:
        0.1716406 = weight(_text_:handling in 2581) [ClassicSimilarity], result of:
          0.1716406 = score(doc=2581,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.41578686 = fieldWeight in 2581, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.046875 = fieldNorm(doc=2581)
      0.25 = coord(1/4)
    
    Abstract
    One of the key aspects of the approaching data-intensive science era is integration of data through interoperability of systems providing data products or visualisation and processing services. Far from being simple, interoperability requires robust and scalable e-infrastructures capable of supporting it. In this work we present the case of EPOS, a project for data integration in the field of Earth Sciences. We describe the design of its e-infrastructure and show its main characteristics. One of the main elements enabling the system to integrate data, data products and services is the metadata catalog based on the CERIF metadata model. Such a model, modified to fit into the general e-infrastructure design, is part of a three-layer metadata architecture. CERIF guarantees a robust handling of metadata, which is in this case the key to the interoperability and to one of the feature of the EPOS system: the possibility of carrying on data intensive science orchestrating the distributed resources made available by EPOS data providers and stakeholders.
  8. Daniel Jr., R.; Lagoze, C.: Extending the Warwick framework : from metadata containers to active digital objects (1997) 0.03
    0.025030922 = product of:
      0.10012369 = sum of:
        0.10012369 = weight(_text_:handling in 2264) [ClassicSimilarity], result of:
          0.10012369 = score(doc=2264,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.24254234 = fieldWeight in 2264, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2264)
      0.25 = coord(1/4)
    
    Abstract
    Defining metadata as "data about data" provokes more questions than it answers. What are the forms of the data and metadata? Can we be more specific about the manner in which the metadata is "about" the data? Are data and metadata distinguished only in the context of their relationship? Is the nature of the relationship between the datasets declarative or procedural? Can the metadata itself be described by other data? Over the past several years, we have been engaged in a number of efforts examining the role, format, composition, and architecture of metadata for networked resources. During this time, we have noticed the tendency to be led astray by comfortable, but somewhat inappropriate, models in the non-digital information environment. Rather than pursuing familiar models, there is the need for a new model that fully exploits the unique combination of computation and connectivity that characterizes the digital library. In this paper, we describe an extension of the Warwick Framework that we call Distributed Active Relationships (DARs). DARs provide a powerful model for representing data and metadata in digital library objects. They explicitly express the relationships between networked resources, and even allow those relationships to be dynamically downloadable and executable. The DAR model is based on the following principles, which our examination of the "data about data" definition has led us to regard as axiomatic: * There is no essential distinction between data and metadata. We can only make such a distinction in terms of a particular "about" relationship. As a result, what is metadata in the context of one "about" relationship may be data in another. * There is no single "about" relationship. There are many different and important relationships between data resources. * Resources can be related without regard for their location. The connectivity in networked information architectures makes it possible to have data in one repository describe data in another repository. * The computational power of the networked information environment makes it possible to consider active or dynamic relationships between data sets. This adds considerable power to the "data about data" definition. First, data about another data set may not physically exist, but may be automatically derived. Second, the "about" relationship may be an executable object -- in a sense interpretable metadata. As will be shown, this provides useful mechanisms for handling complex metadata problems such as rights management of digital objects. The remainder of this paper describes the development and consequences of the DAR model. Section 2 reviews the Warwick Framework, which is the basis for the model described in this paper. Section 3 examines the concept of the Warwick Framework Catalog, which provides a mechanism for expressing the relationships between the packages in a Warwick Framework container. With that background established, section 4 generalizes the Warwick Framework by removing the restriction that it only contains "metadata". This allows us to consider digital library objects that are aggregations of (possibly distributed) data sets, with the relationships between the data sets expressed using a Warwick Framework Catalog. Section 5 further extends the model by describing Distributed Active Relationships (DARs). DARs are the explicit relationships that have the potential to be executable, as alluded to earlier. Finally, section 6 describes two possible implementations of these concepts.
  9. Ecker, R.: ¬Das digitale Buch im Internet : Methoden der Erfassung, Aufbereitung und Bereitstellung (1998) 0.02
    0.021462217 = product of:
      0.08584887 = sum of:
        0.08584887 = weight(_text_:und in 2511) [ClassicSimilarity], result of:
          0.08584887 = score(doc=2511,freq=18.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.58810925 = fieldWeight in 2511, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2511)
      0.25 = coord(1/4)
    
    Abstract
    Die elektronische Erfassung aller bedeutenden gedruckten Informationen und ihre Verbreitung über die weltweiten Datennetze in digitalisierter Form oder als Volltext stellt eine der zur Zeit größten Herausforderungen und Chancen für unsere Informationsgesellschaft dar. Der nachstehende Artikel widmet sich der oft gestellten Frage nach den technischen Methoden für die elektronische Erfassung, Erschließung und Bereitstellung gedruckter Vorlagen und beschreibt die wichtigsten Schritte der Digitalisierung und Datenaufbereitung und ihrer technischen und organisatorischen Parameter
    Content
    Beschreibt den Prozeß der digitalisierten Aufbereitung von Text und Bild etc. über Scannen
  10. Holzhause, R.; Krömker, H.; Schnöll, M.: Vernetzung von audiovisuellen Inhalten und Metadaten : Metadatengestütztes System zur Generierung und Erschließung von Medienfragmenten (Teil 1) (2016) 0.02
    0.020761454 = product of:
      0.08304582 = sum of:
        0.08304582 = weight(_text_:und in 636) [ClassicSimilarity], result of:
          0.08304582 = score(doc=636,freq=22.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.5689069 = fieldWeight in 636, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=636)
      0.25 = coord(1/4)
    
    Abstract
    Der folgende Artikel beschäftigt sich mit den Anforderungen und Aufgaben eines Systems zur vernetzten Datenverwaltung, welches zeitbezogene Verknüpfungen zwischen audiovisuellen Inhalten und Metadaten ermöglicht. Anhand der zusammenhängenden Relationen kann ein audiovisuelles Medium nicht nur als Ganzes effektiv beschrieben und erfasst werden, sondern auch dessen Fragmente und Kontexte. Auf Basis dieser Datenverarbeitung lassen sich vielfältige Schnittstellen und Anwendungen zur kontextbasierten Erschließung, Bearbeitung und Auslieferung von Dokumenten und Medien abbilden, welche insbesondere für Mediatheken und Systeme des Media-Asset-Managements im medialen Umfeld einen großen zusätzlichen Nutzen aufweisen, aber auch Aufgaben innerhalb wissenschaftlicher Bibliotheken und Archivsystemen erfüllen können.
  11. Christof, J.: Metadata sharing : Die Verbunddatenbank Internetquellen der Virtuellen Fachbibliothek Politikwissenschaft und der Virtuellen Fachbibliothek Wirtschaftswissenschaften (2003) 0.02
    0.018779442 = product of:
      0.07511777 = sum of:
        0.07511777 = weight(_text_:und in 2916) [ClassicSimilarity], result of:
          0.07511777 = score(doc=2916,freq=18.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.5145956 = fieldWeight in 2916, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2916)
      0.25 = coord(1/4)
    
    Abstract
    Im Kontext der durch die Deutsche Forschungsgemeinschaft (DFG) geförderten Projekte "Virtuelle Fachbibliothek Politikwissenschaft" und "Virtuelle Fachbibliothek Wirtschaftswissenschaften" wird für den Nachweis von Onlinequellen jeweils ein Fachinformationsführer aufgebaut. Die verantwortlichen Institutionen, die Staatsund Universitätsbibliothek Hamburg (SUB Hamburg), die Universitäts- und Stadtbibliothek Köln (USB Köln) und die Deutsche Zentralbibliothek für Wirtschaftswissenschaften (ZBW Kiel) haben dazu ein Metadatenkonzept in Abstimmung mit nationalen und internationalen Entwicklungen auf Basis von Dublin Core entwickelt und dieses Konzept beim Aufbau der Verbunddatenbank Internetquellen umgesetzt.
    Source
    Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
  12. Hengel-Dittrich, C.: Metadaten und Persistent Identifier : ein Informationstag für Verlage an Der Deutschen Bibliothek (1999) 0.02
    0.018586827 = product of:
      0.07434731 = sum of:
        0.07434731 = weight(_text_:und in 5222) [ClassicSimilarity], result of:
          0.07434731 = score(doc=5222,freq=6.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.50931764 = fieldWeight in 5222, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=5222)
      0.25 = coord(1/4)
    
    Footnote
    Bericht über eine Veranstaltung am 9.9.1999 der DDB und der Buchhändlervereinigung
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 46(1999) H.6, S.548-553
  13. Qualität in der Inhaltserschließung (2021) 0.02
    0.018586826 = product of:
      0.0743473 = sum of:
        0.0743473 = weight(_text_:und in 1754) [ClassicSimilarity], result of:
          0.0743473 = score(doc=1754,freq=54.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.5093176 = fieldWeight in 1754, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1754)
      0.25 = coord(1/4)
    
    Abstract
    Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
    Content
    Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
    Footnote
    Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
    Series
    Bibliotheks- und Informationspraxis; 70
  14. Janssen, U.: ONIX - Metadaten in Verlagen und Buchhandel (2003) 0.02
    0.018435623 = product of:
      0.073742494 = sum of:
        0.073742494 = weight(_text_:und in 2764) [ClassicSimilarity], result of:
          0.073742494 = score(doc=2764,freq=34.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.50517434 = fieldWeight in 2764, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2764)
      0.25 = coord(1/4)
    
    Abstract
    ONIX (das Akronym steht für Online information exchange) ist der erste weltweit akzeptierte Standard für angereicherte Metadaten über Bücher, Fortsetzungswerke und andere Produkte des Buchhandels. Er wurde ursprünglich in den USA entwickelt, zunächst mit dem Ziel, dem Internetbuchhandel in einem einheitlichen Format Katalogdaten und zusätzlich Marketingmaterial zur Verfügung stellen zu können. Von Anfang an waren Barsortimente, bibliographische Agenturen und Verlage in den USA und bald auch aus dem Vereinigten Königreich an der Entwicklung von ONIX beteiligt und haben diese finanziell sowie personell gefördert. Die Pflege und Weiterentwicklung dieses neuen Standards wurde dann in die Hände von EDItEUR gelegt, der internationalen Dachorganisation für Standardisierung im Buchhandel, gegründet und gefördert von Verbänden aus Buchhandel, Verlagen und Bibliothekswesen, darunter dem Börsenverein des Deutschen Buchhandels und der European Booksellers Federation. Büro und Sekretariat von EDItEUR werden in London von Book Industry Communication (BIC), einer Gemeinschaftsorganisation der britischen Verleger- und Buchhändlerverbände, gestellt. EDIMUR wurde vor zehn Jahren gegründet, um EDIStandards (EDI = electronic data interchange, elektronischer Datenaustausch) für die Kommunikation zwischen Buchhandel und Verlagen einerseits und Bibliotheken und ihren Lieferanten andererseits zu entwickeln. Dafür wurden Richtlinien für eine Reihe von EANCOM-Nachrichten verabschiedet, darunter für Bestellungen, Auftragsbestätigungen, Rechnungen und Angebote. Ein Richtlinienentwurf für die Nachricht PRICAT (Price and sales catalogue), die für die Übermittlung von Katalogdaten bestimmt ist, wurde zwar vor einigen Jahren entwickelt, aber bisher noch nirgendwo in der Praxis getestet oder gar produktiv eingesetzt. Hingegen sind die transaktionsbezogenen EDI-Nachrichten sowohl im Bibliothekswesen als auch im Buchhandel in Europa vielfach im Einsatz.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.210-214
  15. Rusch-Feja, D.: Nationale und internationale Ansätze zur Vereinheitlichung von Metadaten im Bildungsbereich (2001) 0.02
    0.017705427 = product of:
      0.07082171 = sum of:
        0.07082171 = weight(_text_:und in 6859) [ClassicSimilarity], result of:
          0.07082171 = score(doc=6859,freq=16.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.48516542 = fieldWeight in 6859, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6859)
      0.25 = coord(1/4)
    
    Abstract
    Die vielen Aktivitäten und Anzahl von Partnern, die an diesen Gruppen teilnehmen, zeigen, wie wichtig die Vereinheitlichung und semantische Interoperabilität der Metadaten im Bildungsbereich ist. Beispiele der einzlnen Metadatensätze können den Konkordanzen von Stuart Sutton entnommen werden, wobei deutlich ist, dass die Übereinstimmung mancher Konzepte hinter den Metadatenkategorien nicht vorhanden ist. Die gemeinsame Arbeit der Gruppen hat gerade angefangen und in den nächsten Monaten können Ergebnisse dieser Standardisierungsprozesses erwartet werden
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  16. Oehlschläger, S.: Abschlussworkshop des Projektes META-LIB und 1. Metadaten-Workshop der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek : Metadaten - Alter Wein in neuen Schläuchen? (2003) 0.02
    0.017705427 = product of:
      0.07082171 = sum of:
        0.07082171 = weight(_text_:und in 2758) [ClassicSimilarity], result of:
          0.07082171 = score(doc=2758,freq=16.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.48516542 = fieldWeight in 2758, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2758)
      0.25 = coord(1/4)
    
    Abstract
    Die seit Mitte der goer Jahre des letzten Jahrhunderts durch das Internet und vor allem durch das World Wide Web (WWW) entstandenen neuen Kommunikations- und Publikationsmöglichkeiten stellen die mit der Sammlung, Erschließung und Nutzbarmachung von Veröffentlichungen beauftragten wissenschaftlichen Bibliotheken vor neue Herausforderungen. Netzpublikationen erfordern die Überprüfung und Anpassung bestehender Methoden und Geschäftsgänge. Neben den bibliothekarischen Verfahren haben sich im WWW neue Vorgehensweisen herausgebildet. Um die Suche, die Identifikation und den Zugriff auf Netzpublikationen zu unterstützen, werden strukturierte Daten beigegeben: Metadaten. Außer den zum Auffinden der Ressourcen notwendigen Metadaten spielen weitere Arten von Metadaten für Netzpublikationen eine zunehmend wichtige Rolle.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.179-181
  17. Koch, G.; Koch, W.: Aggregation and management of metadata in the context of Europeana (2017) 0.02
    0.017705427 = product of:
      0.07082171 = sum of:
        0.07082171 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.07082171 = score(doc=4910,freq=16.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.48516542 = fieldWeight in 4910, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4910)
      0.25 = coord(1/4)
    
    Abstract
    Mit dem In-Beziehung-Setzen und Verlinken von Daten im Internet wird der Weg zur Umsetzung des semantischen Webs geebnet. Erst die semantische Verbindung von heterogenen Datenbeständen ermöglicht übergreifende Suchvorgänge und späteres "Machine Learning". Im Artikel werden die Aktivitäten der Europäischen Digitalen Bibliothek im Bereich des Metadatenmanagements und der semantischen Verlinkung von Daten skizziert. Dabei wird einerseits ein kurzer Überblick zu aktuellen Forschungsschwerpunkten und Umsetzungsstrategien gegeben, und darüber hinaus werden einzelne Projekte und maßgeschneiderte Serviceangebote für naturhistorische Daten, regionale Kultureinrichtungen und Audiosammlungen beschrieben.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.170-178
  18. Panskus, E.J.: Metadaten zur Identifizierung von Falschmeldungen im digitalen Raum : eine praktische Annäherung (2019) 0.02
    0.017523829 = product of:
      0.070095316 = sum of:
        0.070095316 = weight(_text_:und in 452) [ClassicSimilarity], result of:
          0.070095316 = score(doc=452,freq=12.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.48018923 = fieldWeight in 452, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=452)
      0.25 = coord(1/4)
    
    Abstract
    In vielen Ländern erstarken populistische und rassistische Kräfte. Mit Polen und Ungarn schwächen selbst Mitglieder der Europäischen Union rechtsstaatliche Institutionen.[1] Die Türkei wendet sich immer stärker von der EU ab und driftet an den Rand einer Diktatur. In Österreich konnte ein Rechtspopulist nur knapp als Bundespräsident verhindert werden. All diese Ereignisse finden oder fanden auch wegen Missmut und Misstrauen gegenüber staatlichen und etablierten Institutionen wie klassischen Medien, Regierungen und der Wirtschaft statt.
  19. Grossmann, S.: Meta-Strukturen in Intranets : Konzepte, Vorgehensweise, Beispiele (2001) 0.02
    0.01656191 = product of:
      0.06624764 = sum of:
        0.06624764 = weight(_text_:und in 6775) [ClassicSimilarity], result of:
          0.06624764 = score(doc=6775,freq=14.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.4538307 = fieldWeight in 6775, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6775)
      0.25 = coord(1/4)
    
    Abstract
    Die meisten Intranets stehen vor einem Informationsinfarkt - es fehlt in den Organisationen vielfach an klaren Rollenkonzepten zur Eingabe, Pflege und Weiterentwicklung der Intranets, vor allem aber auch an methodischen Grundsätzen zur Erfassung und Erschließung der verschiedenartigen Informationen. In diesem Beitrag werden die Grundkonzepte zur Meta-Strukturierung beschrieben, eine erprobte Vorgehensweise bei der Implementierung entsprechender Standards erarbeitet und zur besseren Illustration an konkreten Beispielen dargestellt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  20. Binz, V.; Rühle, S.: KIM - Das Kompetenzzentrum Interoperable Metadaten (2009) 0.02
    0.01656191 = product of:
      0.06624764 = sum of:
        0.06624764 = weight(_text_:und in 559) [ClassicSimilarity], result of:
          0.06624764 = score(doc=559,freq=14.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.4538307 = fieldWeight in 559, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=559)
      0.25 = coord(1/4)
    
    Abstract
    Die Interoperabilität von Metadaten ist eine wichtige Voraussetzung für das Generieren von Information und Wissen in einer vernetzten Welt. Aus diesem Grund entstehen seit Mitte der Neunziger Jahre verschiedene Standards mit dem Ziel, die Interoperabilität von Metadaten zu erhöhen. Genannt seien hier vor allem DCMES und DCAM, RDF und SKOS. Aufgabe von KIM ist es, diese Entwicklungen zu begleiten und in die deutschsprachige Community zu tragen. Dabei bietet KIM neben reinen Informationsangeboten (z. B. in Form von Übersetzungen, Vorträgen und Handreichungen) auch konkrete Unterstützung in Form von Schulungen und Beratungen an.
    Source
    Bibliothek: Forschung und Praxis. 33(2009) H.3, S.370-374

Years

Languages

  • d 98
  • e 33

Types

  • a 113
  • el 23
  • m 5
  • x 4
  • s 2
  • n 1
  • r 1
  • More… Less…