Search (139 results, page 2 of 7)

  • × theme_ss:"Metadaten"
  1. Rusch-Feja, D.: Nationale und internationale Ansätze zur Vereinheitlichung von Metadaten im Bildungsbereich (2001) 0.02
    0.017927747 = product of:
      0.07171099 = sum of:
        0.07171099 = weight(_text_:und in 6859) [ClassicSimilarity], result of:
          0.07171099 = score(doc=6859,freq=16.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.48516542 = fieldWeight in 6859, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6859)
      0.25 = coord(1/4)
    
    Abstract
    Die vielen Aktivitäten und Anzahl von Partnern, die an diesen Gruppen teilnehmen, zeigen, wie wichtig die Vereinheitlichung und semantische Interoperabilität der Metadaten im Bildungsbereich ist. Beispiele der einzlnen Metadatensätze können den Konkordanzen von Stuart Sutton entnommen werden, wobei deutlich ist, dass die Übereinstimmung mancher Konzepte hinter den Metadatenkategorien nicht vorhanden ist. Die gemeinsame Arbeit der Gruppen hat gerade angefangen und in den nächsten Monaten können Ergebnisse dieser Standardisierungsprozesses erwartet werden
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  2. Oehlschläger, S.: Abschlussworkshop des Projektes META-LIB und 1. Metadaten-Workshop der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek : Metadaten - Alter Wein in neuen Schläuchen? (2003) 0.02
    0.017927747 = product of:
      0.07171099 = sum of:
        0.07171099 = weight(_text_:und in 2758) [ClassicSimilarity], result of:
          0.07171099 = score(doc=2758,freq=16.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.48516542 = fieldWeight in 2758, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2758)
      0.25 = coord(1/4)
    
    Abstract
    Die seit Mitte der goer Jahre des letzten Jahrhunderts durch das Internet und vor allem durch das World Wide Web (WWW) entstandenen neuen Kommunikations- und Publikationsmöglichkeiten stellen die mit der Sammlung, Erschließung und Nutzbarmachung von Veröffentlichungen beauftragten wissenschaftlichen Bibliotheken vor neue Herausforderungen. Netzpublikationen erfordern die Überprüfung und Anpassung bestehender Methoden und Geschäftsgänge. Neben den bibliothekarischen Verfahren haben sich im WWW neue Vorgehensweisen herausgebildet. Um die Suche, die Identifikation und den Zugriff auf Netzpublikationen zu unterstützen, werden strukturierte Daten beigegeben: Metadaten. Außer den zum Auffinden der Ressourcen notwendigen Metadaten spielen weitere Arten von Metadaten für Netzpublikationen eine zunehmend wichtige Rolle.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.179-181
  3. Koch, G.; Koch, W.: Aggregation and management of metadata in the context of Europeana (2017) 0.02
    0.017927747 = product of:
      0.07171099 = sum of:
        0.07171099 = weight(_text_:und in 4910) [ClassicSimilarity], result of:
          0.07171099 = score(doc=4910,freq=16.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.48516542 = fieldWeight in 4910, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4910)
      0.25 = coord(1/4)
    
    Abstract
    Mit dem In-Beziehung-Setzen und Verlinken von Daten im Internet wird der Weg zur Umsetzung des semantischen Webs geebnet. Erst die semantische Verbindung von heterogenen Datenbeständen ermöglicht übergreifende Suchvorgänge und späteres "Machine Learning". Im Artikel werden die Aktivitäten der Europäischen Digitalen Bibliothek im Bereich des Metadatenmanagements und der semantischen Verlinkung von Daten skizziert. Dabei wird einerseits ein kurzer Überblick zu aktuellen Forschungsschwerpunkten und Umsetzungsstrategien gegeben, und darüber hinaus werden einzelne Projekte und maßgeschneiderte Serviceangebote für naturhistorische Daten, regionale Kultureinrichtungen und Audiosammlungen beschrieben.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.170-178
  4. Panskus, E.J.: Metadaten zur Identifizierung von Falschmeldungen im digitalen Raum : eine praktische Annäherung (2019) 0.02
    0.017743869 = product of:
      0.070975475 = sum of:
        0.070975475 = weight(_text_:und in 452) [ClassicSimilarity], result of:
          0.070975475 = score(doc=452,freq=12.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.48018923 = fieldWeight in 452, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=452)
      0.25 = coord(1/4)
    
    Abstract
    In vielen Ländern erstarken populistische und rassistische Kräfte. Mit Polen und Ungarn schwächen selbst Mitglieder der Europäischen Union rechtsstaatliche Institutionen.[1] Die Türkei wendet sich immer stärker von der EU ab und driftet an den Rand einer Diktatur. In Österreich konnte ein Rechtspopulist nur knapp als Bundespräsident verhindert werden. All diese Ereignisse finden oder fanden auch wegen Missmut und Misstrauen gegenüber staatlichen und etablierten Institutionen wie klassischen Medien, Regierungen und der Wirtschaft statt.
  5. Roszkowski, M.; Lukas, C.: ¬A distributed architecture for resource discovery using metadata (1998) 0.02
    0.017336942 = product of:
      0.06934777 = sum of:
        0.06934777 = weight(_text_:headings in 2256) [ClassicSimilarity], result of:
          0.06934777 = score(doc=2256,freq=2.0), product of:
            0.32337824 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06664293 = queryNorm
            0.21444786 = fieldWeight in 2256, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=2256)
      0.25 = coord(1/4)
    
    Abstract
    This article describes an approach for linking geographically distributed collections of metadata so that they are searchable as a single collection. We describe the infrastructure, which uses standard Internet protocols such as the Lightweight Directory Access Protocol (LDAP) and the Common Indexing Protocol (CIP), to distribute queries, return results, and exchange index information. We discuss the advantages of using linked collections of authoritative metadata as an alternative to using a keyword indexing search-engine for resource discovery. We examine other architectures that use metadata for resource discovery, such as Dienst/NCSTRL, the AHDS HTTP/Z39.50 Gateway, and the ROADS initiative. Finally, we discuss research issues and future directions of the project. The Internet Scout Project, which is funded by the National Science Foundation and is located in the Computer Sciences Department at the University of Wisconsin-Madison, is charged with assisting the higher education community in resource discovery on the Internet. To that end, the Scout Report and subsequent subject-specific Scout Reports were developed to guide the U.S. higher education community to research-quality resources. The Scout Report Signpost utilizes the content from the Scout Reports as the basis of a metadata collection. Signpost consists of more than 2000 cataloged Internet sites using established standards such as Library of Congress subject headings and abbreviated call letters, and emerging standards such as the Dublin Core (DC). This searchable and browseable collection is free and freely accessible, as are all of the Internet Scout Project's services.
  6. Grossmann, S.: Meta-Strukturen in Intranets : Konzepte, Vorgehensweise, Beispiele (2001) 0.02
    0.016769873 = product of:
      0.06707949 = sum of:
        0.06707949 = weight(_text_:und in 6775) [ClassicSimilarity], result of:
          0.06707949 = score(doc=6775,freq=14.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.4538307 = fieldWeight in 6775, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6775)
      0.25 = coord(1/4)
    
    Abstract
    Die meisten Intranets stehen vor einem Informationsinfarkt - es fehlt in den Organisationen vielfach an klaren Rollenkonzepten zur Eingabe, Pflege und Weiterentwicklung der Intranets, vor allem aber auch an methodischen Grundsätzen zur Erfassung und Erschließung der verschiedenartigen Informationen. In diesem Beitrag werden die Grundkonzepte zur Meta-Strukturierung beschrieben, eine erprobte Vorgehensweise bei der Implementierung entsprechender Standards erarbeitet und zur besseren Illustration an konkreten Beispielen dargestellt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  7. Binz, V.; Rühle, S.: KIM - Das Kompetenzzentrum Interoperable Metadaten (2009) 0.02
    0.016769873 = product of:
      0.06707949 = sum of:
        0.06707949 = weight(_text_:und in 559) [ClassicSimilarity], result of:
          0.06707949 = score(doc=559,freq=14.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.4538307 = fieldWeight in 559, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=559)
      0.25 = coord(1/4)
    
    Abstract
    Die Interoperabilität von Metadaten ist eine wichtige Voraussetzung für das Generieren von Information und Wissen in einer vernetzten Welt. Aus diesem Grund entstehen seit Mitte der Neunziger Jahre verschiedene Standards mit dem Ziel, die Interoperabilität von Metadaten zu erhöhen. Genannt seien hier vor allem DCMES und DCAM, RDF und SKOS. Aufgabe von KIM ist es, diese Entwicklungen zu begleiten und in die deutschsprachige Community zu tragen. Dabei bietet KIM neben reinen Informationsangeboten (z. B. in Form von Übersetzungen, Vorträgen und Handreichungen) auch konkrete Unterstützung in Form von Schulungen und Beratungen an.
    Source
    Bibliothek: Forschung und Praxis. 33(2009) H.3, S.370-374
  8. Mainberger, C.: Aktuelles aus der Digital Library (2003) 0.02
    0.016597869 = product of:
      0.066391475 = sum of:
        0.066391475 = weight(_text_:und in 2547) [ClassicSimilarity], result of:
          0.066391475 = score(doc=2547,freq=42.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.4491759 = fieldWeight in 2547, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2547)
      0.25 = coord(1/4)
    
    Abstract
    Digitales Bibliotheksgut bildet neben dem Verbundsystem und Lokalsystemen schon seit einigen Jahren einen der Schwerpunkte des Bibliotheksservice-Zentrum Baden-Württemberg (BSZ). Dazu wurden in einer Reihe von Projekten unterschiedliche Gesichtspunkte dieser vergleichsweise neuen Medien berücksichtigt. Viele dieser Projekte sind mittlerweile abgeschlossen, einige in einen regelrechten Routinebetrieb übergegangen. Video- und Audiofiles, aber auch Image- und Textdateien stellen zunächst durch ihre technische Form spezielle Anforderungen an ihre Erzeugung, Aufbewahrung und Nutzung. Daran schließt sich die Entwicklung geeigneter Verfahren und Hilfsmittel zur Verzeichnung und Erschließung an. Spezielle Suchmaschinen und Austauschprotokolle ermöglichen ein adäquates Retrieval elektronischer Ressourcen und ihre Distribution. Ein eigenes Feld stellt der Einsatz von multimedialen Lehr- und Lernmaterialien im Hochschulunterricht dar. Die technischen Eigenschaften und Möglichkeiten führen darüber hinaus zu anderen inhaltlichen Strukturen als bei "konventioneller" Literatur und schließlich zu einer andersartigen rechtlichen Verortung dieser Bestände. Zu allen diesen Themen war das BSZ tätig, meist in Kooperationen mit Partnern wie z.B. den OPUS-Anwendern oder der DLmeta-Initative. Im Mittelpunkt dieses Engagements steht der Virtuelle Medienserver, der die Metadaten der dezentral vorgehaltenen Objekte enthält, diese über Hyperlinks erreichen kann und der mit der Verbunddatenbank synchronisiert ist. Die "digitale" Bibliotheksarbeit orientiert sich dabei an den Methoden und Prinzipien der "analogen" Bibliotheksarbeit, passt diese teils den neuen, digitalen Möglichkeiten an, insbesondere der Online-Zugänglichkeit, vermeidet aber Brüche in den Nachweisinstrumenten. Im Folgenden soll dies an vier zentralen Aspekten deutlich gemacht werden, die Teil jeder Bibliotheksarbeit sind und entsprechend in aktuellen Projekten der Digital Library im BSZ ihren Niederschlag finden: Recherche- und Zugangsmöglichkeiten oder "Portale", Inhalte und Medien oder "Content", Regelwerke und Formate oder "Metadaten", Sprachverwendung oder "Normvokabular und Klassifikationen". Illustriert werden diese Themen anhand aktueller Projekte, zunächst die Sprachverwendung anhand des BAM-Portals: Das BAM-Portal wird in einem DFG-Projekt in Kooperation des BSZ mit der Landesarchivdirektion Baden-Württemberg und dem Landesmuseum für Technik und Arbeit entwickelt. Es zielt darauf ab, in Bibliotheken, Archiven und Museen vorhandene digitale Bestände unter einer einheitlichen Oberfläche übers World Wide Web zugänglich zu machen. Eine Recherche im BAMPortal führt auf eine fachübergreifende Trefferliste, in der jeder Treffer über Internetlinks mit einer ausführlichen, herkunftsgerechten Beschreibung verknüpft ist. Von dort ist gegebenenfalls ein zugehöriges Digitalisat bzw. eine multimediale Veranschaulichung erreichbar. Da übliche Suchaspekte, wie der Autor für Literatur oder die Provenienz für das Archivalien im gemeinsamen Kontext nicht fachübergreifende Resultate ergeben, treten hier themenbezogene Recherchen in den Vordergrund. Daher widmen wir im BAM-Portal der thematischen Erschließung der verschiedenen Datenbestände die größte Aufmerksamkeit.
  9. Weber, J.: Nachlässe und Autographen im WWW : Dublin Core in Museen, Archiven und Bibliotheken (2000) 0.02
    0.016298782 = product of:
      0.06519513 = sum of:
        0.06519513 = weight(_text_:und in 5458) [ClassicSimilarity], result of:
          0.06519513 = score(doc=5458,freq=18.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.44108194 = fieldWeight in 5458, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5458)
      0.25 = coord(1/4)
    
    Abstract
    Vielen Bibliotheksbenutzern wird inzwischen mehr und mehr bewußt: Alle Vernetzungsbestrebungen in Bibliotheksbereich, die lokale Traditionen zugunsten eines überregionalen Nachweises der Bestände aufgeben, handeln auch gegen die Benutzerinteressen. Wir werden uns zunehmend klar darüber, daß von den meisten wissenschaftlern der lokale Online-Katalog allein für Literaturrecherchen herangezogen wird, und zwar aus dem Grund, daß das gesuchte Buch so schnell und unkompliziert wie möglich zur Hand sein soll. Diese Feststellung impliziert auch den Gedanken, daß die Aufgabe guter lokaler Katalogisierungstraditionen möglicherweise ein unwiederbringlicher Verlust ist, ein Schritt hin zu einer schlechteren und oberflächlicheren Information. Wie sich eine überregionale Verbesserung der Nachweissituation unter gleichzeitiger Bewahrung lokaler Traditionen darstellen kann, ist Gegenstand der folgenden Ausführungen. Sie bahandeln das Thema aus dem Blickwinkel der Bilbiotheken, Archive und Museen, deren aufgabe im Nachweis und der Bewahrung von Unikaten besteht. die hier behandelte Metadatendiskussion bezieht sich also auf die Beschreibungskriterien nicht für digitales Material, sondern für Manuskripte, Briefe, Gegenstände
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.63-69
  10. Niederée, C.: Metadaten als Bausteine des Semantic Web (2003) 0.02
    0.016298782 = product of:
      0.06519513 = sum of:
        0.06519513 = weight(_text_:und in 2761) [ClassicSimilarity], result of:
          0.06519513 = score(doc=2761,freq=18.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.44108194 = fieldWeight in 2761, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2761)
      0.25 = coord(1/4)
    
    Abstract
    Das »Semantic Web« bildet einen der wichtigsten, aktuellen Trends in der Weiterentwicklung des World Wide Web. Ehrgeizige Vision dieser nächsten Generation des WWW ist es, durch semantische Anreicherung von Information eine neue Qualität in der Bereitstellung von Inhalten und Diensten zu erreichen und vollständig neue Anwendungsmöglichkeiten für das Web zu eröffnen. Wichtige Ziele der Entwicklung des Semantic Web sind dabei die verbesserte Unterstützung von Kooperation zwischen Menschen und Computern und die intelligente Assistenz bei der Durchführung von Aufgaben in kooperativen verteilten Informationsumgebungen. Schlüssel zur Erreichung dieser Ziele sind die Anreicherung von Daten im Web mit Metadaten, welche diese Daten in einen semantischen Kontext einbetten. Diese Kontextinformation wird durch Software-Anwendungen interpretiert und zur Informationsfilterung, Verfeinerung von Anfragen und zur Bereitstellung intelligenter Assistenten verwendet. Eine große Herausforderung stellt dabei die geeignete Modellierung und Beschreibung des Kontexts dar. Diese muss eine automatische, globale Interpretation ermöglichen, ohne dass auf ein allgemeingültiges semantisches Beschreibungsschema zurückgegriffen werden kann. Die Vereinbarung eines solchen allgemeingültigen Schemas ist in einem derart umfangreichen, heterogenen und autonomen Rahmen, wie ihn das WWW darstellt, nicht möglich.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.193-198
  11. Keßler, M.: KIM - Kompetenzzentrum Interoperable Metadaten : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007) 0.02
    0.016298782 = product of:
      0.06519513 = sum of:
        0.06519513 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
          0.06519513 = score(doc=3406,freq=18.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.44108194 = fieldWeight in 3406, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3406)
      0.25 = coord(1/4)
    
    Abstract
    Das Kompetenzzentrum Interoperable Metadaten (KIM) ist eine Informations- und Kommunikationsplattform für Metadatenanwender und -entwickler zur Verbesserung der Interoperabilität von Metadaten im deutschsprachigen Raum. KIM unterstützt und fördert die Erarbeitung von Metadatenstandards, die interoperable Gestaltung von Formaten und damit die optimale Nutzung von Metadaten in digitalen Informationsumgebungen mittels Lehrmaterialien, Schulungen und Beratungen. Das Kompetenzzentrum entsteht im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts KIM unter der Federführung der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB) in Zusammenarbeit mit der Deutschen Nationalbibliothek (DNB). Projektpartner sind in der Schweiz die Hochschule für Technik und Wirtschaft HTW Chur, die Eidgenössische Technische Hochschule (ETH) Zürich und in Österreich die Universität Wien. Aufgabe des Kompetenzzentrums ist es, die Interoperabilität von Metadaten zu verbessern. Interoperabilität ist die Fähigkeit zur Zusammenarbeit von heterogenen Systemen. Datenbestände unabhängiger Systeme können ausgetauscht oder zusammengeführt werden, um z. B. eine systemübergreifende Suche oder das Browsen zu ermöglichen. Daten werden zum Teil in sehr unterschiedlichen Datenbanksystemen gespeichert. Interoperabilität entsteht dann, wenn die Systeme umfangreiche Schnittstellen implementieren, die ein weitgehend verlustfreies Mapping der internen Datenrepräsentation ermöglichen.
  12. Birkner, M.; Gonter, G.; Lackner, K.; Kann, B.; Kranewitter, M.; Mayer, A.; Parschalk, A.: Guideline zur Langzeitarchivierung (2016) 0.02
    0.016298782 = product of:
      0.06519513 = sum of:
        0.06519513 = weight(_text_:und in 4139) [ClassicSimilarity], result of:
          0.06519513 = score(doc=4139,freq=18.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.44108194 = fieldWeight in 4139, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4139)
      0.25 = coord(1/4)
    
    Abstract
    Guideline zur Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens. Diese Guideline soll Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens bieten. Sie ist ausdrücklich nicht für den Kontext der Compliance anwendbar. Sie soll dazu ermächtigen, die richtigen Fragen zur Auswahl der für die eigene Institution geeigneten Langzeitarchivierungs-Lösung zu stellen und bei der Entscheidung für eine System-Lösung behilflich sein. Langzeitarchivierungssysteme werden hier als Systeme verstanden, die im Workflow hinter einem Repositorium stehen, in dem digitale Objekte und ihre Metadaten gespeichert und angezeigt werden sowie recherchierbar sind. Allfällige Begriffserklärungen finden Sie im Glossar des Clusters C (Aufbau eines Wissensnetzwerks: Erarbeitung eines Referenzmodells für den Aufbau von Repositorien / Themenbereich Terminologie und Standards).
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 69(2016) H.1, S.41-57
  13. Rusch-Feja, D.: Metadaten und Strukturierung elektronischer Informationen : Bericht über einen Workshop vom 15. bis 17. Dezember 1996 in der Stadt- und Universitätsbibliothek Göttingen (1997) 0.02
    0.016197862 = product of:
      0.06479145 = sum of:
        0.06479145 = weight(_text_:und in 948) [ClassicSimilarity], result of:
          0.06479145 = score(doc=948,freq=10.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.4383508 = fieldWeight in 948, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=948)
      0.25 = coord(1/4)
    
    Content
    Mit Darstellung zum Beschluß der IuK-Kommission der wissenschaftlichen Fachgesellschaften und deren Aktivitäten (vgl. auch die Beiträge von Grötschel); ebenso Bezug zum Thema 'Metadaten und Suchmaschinen'
    Source
    nfd Information - Wissenschaft und Praxis. 48(1997) H.5, S.295-302
  14. Preza, J.L.: Data science und analytics in libraries (2017) 0.02
    0.016197862 = product of:
      0.06479145 = sum of:
        0.06479145 = weight(_text_:und in 4916) [ClassicSimilarity], result of:
          0.06479145 = score(doc=4916,freq=10.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.4383508 = fieldWeight in 4916, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4916)
      0.25 = coord(1/4)
    
    Abstract
    Bibliotheken sind in einer priviligierten Situation: Sie verwalten riesige Mengen von Daten und Informationen. Data Science und Analytics-Methoden ermöglichen es Bibliotheken, den Inhalt, den sie verwalten, voll auszunutzen, um den Nutzern bessere Informationen, Suche und Empfehlungen zu bieten.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.244-248
  15. Strötgen, R.; Kokkelink, S.: Metadatenextraktion aus Internetquellen : Heterogenitätsbehandlung im Projekt CARMEN (2001) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 6808) [ClassicSimilarity], result of:
          0.062734045 = score(doc=6808,freq=24.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 6808, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6808)
      0.25 = coord(1/4)
    
    Abstract
    Die Sonderfördermaßnahme CARMEN (Content Analysis, Retrieval and Metadata: Effective Networking) zielt im Rahmen des vom BMB+F geförderten Programms GLOBAL INFO darauf ab, in der heutigen dezentralen Informationsweit geeignete Informationssysteme für die verteilten Datenbestände in Bibliotheken, Fachinformationszentren und im Internet zu schaffen. Diese Zusammenführung ist weniger technisch als inhaltlich und konzeptuell problematisch. Heterogenität tritt beispielsweise auf, wenn unterschiedliche Datenbestände zur Inhaltserschließung verschiedene Thesauri oder Klassifikationen benutzen, wenn Metadaten unterschiedlich oder überhaupt nicht erfasst werden oder wenn intellektuell aufgearbeitete Quellen mit in der Regel vollständig unerschlossenen Internetdokumenten zusammentreffen. Im Projekt CARMEN wird dieses Problem mit mehreren Methoden angegangen: Über deduktiv-heuristische Verfahren werden Metadaten automatisch aus Dokumenten generiert, außerdem lassen sich mit statistisch-quantitativen Methoden die unterschiedlichen Verwendungen von Termen in den verschiedenen Beständen aufeinander abbilden, und intellektuell erstellte Crosskonkordanzen schaffen sichere Übergänge von einer Dokumentationssprache in eine andere. Für die Extraktion von Metadaten gemäß Dublin Core (v. a. Autor, Titel, Institution, Abstract, Schlagworte) werden anhand typischer Dokumente (Dissertationen aus Math-Net im PostScript-Format und verschiedenste HTML-Dateien von WWW-Servern deutscher sozialwissenschaftlicher Institutionen) Heuristiken entwickelt. Die jeweilige Wahrscheinlichkeit, dass die so gewonnenen Metadaten korrekt und vertrauenswürdig sind, wird über Gewichte den einzelnen Daten zugeordnet. Die Heuristiken werden iterativ in ein Extraktionswerkzeug implementiert, getestet und verbessert, um die Zuverlässigkeit der Verfahren zu erhöhen. Derzeit werden an der Universität Osnabrück und im InformationsZentrum Sozialwissenschaften Bonn anhand mathematischer und sozialwissenschaftlicher Datenbestände erste Prototypen derartiger Transfermodule erstellt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  16. Hengel, C.: Normdaten und Metadaten : die Idee eines internationalen authority file (2003) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 2763) [ClassicSimilarity], result of:
          0.062734045 = score(doc=2763,freq=24.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 2763, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2763)
      0.25 = coord(1/4)
    
    Abstract
    Normdaten sind Metadaten besonderer Oualität: Metadaten zu Metadaten. In einem getrennt vom Metadaten-Set zur einzelnen Publikation gebildeten Normdaten-Satz werden die unterschiedlichen in den Publikationen verwendeten Namensformen bzw. Bezeichnungen für dasselbe Objekt zusammengeführt und normiert. Durch die Verwendung von Normdaten als Metadaten wird kontrolliert und sichergestellt, dass z. B. für Autoren, Urheber, Verleger, Sachinhalte etc. gleich bleibende, identische Sucheinstiege und Zugriffspunkte gebildet werden (Authority Control). Für die Recherche wirkt sich die Normierung so aus, dass die zugehörigen Publikationen über alle im Normdatensatz beinhalteten Namensformen und Bezeichnungen gefunden werden können. Durch die Angabe von Attributen und Relationen zu den einzelnen Objekten werden zudem zusätzliche, vernetzte Zugriffspunkte bereitgestellt. Normdaten sind damit ideal zur Bildung von semantischen Navigationsnetzen für die Suche und den Zugriff auf Publikationen und andere Objekte geeignet. Das standardisierte Vokabular und das Nummernsystem einer Normdatei hat aber nur im eigenen Anwendungsbereich Gültigkeit, und die gemeinsame Nutzung von Titeldaten kann durch die Nutzung unterschiedlicher Normdateien behindert werden. Die IFLA-Arbeitsgruppe FRANAR hat mit der Vision eines gemeinsamen Virtuellen Authority File ein Modell entwickelt, wie im Bibliothekswesen Interoperabilität zwischen den nationalen Normdateien hergestellt werden kann. Um die Realisierbarkeit eines solchen Vorhabens nachzuweisen, haben die Library of Congress, OCLC und Die Deutsche Bibliothek ein gemeinsames Projekt vereinbart, in dem exemplarisch für den Bereich der Personennormdaten ein VIAF (Virtual International Authority File) aufgebaut werden soll.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.210-214
  17. Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 1115) [ClassicSimilarity], result of:
          0.062734045 = score(doc=1115,freq=24.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 1115, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1115)
      0.25 = coord(1/4)
    
    Abstract
    Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
    Content
    Magisterarbeit am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin. Vgl. unter: http://woitas.org/wp-content/uploads/2010/11/Kathi-Woitas-Magisterarbeit.pdf.
    Imprint
    Berlin : Humboldt-Universität, Institut für Bibliotheks- und Informationswissenschaft
  18. Bohne-Lang, A.: Semantische Metadaten für den Webauftritt einer Bibliothek (2016) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 4337) [ClassicSimilarity], result of:
          0.062734045 = score(doc=4337,freq=24.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 4337, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4337)
      0.25 = coord(1/4)
    
    Abstract
    Das Semantic Web ist schon seit über 10 Jahren viel beachtet und hat mit der Verfügbarkeit von Resource Description Framework (RDF) und den entsprechenden Ontologien einen großen Sprung in die Praxis gemacht. Vertreter kleiner Bibliotheken und Bibliothekare mit geringer Technik-Affinität stehen aber im Alltag vor großen Hürden, z.B. bei der Frage, wie man diese Technik konkret in den eigenen Webauftritt einbinden kann: man kommt sich vor wie Don Quijote, der versucht die Windmühlen zu bezwingen. RDF mit seinen Ontologien ist fast unverständlich komplex für Nicht-Informatiker und somit für den praktischen Einsatz auf Bibliotheksseiten in der Breite nicht direkt zu gebrauchen. Mit Schema.org wurde ursprünglich von den drei größten Suchmaschinen der Welt Google, Bing und Yahoo eine einfach und effektive semantische Beschreibung von Entitäten entwickelt. Aktuell wird Schema.org durch Google, Microsoft, Yahoo und Yandex weiter gesponsert und von vielen weiteren Suchmaschinen verstanden. Vor diesem Hintergrund hat die Bibliothek der Medizinischen Fakultät Mannheim auf ihrer Homepage (http://www.umm.uni-heidelberg.de/bibl/) verschiedene maschinenlesbare semantische Metadaten eingebettet. Sehr interessant und zukunftsweisend ist die neueste Entwicklung von Schema.org, bei der man eine 'Library' (https://schema.org/Library) mit Öffnungszeiten und vielem mehr modellieren kann. Ferner haben wir noch semantische Metadaten im Open Graph- und Dublin Core-Format eingebettet, um alte Standards und Facebook-konforme Informationen maschinenlesbar zur Verfügung zu stellen.
  19. Markus, K.: Metadatenschemata für Forschungsdaten : Generische Standards und Spezifika in der Biologie und den Ingenieurwissenschaften (2020) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 1134) [ClassicSimilarity], result of:
          0.062734045 = score(doc=1134,freq=24.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 1134, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1134)
      0.25 = coord(1/4)
    
    Abstract
    Forschungsdaten sind von zunehmender Wichtigkeit für die Wissenschaft, Forschungsförderer und schließlich auch für die Arbeit an Bibliotheken. Sie sollen nicht nur veröffentlicht werden, sondern nach ihrer Publikation auch auffindbar und nachnutzbar sein, wie von den FAIR-Prinzipien gefordert. Die beschreibenden Metadaten müssen daher in ausreichendem Detail vorliegen, sowie standardisiert und maschinenverwendbar sein, um den Datenaustausch zu ermöglichen. Im Zuge dieser Entwicklung haben sich verschiedene Metadatenschemata und weitere Metadatenstandards sowohl für eine generische Beschreibung von Forschungsdaten, als auch für fachspezifische Metadaten einer Wissenschaftsdisziplin oder -teildisziplin etabliert. In diesem Beitrag wird eine Auswahl von weitverbreiteten generischen Standards sowie exemplarisch einzelne fachspezifische Standards aus der Biologie und den Ingenieurwissenschaft vorgestellt. Dabei wird auch die Kultur des Datenaustausches in den behandelten Fachdisziplinen beleuchtet, in dessen Kontext sich die entsprechenden Metadatenschemata herausbildet haben. Weiterhin wird auch ein kurzer Ausblick auf die Plattformen, die den Austausch von Daten- und Metadatenstandards, sowie ihre Weiterentwicklung und ihre Referenz unterstützen einbezogen. Bei der Forschungsdokumentation und entsprechender Anwendung von Metadatenstandards im Forschungsalltag bestehen weiterhin Hürden aufgrund des Aufwandes. Softwareanwendungen die die Dokumentation erleichtern und in die Metadatenschemata integriert werden könnten werden kurz diskutiert. In all diesen Bereichen können sich Bibliotheken unterstützend oder gestaltend einbringen und ihre Expertise gewinnbringend in Kommunikation mit der Wissenschaft zur Verfügung stellen.
  20. Schroeder, K.: Persistant identifiers im Kontext von Metadaten (2003) 0.02
    0.015525885 = product of:
      0.06210354 = sum of:
        0.06210354 = weight(_text_:und in 2743) [ClassicSimilarity], result of:
          0.06210354 = score(doc=2743,freq=12.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42016557 = fieldWeight in 2743, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2743)
      0.25 = coord(1/4)
    
    Abstract
    Metadaten und Persistent Identifiers (PI) sind zwei eigenständige Bereiche, die auf syntaktischer, semantischer und funktionaler Ebene miteinander in Beziehung stehen. Die Standardisierung beider Bereiche schafft die Voraussetzung, Metadaten mit Pls zu kombinieren und dadurch deren Vorteile synergetisch zu nutzen wie z. B. in Form einer zuverlässigen Referenz von Metadaten auf den Volltext oder kontext-sensitiver Verknüpfungen. Ziel dieses Aufsatzes ist eine Diskussion über die Standardisierung der Schnittmenge aus Metadaten und Pls. Dazu werden zunächst Überschneidungen aufsyntaktischer und semantischer Ebene dargestellt. Anhand der Uniform Resource Name (URN) Implementation Der Deutschen Bibliothek wird die Wechselbeziehung auf funktionaler Ebene exemplarisch verdeutlicht.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.205-209

Authors

Years

Languages

  • d 98
  • e 40

Types

  • a 119
  • el 24
  • m 5
  • x 4
  • s 2
  • b 1
  • n 1
  • r 1
  • More… Less…