-
Söhler, M.: "Dumm wie Google" war gestern : semantische Suche im Netz (2011)
0.01
0.011249931 = product of:
0.044999722 = sum of:
0.044999722 = weight(_text_:und in 440) [ClassicSimilarity], result of:
0.044999722 = score(doc=440,freq=28.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.32090676 = fieldWeight in 440, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=440)
0.25 = coord(1/4)
- Abstract
- "Casablanca" bringt bei der Google-Suche Millionen Ergebnisse. Ist die Stadt gemeint oder der Film? Suchmaschinen sind dumm und schnell. Schema.org will das ändern.
- Content
- "6.500 Einzelsprachen so zu verstehen, dass noch die dümmsten Maschinen sie in all ihren Sätzen, Wörtern, Bedeutungen nicht nur erfassen, sondern auch verarbeiten können - das ist ein komplexer Vorgang, an dem große Teile des Internets inklusive fast aller Suchmaschinen bisher gescheitert sind. Wem schon der gerade gelesene Satz zu komplex erscheint, dem sei es einfacher ausgedrückt: Erstmal geht es um "Teekesselchen". Wörter haben oft mehrere Bedeutungen. Einige kennen den "Kanal" als künstliche Wasserstraße, andere kennen ihn vom Zappen am Fernsehgerät. Die Waage kann zum Erfassen des Gewichts nützlich sein oder zur Orientierung auf der Horoskopseite einer Zeitung. Casablanca ist eine Stadt und ein Film zugleich. Wo Menschen mit der Zeit zu unterscheiden lernen, lernen dies Suchmaschinen von selbst nicht. Nach einer entsprechenden Eingabe listen sie dumpf hintereinander weg alles auf, was sie zum Thema finden können. "Dumm wie Google", könnte man sagen, "doof wie Yahoo" oder "blöd wie Bing". Damit das nicht so bleibt, haben sich nun Google, Yahoo und die zu Microsoft gehörende Suchmaschine Bing zusammengetan, um der Suche im Netz mehr Verständnis zu verpassen. Man spricht dabei auch von einer "semantischen Suche". Das Ergebnis heißt Schema.org. Wer die Webseite einmal besucht, sich ein wenig in die Unterstrukturen hereinklickt und weder Vorkenntnisse im Programmieren noch im Bereich des semantischen Webs hat, wird sich überfordert und gelangweilt wieder abwenden.
- Neue Standards Doch was hier entstehen könnte, hat das Zeug dazu, Teile des Netzes und speziell die Funktionen von Suchmaschinen mittel- oder langfristig zu verändern. "Große Player sind dabei, sich auf Standards zu einigen", sagt Daniel Bahls, Spezialist für Semantische Technologien beim ZBW Leibniz-Informationszentrum Wirtschaft in Hamburg. "Die semantischen Technologien stehen schon seit Jahren im Raum und wurden bisher nur im kleineren Kontext verwendet." Denn Schema.org lädt Entwickler, Forscher, die Semantic-Web-Community und am Ende auch alle Betreiber von Websites dazu ein, an der Umgestaltung der Suche im Netz mitzuwirken. "Damit wollen Google, Bing und Yahoo! dem Info-Chaos im WWW den Garaus machen", schreibt André Vatter im Blog ZBW Mediatalk. Inhalte von Websites sollen mit einem speziellen, aber einheitlichen Vokabular für die Crawler der Suchmaschinen gekennzeichnet und aufbereitet werden. Indem Schlagworte, so genannte Tags, in den Code von Websites eingebettet werden, sind Suchmachinen nicht mehr so sehr auf die Analyse der natürlichen Sprache angewiesen, um Texte inhaltlich zu erfassen. Im Blog wird dies als "Semantic Web light" bezeichnet - ein semantisches Web auf niedrigster Ebene. Aber selbst das werde "schon viel bewirken", meint Bahls. "Das semantische Web wird sich über die nächsten Jahrzehnte evolutionär weiterentwickeln." Einen "Abschluss" werde es nie geben, "da eine einheitliche Formalisierung von Begrifflichkeiten auf feiner Stufe kaum möglich ist."
- "Gemeinsames Format für strukturierte Daten" Aber warum sollten Google, Yahoo und Bing plötzlich zusammenarbeiten, wo doch bisher die Konkurrenz das Verhältnis prägte? Stefan Keuchel, Pressesprecher von Google Deutschland, betont, alle beteiligten Unternehmen wollten "ein deutliches Zeichen setzen, um die Qualität der Suche zu verbessern". Man entwickele "ein gemeinsames Format für strukturierte Daten, mit dem Dinge ermöglicht werden, die heute noch nicht möglich sind - Stichwort: semantische Suche". Die Ergebnisse aus Schema.org würden "zeitnah" in die Suchmaschine integriert, "denn einen Zeitplan" gebe es nicht. "Erst mit der Einigung auf eine gemeinsame Sprache können Suchmaschinen einen Mehrwert durch semantische Technologien generieren", antwortet Daniel Bahls auf die Frage nach Gemeinsamkeit und Konkurrenz der Suchmaschinen. Er weist außerdem darauf hin, dass es bereits die semantische Suchmaschine Sig.ma gibt. Geschwindigkeit und Menge der Ergebnisse nach einer Suchanfrage spielen hier keine Rolle. Sig.ma sammelt seine Informationen allein im Bereich des semantischen Webs und listet nach einer Anfrage alles Bekannte strukturiert auf."
-
Becker, H.-J.; Hengel, C.; Neuroth, H.; Weiß, B.; Wessel, C.: ¬Die Virtuelle Fachbibliothek als Schnittstelle für eine fachübergreifende Suche in den einzelnen Virtuellen Fachbibliotheken : Definition eines Metadaten-Kernsets (VLib Application Profile) (2002)
0.01
0.010521155 = product of:
0.04208462 = sum of:
0.04208462 = weight(_text_:und in 3856) [ClassicSimilarity], result of:
0.04208462 = score(doc=3856,freq=12.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.30011827 = fieldWeight in 3856, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3856)
0.25 = coord(1/4)
- Abstract
- Der folgende Beitrag beschäftigt sich nicht mit einer konkreten Virtuellen Fachbibliothek, sondern mit dem übergreifenden Themenkomplex "Metadaten" und der Fragestellung, wie Metadaten für eine fachübergreifende Suche über alle Virtuellen Fachbibliotheken eingesetzt werden können. Im Rahmen des Aufbaus der Virtuellen Fachbibliotheken hat die Projektkoordinierung Unterarbeitsgruppen zur Lösung spezifischer Fragestellungen ins Leben gerufen. Der Arbeitsbereich "Metadaten" ist von dem von der DFG geförderten Projekt META-LIB (Metadaten-Initiative deutscher Bibliotheken) mit den Teilprojekten an Der Deutschen Bibliothek und der SUB Göttingen übernommen worden. META-LIB erhielt die Aufgabe, "Empfehlungen zur Definition eines Metadaten-Core-Sets für die verteilte Suche über die Virtuellen Fachbibliotheken" zu entwickeln. Im folgenden werden die Empfehlungen vorgestellt. Sie basieren auf den Ergebnissen und der Auswertung von Antworteng eines Internet-Fragebogens, in dem die Datenelemente erfragt wurden, die in den einzelnen Virtuellen Fachbibliotheken zur Erschließung verwendet bzw. benötigt werden. Für die Formulierung der Empfehlungen und zur Abstimmung sind zwei MetadatenWorkshops (am 16. Mai 2001 in der SUB Göttingen und am 9./10. August 2001 in der Deutschen Bibliothek Frankfurt am Main) durchgeführt worden, deren Ergebnisse und Diskussionen als Grundlage dienen.
-
Schwänzl, R.: Modulare MetaDaten (2000)
0.01
0.0104154125 = product of:
0.04166165 = sum of:
0.04166165 = weight(_text_:und in 5461) [ClassicSimilarity], result of:
0.04166165 = score(doc=5461,freq=6.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.29710194 = fieldWeight in 5461, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=5461)
0.25 = coord(1/4)
- Abstract
- Die Syntax des HTML Meta-Tags erlaubt die Darstellung von Grundinformationen über Ressourcen. Jedoch schon bei einfachen Gruppierungsanforderungen werden Absprachen erforderlich, die keinen Rückhalt in der HTML Spezifikation haben und deshalb nicht mehr maschinenverstehbar sind. Die bereits auf der zweiten Dublin Core Tagung beschriebene Notwendigkeit der Modularität von Metadaten (Warwick Framework) (Verfeinerung und Erweiterung von Dublin Core, Zielsetzungen außerhalb eines eng verstandenen Resource Discovery, Bezüge zwischen Vokabularen) kann in zufriedenstellender Form mit dem Meta-Tag nicht implementiert werden. Fortschritte auch für die semantische Interoperabilität lassen sich durch den Einsatz des vom W3 Konsortium definierten Resource Description Framework (RDF) Schema erzielen
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.87-94
-
Wolf, S.; Hartmann, S.; Fischer, T.; Rühle, S.: Deutsche Übersetzung des DCMI-type-vocabulary (2009)
0.01
0.0104154125 = product of:
0.04166165 = sum of:
0.04166165 = weight(_text_:und in 215) [ClassicSimilarity], result of:
0.04166165 = score(doc=215,freq=6.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.29710194 = fieldWeight in 215, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=215)
0.25 = coord(1/4)
- Abstract
- Das DCMI Type Vocabulary ist ein kontrolliertes Vokabular für Objekttypen. Es unterstützt die Interoperabilität durch die Vorgabe von Termen, die als Wert für das Dublin Core Type Element anwendungsübergreifend genutzt werden können. Das Vokabular setzt sich aus 12 allgemeinen Termen zusammen, die gleichzeitig auch Teil der umfangreicheren DCMI Metadata Terms sind. Die vorliegende Übersetzung entstand auf Anfrage und in Zusammenarbeit mit einer Arbeitsgruppe der DINI-AG Elektronisches Publizieren, die im Kontext der Weiterentwicklung von XMetaDiss zu XmetaDissPlus und dem DINI-Zertifikat ein "Gemeinsames Vokabular für Publikations- und Dokumenttpyen" erarbeitet hat. Dieses Vokabular stützt sich auf die vorhandenen, international verbreiteten Vorgaben, insbesondere das vorliegende DCMI Type Vocabulary sowie das Publication Type Vocabulary der Driver Guidelines.
-
Kopácsi, S.; Hudak, R.; Ganguly, R.: Implementation of a classification server to support metadata organization for long term preservation systems (2017)
0.01
0.0104154125 = product of:
0.04166165 = sum of:
0.04166165 = weight(_text_:und in 4915) [ClassicSimilarity], result of:
0.04166165 = score(doc=4915,freq=6.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.29710194 = fieldWeight in 4915, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=4915)
0.25 = coord(1/4)
- Abstract
- In diesem Artikel beschreiben wir die Implementierung eines Klassifikationsservers für Metadatenorganisation in einem Langzeitarchivierungssystem für digitale Objekte. Nach einer kurzen Einführung in Klassifikationen und Wissensorganisationen stellen wir die Anforderungen an das zu implementierende System vor. Wir beschreiben sämtliche Simple Knowledge Organization System (SKOS) Management Tools, die wir untersucht haben, darunter auch Skosmos, die Lösung, die wir für die Implementierung gewählt haben. Skosmos ist ein open source, webbasierter SKOS Browser, basierend auf dem Jena Fuseki SPARQL Server. Wir diskutieren einige entscheidende Schritte während der Installation der ausgewählten Tools und präsentieren sowohl die potentiell auftretenden Probleme mit den verwendeten Klassifikationen als auch mögliche Lösungen.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.225-243
-
Berkemeyer, J.; Weiß, B.: Sammlung von Online-Dissertationen an Der Deutschen Bibliothek : Neue Metadatenschnittstelle und neues Metadatenformat (1999)
0.01
0.010308583 = product of:
0.041234333 = sum of:
0.041234333 = weight(_text_:und in 2764) [ClassicSimilarity], result of:
0.041234333 = score(doc=2764,freq=2.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.29405463 = fieldWeight in 2764, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=2764)
0.25 = coord(1/4)
-
Nerlich, H.; Stoll, C.: ¬Der Deutsche Dublin Core Tag 1999 (1999)
0.01
0.010308583 = product of:
0.041234333 = sum of:
0.041234333 = weight(_text_:und in 5404) [ClassicSimilarity], result of:
0.041234333 = score(doc=5404,freq=2.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.29405463 = fieldWeight in 5404, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=5404)
0.25 = coord(1/4)
- Source
- nfd Information - Wissenschaft und Praxis. 50(1999) H.8, S.497-500
-
Schoger, A.; Frommer, J.: Heterogen - was nun? : Evaluierung heterogener bibliographischer Metadaten (2000)
0.01
0.010308583 = product of:
0.041234333 = sum of:
0.041234333 = weight(_text_:und in 5465) [ClassicSimilarity], result of:
0.041234333 = score(doc=5465,freq=2.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.29405463 = fieldWeight in 5465, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=5465)
0.25 = coord(1/4)
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.110-128
-
Schweibenz, W.: Metadaten für Museen : Ein Bericht vom CIMI Dublin core Metadaten Workshop vom 27. bis 28. April 2000 in Amstelveen, Niederlande (2000)
0.01
0.010308583 = product of:
0.041234333 = sum of:
0.041234333 = weight(_text_:und in 5959) [ClassicSimilarity], result of:
0.041234333 = score(doc=5959,freq=2.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.29405463 = fieldWeight in 5959, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=5959)
0.25 = coord(1/4)
- Source
- nfd Information - Wissenschaft und Praxis. 51(2000) H.5, S.291-292
-
Behme, H.: Angelpunkt : Wo die Extensible Markup Language derzeit steht (2001)
0.01
0.010308583 = product of:
0.041234333 = sum of:
0.041234333 = weight(_text_:und in 6762) [ClassicSimilarity], result of:
0.041234333 = score(doc=6762,freq=2.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.29405463 = fieldWeight in 6762, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=6762)
0.25 = coord(1/4)
- Abstract
- Ob EDI-Einsatz oder Dokumentenverarbeitung, ob B2B ode B2C: XML ist nicht weit. Und das Umfeld der Metasprache entwickelt sich immer weiter
-
Korb, N.; Wollschläger, T.: Koordinierungsstelle DissOnline auf dem 2. Bibliothekskongress in Leipzig : Strategien zur Lösung von technischen und Rechtsfragen bei Online-Hochschulschriften (2004)
0.01
0.010308583 = product of:
0.041234333 = sum of:
0.041234333 = weight(_text_:und in 3385) [ClassicSimilarity], result of:
0.041234333 = score(doc=3385,freq=8.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.29405463 = fieldWeight in 3385, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3385)
0.25 = coord(1/4)
- Abstract
- Zur Unterstützung von Autoren, Bibliotheken, Verlagen und weiteren Institutionen bei der Publikation von elektronischen Hochschulschriften sowie zur Förderung ihrer Verbreitung und Nutzung wurde 2001 auf Empfehlung des Projektes der Deutschen Forschungsgemeinschaft (DFG) »Dissertationen Online« die Koordinierungsstelle DissOnline an Der Deutschen Bibliothek eingerichtet. Die Koordinierungsstelle hat sich inzwischen in Deutschland etabliert. Seit ihrer Gründung 2001 führte die Koordinierungsstelle auf jedem Bibliothekartag eine Veranstaltung durch. Auf dem diesjährigen 2. Bibliothekskongress in Leipzig wurde in einer Einführung von Dr. Thomas Wollschläger (die Deutsche Bibliothek Frankfurt am Main) über die aktuelle Arbeit der Koordinierungsstelle berichtet. Es wurden neue Entwicklungen bei der Informationsvermittlung mittels DissOnline vorgestellt und es konnte sowohl eine wachsende Nutzung der Möglichkeit zur OnlinePublikation als auch ein verstärkter Zugriff - auf Online-Hochschulschriften selbst verzeichnet werden. Deutlich wurden dabei auch die Vorteile der Metadaten für eine effektive Nutzung der Online-Veröffentlichungen.
-
Krämer, T.: Interoperabilität von Metadatenstandards und Dokumentretrieval (2004)
0.01
0.010308583 = product of:
0.041234333 = sum of:
0.041234333 = weight(_text_:und in 5096) [ClassicSimilarity], result of:
0.041234333 = score(doc=5096,freq=2.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.29405463 = fieldWeight in 5096, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=5096)
0.25 = coord(1/4)
-
Sprenger, M.: Best-Practice-Guide für das Metadatenschema DataCite (2020)
0.01
0.010308583 = product of:
0.041234333 = sum of:
0.041234333 = weight(_text_:und in 597) [ClassicSimilarity], result of:
0.041234333 = score(doc=597,freq=8.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.29405463 = fieldWeight in 597, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=597)
0.25 = coord(1/4)
- Abstract
- "Kürzlich erschien Best-Practice-Guide für das Metadatenschema DataCite aufmerksam machen, der in Zusammenarbeit einiger Münchner Institutionen in Verbindung mit dem Modellprojekt "eHumanities - interdisziplinär" entstanden ist: https://doi.org/10.5281/zenodo.3559800. Der Guide, der unter Beteiligung des Leibniz-Rechenzentrums der Bayerischen Akademie der Wissenschaften, der IT-Gruppe Geisteswissenschaften (LMU) und der Universitätsbibliothek der LMU erstellt wurde, stellt eine Empfehlung für den Einsatz von DataCite (https://schema.datacite.org/) an den beteiligten Institutionen dar. Dabei ist er so formuliert, dass er sich problemlos auf andere Institutionen oder Szenarien übertragen lässt. Die einzelnen Teile des Guides sowie Anwendungsbeispiele als XML-Dateien sind auf GitHub veröffentlicht: https://github.com/UB-LMU/DataCite_BestPracticeGuide . Das Repositorium kann und soll gerne für Feedback genutzt werden. Um die Befüllung der DataCite-Felder zu erleichtern, wurde durch die IT-Gruppe Geisteswissenschaften der bereits verfügbare DataCite-Generator aktualisiert und mit Erklärungen aus dem Best-Practice-Guide verlinkt: https://dhvlab.gwi.uni-muenchen.de/datacite-generator/ ; der Quellcode ist ebenfalls verfügbar: https://github.com/UB-LMU/datacite-metadata-generator. Weitere Informationen zum Best-Practice-Guide finden Sie in der Begleitpublikation "Standardisierung eines Standards: Warum und wie ein Best-Practice-Guide für das Metadatenschema DataCite entstand" (http://www.kit.gwi.uni-muenchen.de/?p=42800)."
-
Baker, T.; Fischer, T.: Bericht von der Dublin-Core-Konferenz (DC-2005) in Madrid (2005)
0.01
0.009981244 = product of:
0.039924975 = sum of:
0.039924975 = weight(_text_:und in 5872) [ClassicSimilarity], result of:
0.039924975 = score(doc=5872,freq=30.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.2847172 = fieldWeight in 5872, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=5872)
0.25 = coord(1/4)
- Content
- "1. Die Konferenz Vom 12. bis 15. September 2005 fand in Leganés (Madrid) die "International Conference an Dublin Core and Metadata Applications" mit dem Thema "Vocabularies in Practice" statt [DC2005]. Gastgeber war der Fachbereich Bibliothekswesen und Dokumentation der "Universidad Carlos III de Madrid" zusammen mit dem Institut "Agustin Millares" für Dokumentation und Wissensmanagement. Den 214 Teilnehmern aus 33 Ländern wurden 14 ausführliche und 18 Kurzpräsentationen geboten sowie zehn "Special Sessions" [DC2005-PAPERS]. Fünf Einführungsseminare zu Themen der Metadaten und maschinell verarbeitbarer Thesauri wurden abgehalten. Die Hauptreden der vier Konferenztage wurden von Thomas Baker (Staats- und Universitätsbibliothek Göttingen), Ricardo Baeza (University of Chile), Johannes Keizer (Food and Agriculture Organization of the United Nations) und Eric Miller (World Wide Web Consortium) gehalten. Plenarvorträge wurden simultan ins Spanische übersetzt und mehrere Treffen wurden in französischer oder spanischer Sprache abgehalten. Die Dublin-Core-Konferenz ist auch das zentrale Ereignis des Jahres für die Dublin Core Metadata Initiative (DCMI) als Organisation. Vor und nach der Konferenz tagten das DCMI Board of Trustees, ein Gremium aus Metadatenexperten und nationalen Vertretern ("Affiliates"); das "Usage Board", das den Standard inhaltlich verwaltet, und das "Advisory Board", das hauptsächlich aus Leitern von DCMI-Arbeitsgruppen besteht. Während der Konferenz haben sich vierzehn Arbeitsgruppen zu speziellen Fragen im Bereich Metadaten getroffen. 2. Von der Kernsemantik zum Modell "Zehn Jahre Dublin Core" war der Hintergrund für die Keynote-Präsehtation von Thomas Baker, DCMI Director of Specifications and Documentation. März 1995 fand in Dublin (Ohio) der Workshop statt, auf dem die Kernelemente erstmals entworfen wurden - Creator, Subject, Date, usw. - die der Initiative den Namen gegeben haben. Dieser "Dublin Core" wurde 1998 bei der Internet Engineering Task Force als Request for Comments (RFC 2413) publiziert, 2000 formal als Standard in Europa (CWA 13874/2000 bei CEN), 2001 in den USA (Z39.95 bei NISO) und 2003 international (ISO 15836/2003) anerkannt [DUBLINCORE]. Am Anfang wurde der Dublin Core als Datenformat konzipiert - d.h. als streng festgelegte Vorlage für digitale Karteikarten. Bereits früh wurden die Elemente jedoch als Vokabular aufgefasst, d.h. als Satz prinzipiell rekombinierbarer Elemente für Beschreibungen, die den Anforderungen spezifischer Anwendungsbereiche angepasst werden konnten - kurz, als Bausteine für Anwendungsprofile. Ausgehend von der vermeintlich simplen Aufgabe, Webseiten auf einfache Art zu beschreiben, hat sich ab 1997 in gegenseitiger Beeinflussung mit der sich entwickelnden Webtechnik von HTML bis hin zu XML und RDF ein allgemeines Modell für Metadaten herauskristallisiert.
Im März 2005 hat die DCMI mit der Verabschiedung des so genannten "Abstrakten Modells" einen wichtigen Meilenstein erreicht. Dieses DC-Modell ist die formale Grammatik der Metadatensprache, die sich im Laufe der Jahre entwickelt hat. Es hat eine gemeinsame Wurzel mit dem Modell des Semantic Web beim W3C und teilt dessen Grundstruktur, bleibt jedoch absichtlich einfacher als die voll entwickelten Ontologiesprachen des letzteren. Das abstrakte Modell dient als Maßstab für den systematischen Vergleich verschiedenartiger Implementierungstechniken in Bezug auf deren Ausdrucksfähigkeit. Ein hierarchisch aufgebautes XML-Schema kann beispielsweise Metainformationen differenzierter übertragen als ein HTML-Webdokument mit einem flachen Satz eingebetteter META-Tags. Dagegen kann RDF expliziter als ein XML-Schema die Semantik einer Beschreibung in einen größeren semantischen Zusammenhang verankern und somit die Rekombinierbarkeit der Daten erleichtern. In der Praxis müssen Systementwickler sich für die eine oder andere Implementierungstechnik entscheiden, dabei liefern die Metadaten nur eines von mehreren Kriterien. Das DC-Modell bietet eine Basis für den Vergleich der möglichen Lösungen in Hinblick auf die Unterstützung von Metadaten und dient somit als Vorbereitung für deren spätere Integration. Die Interoperabilität der Metadaten ist aber nicht nur eine Frage einer gemeinsamen Semantik mit einem gemeinsamen Modell. Wie auch bei menschlichen Sprachen wird die Interoperabilität umso vollkommener, je besser die Sprachgebräuche verstanden werden - d.h. die Katalogisierungsregeln, die den Metadaten zugrunde liegen. Die Metadatenregeln, die innerhalb einer Anwendungsgemeinschaft benutzt werden, sind Gegenstand eines so genannten Anwendungsprofils. Viele DCMI-Arbeitsgruppen sehen ihre Hauptaufgabe darin, ein Anwendungsprofil für ein bestimmtes Arbeitsgebiet zu erstellen (siehe Abschnitt 6, unten). Diesem Trend zufolge orientiert sich das DCMI Usage Board zunehmend auf die Überprüfung ganzer Anwendungsprofile auf Übereinstimmung mit dem DCMI-Modell."
-
Rusch-Feja, D.D.: Erschließung von Internet-Quellen durch Metadata : Ergebnisbericht des 2. DELOS-Workshop (1996)
0.01
0.009719026 = product of:
0.038876105 = sum of:
0.038876105 = weight(_text_:und in 6038) [ClassicSimilarity], result of:
0.038876105 = score(doc=6038,freq=4.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.2772374 = fieldWeight in 6038, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6038)
0.25 = coord(1/4)
- Abstract
- Grundlage war die Diskussion über den zur Zeit vorliegenden Vorschlag für einen Satz von Metadata-Elementen für die formale und inhaltliche Erschließung von Internet-Quellen, den man 'Dublin Core' nennt (vgl dazu die Beiträge von S. Weibel sowie C. Lagoze, C.A. Lynch u. R. Daniel Und P. Miller)
-
Kamke, H.-U.; Zimmermann, K.: Metadaten und Online-Learning (2003)
0.01
0.009719026 = product of:
0.038876105 = sum of:
0.038876105 = weight(_text_:und in 2829) [ClassicSimilarity], result of:
0.038876105 = score(doc=2829,freq=4.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.2772374 = fieldWeight in 2829, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2829)
0.25 = coord(1/4)
- Source
- Information - Wissenschaft und Praxis. 54(2003) H.6, S.345-348
-
Frodl, C. (Bearb.); Fischer, T. (Bearb.); Baker, T. (Bearb.); Rühle, S. (Bearb.): Deutsche Übersetzung des Dublin-Core-Metadaten-Elemente-Sets (2007)
0.01
0.008927496 = product of:
0.035709985 = sum of:
0.035709985 = weight(_text_:und in 1516) [ClassicSimilarity], result of:
0.035709985 = score(doc=1516,freq=6.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.25465882 = fieldWeight in 1516, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1516)
0.25 = coord(1/4)
- Abstract
- Dublin-Core-Metadaten-Elemente sind ein Standard zur Beschreibung unterschiedlicher Objekte. Die Kernelemente dieses Standards werden in dem "Dublin Core Metadata Element Set" beschrieben (http://www.dublincore.org/documents/dces/). Das Set setzt sich aus 15 Elementen zusammen, die gleichzeitig auch Teil der umfangreicheren "DCMI Metadata Terms" (http://www.dublincore.org/documents/dcmi-terms/) sind, wobei die "DCMI Metadata Terms" neben weiteren Elementen auch ein kontrolliertes Vokabular für Objekttypen enthalten. Die Übersetzung entstand zwischen April und Juli 2007 in der KIM-Arbeitsgruppe Übersetzung DCMES (http://www.kim-forum.org/kim-ag/index.htm). Anfang Juli 2007 wurde der Entwurf der Übersetzung in einem Blog veröffentlicht und die Öffentlichkeit aufgefordert, diesen Entwurf zu kommentieren. Anfang August wurden dann die in dem Blog gesammelten Kommentare in der KIM-Arbeitsgruppe Übersetzung DCMES diskutiert und so weit möglich in den Übersetzungsentwurf eingearbeitet.
-
Henze, V.; Schefczik, M.: Metadaten : Beziehungen zwischen Dublin Core Set, Warwick Framework und Datenformaten (1997)
0.01
0.008590487 = product of:
0.034361947 = sum of:
0.034361947 = weight(_text_:und in 167) [ClassicSimilarity], result of:
0.034361947 = score(doc=167,freq=2.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.24504554 = fieldWeight in 167, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=167)
0.25 = coord(1/4)
-
Cremer, M.; Neuroth, H.: ¬Das CORC-Projekt von OCLC an der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (2000)
0.01
0.008590487 = product of:
0.034361947 = sum of:
0.034361947 = weight(_text_:und in 5787) [ClassicSimilarity], result of:
0.034361947 = score(doc=5787,freq=2.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.24504554 = fieldWeight in 5787, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=5787)
0.25 = coord(1/4)
-
Petritsch, B.: Metadata for research data in practice (2017)
0.01
0.008590487 = product of:
0.034361947 = sum of:
0.034361947 = weight(_text_:und in 4913) [ClassicSimilarity], result of:
0.034361947 = score(doc=4913,freq=2.0), product of:
0.14022678 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06322505 = queryNorm
0.24504554 = fieldWeight in 4913, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4913)
0.25 = coord(1/4)
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.200-207