-
Keßler, M.: KIM - Kompetenzzentrum Interoperable Metadaten : Gemeinsamer Workshop der Deutschen Nationalbibliothek und des Arbeitskreises Elektronisches Publizieren (AKEP) (2007)
0.02
0.016193382 = product of:
0.06477353 = sum of:
0.06477353 = weight(_text_:und in 3406) [ClassicSimilarity], result of:
0.06477353 = score(doc=3406,freq=18.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.44108194 = fieldWeight in 3406, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3406)
0.25 = coord(1/4)
- Abstract
- Das Kompetenzzentrum Interoperable Metadaten (KIM) ist eine Informations- und Kommunikationsplattform für Metadatenanwender und -entwickler zur Verbesserung der Interoperabilität von Metadaten im deutschsprachigen Raum. KIM unterstützt und fördert die Erarbeitung von Metadatenstandards, die interoperable Gestaltung von Formaten und damit die optimale Nutzung von Metadaten in digitalen Informationsumgebungen mittels Lehrmaterialien, Schulungen und Beratungen. Das Kompetenzzentrum entsteht im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten Projekts KIM unter der Federführung der Niedersächsischen Staats- und Universitätsbibliothek Göttingen (SUB) in Zusammenarbeit mit der Deutschen Nationalbibliothek (DNB). Projektpartner sind in der Schweiz die Hochschule für Technik und Wirtschaft HTW Chur, die Eidgenössische Technische Hochschule (ETH) Zürich und in Österreich die Universität Wien. Aufgabe des Kompetenzzentrums ist es, die Interoperabilität von Metadaten zu verbessern. Interoperabilität ist die Fähigkeit zur Zusammenarbeit von heterogenen Systemen. Datenbestände unabhängiger Systeme können ausgetauscht oder zusammengeführt werden, um z. B. eine systemübergreifende Suche oder das Browsen zu ermöglichen. Daten werden zum Teil in sehr unterschiedlichen Datenbanksystemen gespeichert. Interoperabilität entsteht dann, wenn die Systeme umfangreiche Schnittstellen implementieren, die ein weitgehend verlustfreies Mapping der internen Datenrepräsentation ermöglichen.
-
Birkner, M.; Gonter, G.; Lackner, K.; Kann, B.; Kranewitter, M.; Mayer, A.; Parschalk, A.: Guideline zur Langzeitarchivierung (2016)
0.02
0.016193382 = product of:
0.06477353 = sum of:
0.06477353 = weight(_text_:und in 4139) [ClassicSimilarity], result of:
0.06477353 = score(doc=4139,freq=18.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.44108194 = fieldWeight in 4139, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4139)
0.25 = coord(1/4)
- Abstract
- Guideline zur Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens. Diese Guideline soll Hilfestellung für die Langzeitarchivierung von Daten und Objekten im Kontext des Publikations- und Forschungswesens bieten. Sie ist ausdrücklich nicht für den Kontext der Compliance anwendbar. Sie soll dazu ermächtigen, die richtigen Fragen zur Auswahl der für die eigene Institution geeigneten Langzeitarchivierungs-Lösung zu stellen und bei der Entscheidung für eine System-Lösung behilflich sein. Langzeitarchivierungssysteme werden hier als Systeme verstanden, die im Workflow hinter einem Repositorium stehen, in dem digitale Objekte und ihre Metadaten gespeichert und angezeigt werden sowie recherchierbar sind. Allfällige Begriffserklärungen finden Sie im Glossar des Clusters C (Aufbau eines Wissensnetzwerks: Erarbeitung eines Referenzmodells für den Aufbau von Repositorien / Themenbereich Terminologie und Standards).
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 69(2016) H.1, S.41-57
-
Rusch-Feja, D.: Metadaten und Strukturierung elektronischer Informationen : Bericht über einen Workshop vom 15. bis 17. Dezember 1996 in der Stadt- und Universitätsbibliothek Göttingen (1997)
0.02
0.016093114 = product of:
0.06437246 = sum of:
0.06437246 = weight(_text_:und in 948) [ClassicSimilarity], result of:
0.06437246 = score(doc=948,freq=10.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.4383508 = fieldWeight in 948, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=948)
0.25 = coord(1/4)
- Content
- Mit Darstellung zum Beschluß der IuK-Kommission der wissenschaftlichen Fachgesellschaften und deren Aktivitäten (vgl. auch die Beiträge von Grötschel); ebenso Bezug zum Thema 'Metadaten und Suchmaschinen'
- Source
- nfd Information - Wissenschaft und Praxis. 48(1997) H.5, S.295-302
-
Preza, J.L.: Data science und analytics in libraries (2017)
0.02
0.016093114 = product of:
0.06437246 = sum of:
0.06437246 = weight(_text_:und in 4916) [ClassicSimilarity], result of:
0.06437246 = score(doc=4916,freq=10.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.4383508 = fieldWeight in 4916, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4916)
0.25 = coord(1/4)
- Abstract
- Bibliotheken sind in einer priviligierten Situation: Sie verwalten riesige Mengen von Daten und Informationen. Data Science und Analytics-Methoden ermöglichen es Bibliotheken, den Inhalt, den sie verwalten, voll auszunutzen, um den Nutzern bessere Informationen, Suche und Empfehlungen zu bieten.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.244-248
-
Strötgen, R.; Kokkelink, S.: Metadatenextraktion aus Internetquellen : Heterogenitätsbehandlung im Projekt CARMEN (2001)
0.02
0.01558209 = product of:
0.06232836 = sum of:
0.06232836 = weight(_text_:und in 6808) [ClassicSimilarity], result of:
0.06232836 = score(doc=6808,freq=24.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.42443132 = fieldWeight in 6808, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=6808)
0.25 = coord(1/4)
- Abstract
- Die Sonderfördermaßnahme CARMEN (Content Analysis, Retrieval and Metadata: Effective Networking) zielt im Rahmen des vom BMB+F geförderten Programms GLOBAL INFO darauf ab, in der heutigen dezentralen Informationsweit geeignete Informationssysteme für die verteilten Datenbestände in Bibliotheken, Fachinformationszentren und im Internet zu schaffen. Diese Zusammenführung ist weniger technisch als inhaltlich und konzeptuell problematisch. Heterogenität tritt beispielsweise auf, wenn unterschiedliche Datenbestände zur Inhaltserschließung verschiedene Thesauri oder Klassifikationen benutzen, wenn Metadaten unterschiedlich oder überhaupt nicht erfasst werden oder wenn intellektuell aufgearbeitete Quellen mit in der Regel vollständig unerschlossenen Internetdokumenten zusammentreffen. Im Projekt CARMEN wird dieses Problem mit mehreren Methoden angegangen: Über deduktiv-heuristische Verfahren werden Metadaten automatisch aus Dokumenten generiert, außerdem lassen sich mit statistisch-quantitativen Methoden die unterschiedlichen Verwendungen von Termen in den verschiedenen Beständen aufeinander abbilden, und intellektuell erstellte Crosskonkordanzen schaffen sichere Übergänge von einer Dokumentationssprache in eine andere. Für die Extraktion von Metadaten gemäß Dublin Core (v. a. Autor, Titel, Institution, Abstract, Schlagworte) werden anhand typischer Dokumente (Dissertationen aus Math-Net im PostScript-Format und verschiedenste HTML-Dateien von WWW-Servern deutscher sozialwissenschaftlicher Institutionen) Heuristiken entwickelt. Die jeweilige Wahrscheinlichkeit, dass die so gewonnenen Metadaten korrekt und vertrauenswürdig sind, wird über Gewichte den einzelnen Daten zugeordnet. Die Heuristiken werden iterativ in ein Extraktionswerkzeug implementiert, getestet und verbessert, um die Zuverlässigkeit der Verfahren zu erhöhen. Derzeit werden an der Universität Osnabrück und im InformationsZentrum Sozialwissenschaften Bonn anhand mathematischer und sozialwissenschaftlicher Datenbestände erste Prototypen derartiger Transfermodule erstellt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Hengel, C.: Normdaten und Metadaten : die Idee eines internationalen authority file (2003)
0.02
0.01558209 = product of:
0.06232836 = sum of:
0.06232836 = weight(_text_:und in 2763) [ClassicSimilarity], result of:
0.06232836 = score(doc=2763,freq=24.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.42443132 = fieldWeight in 2763, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2763)
0.25 = coord(1/4)
- Abstract
- Normdaten sind Metadaten besonderer Oualität: Metadaten zu Metadaten. In einem getrennt vom Metadaten-Set zur einzelnen Publikation gebildeten Normdaten-Satz werden die unterschiedlichen in den Publikationen verwendeten Namensformen bzw. Bezeichnungen für dasselbe Objekt zusammengeführt und normiert. Durch die Verwendung von Normdaten als Metadaten wird kontrolliert und sichergestellt, dass z. B. für Autoren, Urheber, Verleger, Sachinhalte etc. gleich bleibende, identische Sucheinstiege und Zugriffspunkte gebildet werden (Authority Control). Für die Recherche wirkt sich die Normierung so aus, dass die zugehörigen Publikationen über alle im Normdatensatz beinhalteten Namensformen und Bezeichnungen gefunden werden können. Durch die Angabe von Attributen und Relationen zu den einzelnen Objekten werden zudem zusätzliche, vernetzte Zugriffspunkte bereitgestellt. Normdaten sind damit ideal zur Bildung von semantischen Navigationsnetzen für die Suche und den Zugriff auf Publikationen und andere Objekte geeignet. Das standardisierte Vokabular und das Nummernsystem einer Normdatei hat aber nur im eigenen Anwendungsbereich Gültigkeit, und die gemeinsame Nutzung von Titeldaten kann durch die Nutzung unterschiedlicher Normdateien behindert werden. Die IFLA-Arbeitsgruppe FRANAR hat mit der Vision eines gemeinsamen Virtuellen Authority File ein Modell entwickelt, wie im Bibliothekswesen Interoperabilität zwischen den nationalen Normdateien hergestellt werden kann. Um die Realisierbarkeit eines solchen Vorhabens nachzuweisen, haben die Library of Congress, OCLC und Die Deutsche Bibliothek ein gemeinsames Projekt vereinbart, in dem exemplarisch für den Bereich der Personennormdaten ein VIAF (Virtual International Authority File) aufgebaut werden soll.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.210-214
-
Woitas, K.: Bibliografische Daten, Normdaten und Metadaten im Semantic Web : Konzepte der bibliografischen Kontrolle im Wandel (2010)
0.02
0.01558209 = product of:
0.06232836 = sum of:
0.06232836 = weight(_text_:und in 1115) [ClassicSimilarity], result of:
0.06232836 = score(doc=1115,freq=24.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.42443132 = fieldWeight in 1115, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1115)
0.25 = coord(1/4)
- Abstract
- Bibliografische Daten, Normdaten und Metadaten im Semantic Web - Konzepte der Bibliografischen Kontrolle im Wandel. Der Titel dieser Arbeit zielt in ein essentielles Feld der Bibliotheks- und Informationswissenschaft, die Bibliografische Kontrolle. Als zweites zentrales Konzept wird der in der Weiterentwicklung des World Wide Webs (WWW) bedeutsame Begriff des Semantic Webs genannt. Auf den ersten Blick handelt es sich hier um einen ungleichen Wettstreit. Auf der einen Seite die Bibliografische Kontrolle, welche die Methoden und Mittel zur Erschließung von bibliothekarischen Objekten umfasst und traditionell in Form von formal-inhaltlichen Surrogaten in Katalogen daherkommt. Auf der anderen Seite das Buzzword Semantic Web mit seinen hochtrabenden Konnotationen eines durch Selbstreferenzialität "bedeutungstragenden", wenn nicht sogar "intelligenten" Webs. Wie kamen also eine wissenschaftliche Bibliothekarin und ein Mitglied des World Wide Web Consortiums 2007 dazu, gemeinsam einen Aufsatz zu publizieren und darin zu behaupten, das semantische Netz würde ein "bibliothekarischeres" Netz sein? Um sich dieser Frage zu nähern, soll zunächst kurz die historische Entwicklung der beiden Informationssphären Bibliothek und WWW gemeinsam betrachtet werden. Denn so oft - und völlig zurecht - die informationelle Revolution durch das Internet beschworen wird, so taucht auch immer wieder das Analogon einer weltweiten, virtuellen Bibliothek auf. Genauer gesagt, nahmen die theoretischen Überlegungen, die später zur Entwicklung des Internets führen sollten, ihren Ausgangspunkt (neben Kybernetik und entstehender Computertechnik) beim Konzept des Informationsspeichers Bibliothek.
- Content
- Magisterarbeit am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin. Vgl. unter: http://woitas.org/wp-content/uploads/2010/11/Kathi-Woitas-Magisterarbeit.pdf.
- Imprint
- Berlin : Humboldt-Universität, Institut für Bibliotheks- und Informationswissenschaft
-
Bohne-Lang, A.: Semantische Metadaten für den Webauftritt einer Bibliothek (2016)
0.02
0.01558209 = product of:
0.06232836 = sum of:
0.06232836 = weight(_text_:und in 4337) [ClassicSimilarity], result of:
0.06232836 = score(doc=4337,freq=24.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.42443132 = fieldWeight in 4337, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4337)
0.25 = coord(1/4)
- Abstract
- Das Semantic Web ist schon seit über 10 Jahren viel beachtet und hat mit der Verfügbarkeit von Resource Description Framework (RDF) und den entsprechenden Ontologien einen großen Sprung in die Praxis gemacht. Vertreter kleiner Bibliotheken und Bibliothekare mit geringer Technik-Affinität stehen aber im Alltag vor großen Hürden, z.B. bei der Frage, wie man diese Technik konkret in den eigenen Webauftritt einbinden kann: man kommt sich vor wie Don Quijote, der versucht die Windmühlen zu bezwingen. RDF mit seinen Ontologien ist fast unverständlich komplex für Nicht-Informatiker und somit für den praktischen Einsatz auf Bibliotheksseiten in der Breite nicht direkt zu gebrauchen. Mit Schema.org wurde ursprünglich von den drei größten Suchmaschinen der Welt Google, Bing und Yahoo eine einfach und effektive semantische Beschreibung von Entitäten entwickelt. Aktuell wird Schema.org durch Google, Microsoft, Yahoo und Yandex weiter gesponsert und von vielen weiteren Suchmaschinen verstanden. Vor diesem Hintergrund hat die Bibliothek der Medizinischen Fakultät Mannheim auf ihrer Homepage (http://www.umm.uni-heidelberg.de/bibl/) verschiedene maschinenlesbare semantische Metadaten eingebettet. Sehr interessant und zukunftsweisend ist die neueste Entwicklung von Schema.org, bei der man eine 'Library' (https://schema.org/Library) mit Öffnungszeiten und vielem mehr modellieren kann. Ferner haben wir noch semantische Metadaten im Open Graph- und Dublin Core-Format eingebettet, um alte Standards und Facebook-konforme Informationen maschinenlesbar zur Verfügung zu stellen.
-
Markus, K.: Metadatenschemata für Forschungsdaten : Generische Standards und Spezifika in der Biologie und den Ingenieurwissenschaften (2020)
0.02
0.01558209 = product of:
0.06232836 = sum of:
0.06232836 = weight(_text_:und in 1134) [ClassicSimilarity], result of:
0.06232836 = score(doc=1134,freq=24.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.42443132 = fieldWeight in 1134, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1134)
0.25 = coord(1/4)
- Abstract
- Forschungsdaten sind von zunehmender Wichtigkeit für die Wissenschaft, Forschungsförderer und schließlich auch für die Arbeit an Bibliotheken. Sie sollen nicht nur veröffentlicht werden, sondern nach ihrer Publikation auch auffindbar und nachnutzbar sein, wie von den FAIR-Prinzipien gefordert. Die beschreibenden Metadaten müssen daher in ausreichendem Detail vorliegen, sowie standardisiert und maschinenverwendbar sein, um den Datenaustausch zu ermöglichen. Im Zuge dieser Entwicklung haben sich verschiedene Metadatenschemata und weitere Metadatenstandards sowohl für eine generische Beschreibung von Forschungsdaten, als auch für fachspezifische Metadaten einer Wissenschaftsdisziplin oder -teildisziplin etabliert. In diesem Beitrag wird eine Auswahl von weitverbreiteten generischen Standards sowie exemplarisch einzelne fachspezifische Standards aus der Biologie und den Ingenieurwissenschaft vorgestellt. Dabei wird auch die Kultur des Datenaustausches in den behandelten Fachdisziplinen beleuchtet, in dessen Kontext sich die entsprechenden Metadatenschemata herausbildet haben. Weiterhin wird auch ein kurzer Ausblick auf die Plattformen, die den Austausch von Daten- und Metadatenstandards, sowie ihre Weiterentwicklung und ihre Referenz unterstützen einbezogen. Bei der Forschungsdokumentation und entsprechender Anwendung von Metadatenstandards im Forschungsalltag bestehen weiterhin Hürden aufgrund des Aufwandes. Softwareanwendungen die die Dokumentation erleichtern und in die Metadatenschemata integriert werden könnten werden kurz diskutiert. In all diesen Bereichen können sich Bibliotheken unterstützend oder gestaltend einbringen und ihre Expertise gewinnbringend in Kommunikation mit der Wissenschaft zur Verfügung stellen.
-
Schroeder, K.: Persistant identifiers im Kontext von Metadaten (2003)
0.02
0.015425483 = product of:
0.06170193 = sum of:
0.06170193 = weight(_text_:und in 2743) [ClassicSimilarity], result of:
0.06170193 = score(doc=2743,freq=12.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.42016557 = fieldWeight in 2743, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2743)
0.25 = coord(1/4)
- Abstract
- Metadaten und Persistent Identifiers (PI) sind zwei eigenständige Bereiche, die auf syntaktischer, semantischer und funktionaler Ebene miteinander in Beziehung stehen. Die Standardisierung beider Bereiche schafft die Voraussetzung, Metadaten mit Pls zu kombinieren und dadurch deren Vorteile synergetisch zu nutzen wie z. B. in Form einer zuverlässigen Referenz von Metadaten auf den Volltext oder kontext-sensitiver Verknüpfungen. Ziel dieses Aufsatzes ist eine Diskussion über die Standardisierung der Schnittmenge aus Metadaten und Pls. Dazu werden zunächst Überschneidungen aufsyntaktischer und semantischer Ebene dargestellt. Anhand der Uniform Resource Name (URN) Implementation Der Deutschen Bibliothek wird die Wechselbeziehung auf funktionaler Ebene exemplarisch verdeutlicht.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.205-209
-
Schneider, S.: Recherche und Literaturbestellung leicht gemacht! : MedPilot - Virtuelle Fachbibliothek Medizin (2003)
0.02
0.015425483 = product of:
0.06170193 = sum of:
0.06170193 = weight(_text_:und in 2914) [ClassicSimilarity], result of:
0.06170193 = score(doc=2914,freq=12.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.42016557 = fieldWeight in 2914, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2914)
0.25 = coord(1/4)
- Abstract
- MedPilot (www.medpilot.de) ist ein Gemeinschaftsprojekt der Deutschen Zentralbibliothek für Medizin (ZBMed) und des Deutschen Instituts für Medizinische Dokumentation und Information (DIMDI). Im Rahmen der Virtuellen Fachbibliotheken wird MedPilot von der Deutschen Forschungsgemeinschaft (DFG) gefördert. MedPilot basiert auf der Software SISIS-Elektra, welche im Rahmen des Projektes weiterentwickelt wurde. Projektstart im August 2001, Testbetrieb seit Juli 2002, offizielle Eröffnung im Februar 2003
- Source
- Bibliotheken und Informationseinrichtungen - Aufgaben, Strukturen, Ziele: 29. Arbeits- und Fortbildungstagung der ASpB / Sektion 5 im DBV in Zusammenarbeit mit der BDB, BIB, DBV, DGI und VDB, zugleich DBV-Jahrestagung, 8.-11.4.2003 in Stuttgart. Red.: Margit Bauer
-
Dogtas, G.; Ibitz, M.-P.; Jonitz, F.; Kocher, V.; Poyer, A.,; Stapf, L.: Kritik an rassifizierenden und diskriminierenden Titeln und Metadaten : Praxisorientierte Lösungsansätze (2022)
0.02
0.015425483 = product of:
0.06170193 = sum of:
0.06170193 = weight(_text_:und in 2828) [ClassicSimilarity], result of:
0.06170193 = score(doc=2828,freq=12.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.42016557 = fieldWeight in 2828, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2828)
0.25 = coord(1/4)
- Abstract
- In den letzten Jahren ist eine Debatte immer stärker in der Öffentlichkeit ausgetragen worden: Wie mit rassistischen Inhalten umgehen? Auch in Bibliotheken, Archiven und Museen muss die Frage gestellt werden, welche Methoden Anwendung finden sollen, um diskriminierende Inhalte nicht weiter zu reproduzieren. Der Beitrag untersucht Methoden im Umgang mit rassifizierendem und diskriminierendem Vokabular sowie den technischen Herausforderungen. Bei dem Versuch praxisorientierte Lösungsansätze zu verhandeln, werden die Bedürfnisse von kuratorischer Verantwortung, Einbeziehung, Nutzung und Bereitstellung diskutiert und in einem Orientierungsleitfaden zusammengeführt.
-
Pott, B.: Von Metadaten und Gegenwelten? : Erkenntnisse aus dem Workshop 'Metainformationen - Mehr als Katalogisierungshilfen' am 30.4.98 im Ribbeckhaus in Berlin (1998)
0.02
0.015267268 = product of:
0.06106907 = sum of:
0.06106907 = weight(_text_:und in 884) [ClassicSimilarity], result of:
0.06106907 = score(doc=884,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.41585606 = fieldWeight in 884, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=884)
0.25 = coord(1/4)
- Source
- Weitblick: Mitteilungsblatt der Bibliotheken in Berlin und Brandenburg. 4(1998) H.2, S.12-14
-
Rinn, R.: Metadaten und nationalbibliographische Verzeichnung von Netzpublikationen (1999)
0.02
0.015267268 = product of:
0.06106907 = sum of:
0.06106907 = weight(_text_:und in 3388) [ClassicSimilarity], result of:
0.06106907 = score(doc=3388,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.41585606 = fieldWeight in 3388, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=3388)
0.25 = coord(1/4)
- Series
- Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.75
-
Hoffmann, L.: Metadaten von Internetressourcen und ihre Integration in Bibliothekskataloge (1999)
0.02
0.015267268 = product of:
0.06106907 = sum of:
0.06106907 = weight(_text_:und in 3389) [ClassicSimilarity], result of:
0.06106907 = score(doc=3389,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.41585606 = fieldWeight in 3389, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=3389)
0.25 = coord(1/4)
- Series
- Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.75
-
Bourne, R.: ¬The European BIBLINK Project (1999)
0.02
0.015267268 = product of:
0.06106907 = sum of:
0.06106907 = weight(_text_:und in 3804) [ClassicSimilarity], result of:
0.06106907 = score(doc=3804,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.41585606 = fieldWeight in 3804, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=3804)
0.25 = coord(1/4)
- Series
- Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.74
- Source
- Bibliotheken und Verlage als Träger der Informationsgesellschaft: Vorträge des 4. europäischen Bielefeld-Kolloquiums, 10.-12.2.1998. Hrsg.: K.W. Neubauer u. W.R. Müller
-
Weiß, B.: Dublin Core : Metadaten als Verzeichnungsform elektronischer Publikationen (2000)
0.02
0.015267268 = product of:
0.06106907 = sum of:
0.06106907 = weight(_text_:und in 4777) [ClassicSimilarity], result of:
0.06106907 = score(doc=4777,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.41585606 = fieldWeight in 4777, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=4777)
0.25 = coord(1/4)
- Series
- Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.80
- Source
- Wissenschaft online: Elektronisches Publizieren in Bibliothek und Hochschule. Hrsg. B. Tröger
-
Taube, A.: Metadaten zur Erschließung und Suche von Internetressourcen (1999)
0.02
0.015267268 = product of:
0.06106907 = sum of:
0.06106907 = weight(_text_:und in 4785) [ClassicSimilarity], result of:
0.06106907 = score(doc=4785,freq=4.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.41585606 = fieldWeight in 4785, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=4785)
0.25 = coord(1/4)
- Imprint
- Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
-
Fischer, T.: Metadata registries : Aktueller Stand und zukünftige Entwicklungen (2003)
0.02
0.015267268 = product of:
0.06106907 = sum of:
0.06106907 = weight(_text_:und in 2762) [ClassicSimilarity], result of:
0.06106907 = score(doc=2762,freq=16.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.41585606 = fieldWeight in 2762, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2762)
0.25 = coord(1/4)
- Abstract
- Registries haben sich im Umfeld des Dublin-Core-Metadatensatzes als Referenzwerkzeug etabliert. In der Zukunft werden komplexe und vielfältige Metadatensysteme benutzt werden, wie sie als »Anwendungsprofile« zunehmend entwickelt werden. Andererseits erwachsen aus den Visionen, die unter dem Stichwort »Semantic Web« formuliert werden, Anforderungen an automatisierte Prozesse der Analyse und Übersetzung von Metadaten. Diese Aufgaben sollten die Metadaten-Registries bearbeiten. Das stellt höhere Ansprüche an Registries,was die Aufnahme und Verwaltung der Metadatenschemata einerseits und die technische Implementierung maschinenlesbarer Strukturen andererseits betrifft. Auf den bestehenden Registries aufbauend wird das zu verteilten Strukturen führen, die die Auswertung von Metadaten erleichtern und damit die Akzeptanz gegenüber dem Konzept »Metadaten« allgemein erhöhen werden.
- Content
- Darin auch: "Wie und wo werden Klassifikationen beschrieben? - Klassifikationen, Kodierungen, Thesauri oder auch Ontologien müssen effektiv (maschinenlesbar) beschrieben werden, damit sie auch automatisch ausgelesen werden können. Es ist derzeit nicht klar, ob dies auch eine Aufgabe für Registries ist oder dafür andere Strukturen nötig sind. Derzeit passen Klassifikationsschemata (wie z.B. die Dewey Decimal Classification) nicht in das XML-orientierte Schema von Namespaces. Es sind auch noch keine eindeutigen Identifikatoren (URIs) festgelegt. Ein zusätzliches Problem entsteht,da nicht alle Klassifikationen frei zugänglich sind."
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.199-204
-
Biesenbender, S.; Tobias, R.: Rolle und Aufgaben von Bibliotheken im Umfeld des Kerndatensatz Forschung (2019)
0.02
0.015267268 = product of:
0.06106907 = sum of:
0.06106907 = weight(_text_:und in 350) [ClassicSimilarity], result of:
0.06106907 = score(doc=350,freq=16.0), product of:
0.14685147 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06621197 = queryNorm
0.41585606 = fieldWeight in 350, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=350)
0.25 = coord(1/4)
- Abstract
- In diesem Artikel wird die Frage aufgegriffen, welche Auswirkungen der Kerndatensatz Forschung (KDSF) auf die aktuelle bibliothekarische Praxis haben kann. Dabei wird eine Bestandsaufnahme der (möglichen) Betätigungsfelder von Bibliotheken rund um den KDSF und die Einführung von Forschungsinformationssystemen (FIS) gezogen. Es sollen die Herausforderungen und das Potenzial des KDSF für die tägliche bibliothekarische Praxis im Rahmen einer modernen und integrierten Forschungsberichterstattung beleuchtet und Impulse für in der Zukunft erforderliche Anpassungsprozesse gegeben werden. Der Artikel stellt Aufbau und Konzept des KDSF vor. Der Fokus liegt dabei auf dem Kerndatensatz-Bereich "Publikationen". Bisherige Erfahrungen und Rückmeldungen an den "Helpdesk für die Einführung des Kerndatensatz Forschung" werden aus bibliothekarischer Sicht erörtert. Ein weiterer Teil zeigt beispielhafte Aktivitäten und Herangehensweisen, die sich für Bibliotheken im Umfeld der Einführung von FIS ergeben.