-
Gemberling, T.: Thema and FRBR's third group (2010)
0.03
0.026005413 = product of:
0.10402165 = sum of:
0.10402165 = weight(_text_:headings in 158) [ClassicSimilarity], result of:
0.10402165 = score(doc=158,freq=2.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.32167178 = fieldWeight in 158, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=158)
0.25 = coord(1/4)
- Abstract
- The treatment of subjects by Functional Requirements for Bibliographic Records (FRBR) has attracted less attention than some of its other aspects, but there seems to be a general consensus that it needs work. While some have proposed elaborating its subject categories-concepts, objects, events, and places-to increase their semantic complexity, a working group of the International Federation of Library Associations and Institutions (IFLA) has recently made a promising proposal that essentially bypasses those categories in favor of one entity, thema. This article gives an overview of the proposal and discusses its relevance to another difficult problem, ambiguities in the establishment of headings for buildings.Use of dynamic links from subject-based finding aids to records for electronic resources in the OPAC is suggested as one method for by-passing the OPAC search interface, thus making the library's electronic resources more accessible. This method simplifies maintenance of links to electronic resources and aids instruction by providing a single, consistent access point to them. Results of a usage study from before and after this project was completed show a consistent, often dramatic increase in use of the library's electronic resources.
-
Dunsire, G.; Willer, M.: Initiatives to make standard library metadata models and structures available to the Semantic Web (2010)
0.02
0.02451814 = product of:
0.09807256 = sum of:
0.09807256 = weight(_text_:headings in 952) [ClassicSimilarity], result of:
0.09807256 = score(doc=952,freq=4.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.30327508 = fieldWeight in 952, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.03125 = fieldNorm(doc=952)
0.25 = coord(1/4)
- Abstract
- The paper discusses the importance of these initiatives in releasing as linked data the very large quantities of rich, professionally-generated metadata stored in formats based on these standards, such as UNIMARC and MARC21, addressing such issues as critical mass for semantic and statistical inferencing, integration with user- and machine-generated metadata, and authenticity, veracity and trust. The paper also discusses related initiatives to release controlled vocabularies, including the Dewey Decimal Classification (DDC), ISBD, Library of Congress Name Authority File (LCNAF), Library of Congress Subject Headings (LCSH), Rameau (French subject headings), Universal Decimal Classification (UDC), and the Virtual International Authority File (VIAF) as linked data. Finally, the paper discusses the potential collective impact of these initiatives on metadata workflows and management systems.
-
Vizine-Goetz, D.; Houghton, A.; Childress, E.: Web services for controlled vocabularies (2006)
0.02
0.021671178 = product of:
0.08668471 = sum of:
0.08668471 = weight(_text_:headings in 2171) [ClassicSimilarity], result of:
0.08668471 = score(doc=2171,freq=2.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.26805982 = fieldWeight in 2171, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=2171)
0.25 = coord(1/4)
- Abstract
- Amid the debates about whether folksonomies will supplant controlled vocabularies and whether the Library of Congress Subject Headings (LCSH) and Dewey Decimal Classification (DDC) system have outlived their usefulness, libraries, museums and other organizations continue to require efficient, effective access to controlled vocabularies for creating consistent metadata for their collections . In this article, we present an approach for using Web services to interact with controlled vocabularies. Services are implemented within a service-oriented architecture (SOA) framework. SOA is an approach to distributed computing where services are loosely coupled and discoverable on the network. A set of experimental services for controlled vocabularies is provided through the Microsoft Office (MS) Research task pane (a small window or sidebar that opens up next to Internet Explorer (IE) and other Microsoft Office applications). The research task pane is a built-in feature of IE when MS Office 2003 is loaded. The research pane enables a user to take advantage of a number of research and reference services accessible over the Internet. Web browsers, such as Mozilla Firefox and Opera, also provide sidebars which could be used to deliver similar, loosely-coupled Web services.
-
Kempf, A.O.; Neubert, J.; Faden, M.: ¬The missing link : a vocabulary mapping effort in economics (2015)
0.02
0.021671178 = product of:
0.08668471 = sum of:
0.08668471 = weight(_text_:headings in 3251) [ClassicSimilarity], result of:
0.08668471 = score(doc=3251,freq=2.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.26805982 = fieldWeight in 3251, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=3251)
0.25 = coord(1/4)
- Abstract
- In economics there exists an internationally established classification system. Research literature is usually classified according to the JEL classification codes, a classification system originated by the Journal of Economic Literature and published by the American Economic Association (AEA). Complementarily to keywords which are usually assigned freely, economists widely use the JEL codes when classifying their publications. In cooperation with KU Leuven, ZBW - Leibniz Information Centre for Economics has published an unofficial multilingual version of JEL in SKOS format. In addition to this, exists the STW Thesaurus for Economics a bilingual domain-specific controlled vocabulary maintained by the German National Library of Economics (ZBW). Developed in the mid-1990s and since then constantly updated according to the current terminology usage in the latest international research literature in economics it covers all sub-fields both in the economics as well as in business economics and business practice containing subject headings which are clearly delimited from each other. It has been published on the web as Linked Open Data in the year 2009.
-
Nentwig, L.: Semantische Interoperabilität : Bd.2: Semantische Konflikte (2010)
0.02
0.01810976 = product of:
0.07243904 = sum of:
0.07243904 = weight(_text_:und in 848) [ClassicSimilarity], result of:
0.07243904 = score(doc=848,freq=32.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.4900911 = fieldWeight in 848, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=848)
0.25 = coord(1/4)
- Abstract
- Prozessketten in der freien Wirtschaft oder Verwaltung sind zunehmend geprägt von einem intensiven Austausch von Dokumenten und Daten auch über die Grenzen der beteiligten Organisationen hinweg. Wie in Band 1 der White Paper-Reihe dargelegt, ist die Sicherstellung der semantischen Interoperabilität eine der zentralen Anforderungen für einen semantisch konsistenten und damit erfolgreichen Ablauf der Geschäftsprozesse. Grundlage für semantische Interoperabilität sind die technische und die syntaktische Interoperabilität: Die technische Interoperabilität umfasst die Möglichkeit der technischen Interaktion mit sowie des Transports von Inhalten und erfordert dafür die leitungstechnische Verbindbarkeit und Passbarkeit auf Protokollebene. Die syntaktische Interoperabilität wird durch einen homogenen Einsatz von Sprachen (wie z. B. XML) sichergestellt und gewährleistet den Austausch von Daten auf Basis von vordefinierten und exakt vereinbahrten syntaktischen Strukturen. Semantische Interoperabilität stellt die komplexeste unter den Stufen der Interoperabilität dar. Der wesentliche Grund dafür, dass die Anforderung der semantischen Interoperabilität nicht erfüllt wird, ist das Vorhandensein bzw. die fehlende Auflösung sogenannter semantischer Konflikte. Ein semantischer Konflikt wird hervorgerufen, wenn die am Datenaustausch beteiligten Sender und Empfänger unterschiedliche Datenstrukturen und Dateninhalte verwenden. Eine detaillierte Beschreibung der Konfliktarten und ihrer Behandlung zeigen die nächsten Abschnitte.
- Content
- Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
- Imprint
- Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST
-
Balakrishnan, U.; Peters, S.; Voß, J.: Coli-conc : eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen (2021)
0.02
0.017927747 = product of:
0.07171099 = sum of:
0.07171099 = weight(_text_:und in 1369) [ClassicSimilarity], result of:
0.07171099 = score(doc=1369,freq=16.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.48516542 = fieldWeight in 1369, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1369)
0.25 = coord(1/4)
- Abstract
- coli-conc ist eine Dienstleistung der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG). Sie stellt webbasierte Dienste für einen effektiveren Austausch von Wissensorganisationssystemen und für die effiziente Erstellung und Wartung von Mappings zur Verfügung. Der Schwerpunkt liegt auf den im deutschsprachigen Raum verbreiteten bibliothekarischen Klassifikationen und Normdateien, vor allem den bedeutenden Universalklassifikationen wie Dewey Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK), Basisklassifikation (BK) und den Sachgruppen der Deutschen Nationalbibliografie (SDNB). Dieser Bericht beschreibt den Hintergrund, die Architektur und die Funktionalitäten von coli-conc sowie das Herzstück der Infrastruktur - das Mapping-Tool Cocoda. Außerdem wird auf Maßnahmen zur Qualitätssicherung eingegangen und ein Einblick in das neue Mapping-Verfahren mit dem Konzept- Hub gewährt.
- Series
- Bibliotheks- und Informationspraxis; 70
-
Hubrich, J.: CrissCross: SWD-DDC-Mapping (2008)
0.02
0.017743869 = product of:
0.070975475 = sum of:
0.070975475 = weight(_text_:und in 3175) [ClassicSimilarity], result of:
0.070975475 = score(doc=3175,freq=12.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.48018923 = fieldWeight in 3175, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3175)
0.25 = coord(1/4)
- Abstract
- Mit zunehmender Nutzung netzwerkbasierter Systeme und steigender internationaler Zusammenarbeit werden Informationsräume geschaffen, in denen unterschiedlich indexierte Informationsressourcen aus verschiedenen Ländern über das Internet frei zugänglich gemacht werden. Bedingt durch die Unterschiedlichkeit der verwendeten Erschließungsinstrumente in Sprache und Struktur gestaltet sich die thematische Recherche in diesen Informationsräumen umständlich und langwierig. Im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten und von der Deutschen Nationalbibliothek (DNB) in Kooperation mit der Fachhochschule Köln durchgeführten Projekts CrissCross wird ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular erstellt, das einen wesentlich effizienteren Zugriff auf heterogen erschlossene Informationsressourcen ermöglicht.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.3, S.50-58
-
Vatant, B.; Dunsire, G.: Use case vocabulary merging (2010)
0.02
0.017336942 = product of:
0.06934777 = sum of:
0.06934777 = weight(_text_:headings in 336) [ClassicSimilarity], result of:
0.06934777 = score(doc=336,freq=2.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.21444786 = fieldWeight in 336, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.03125 = fieldNorm(doc=336)
0.25 = coord(1/4)
- Abstract
- The publication of library legacy includes publication of structuring vocabularies such as thesauri, classifications, subject headings. Different sources use different vocabularies, different in structure, width, depth and scope, and languages. Federated access to distributed data collections is currently possible if they rely on the same vocabularies. Mapping techniques and standards supporting them (such as SKOS mapping properties, OWL sameAs and equivalentClass) are still largely experimental, even in the linked data land. Libraries use a variety of controlled subject vocabulary and classification schemes to index items in their collections. Although most collections will employ only a single scheme, different schemes may be chosen to index different collections within a library or in separate libraries; schemes are chosen on the basis of language, subject focus (general or specific), granularity (specificity), user expectation, and availability and support (cost, currency, completeness, tools). For example, a typical academic library will operate separate metadata systems for the library's main collections, special collections (e.g. manuscripts, archives, audiovisual), digital collections, and one or more institutional repositories for teaching and research output; each of these systems may employ a different subject vocabulary, with little or no interoperability between terms and concepts. Users expect to have a single point-of-search in resource discovery services focussed on their local institutional collections. Librarians have to use complex and expensive resource discovery platforms to meet user expectations. Library communities continue to develop resource discovery services for consortia with a geographical, subject, sector (public, academic, school, special libraries), and/or domain (libraries, archives, museums) focus. Services are based on distributed searching (e.g. via Z39.50) or metadata aggregations (e.g. OCLC's WorldCat and OAISter). As a result, the number of different subject schemes encountered in such services is increasing. Trans-national consortia (e.g. Europeana) add to the complexity of the environment by including subject vocabularies in multiple languages. Users expect single point-of-search in consortial resource discovery service involving multiple organisations and large-scale metadata aggregations. Users also expect to be able to search for subjects using their own language and terms in an unambiguous, contextualised manner.
-
Huckstorf, A.; Petras, V.: Mind the lexical gap : EuroVoc Building Block of the Semantic Web (2011)
0.02
0.017180426 = product of:
0.068721704 = sum of:
0.068721704 = weight(_text_:und in 3782) [ClassicSimilarity], result of:
0.068721704 = score(doc=3782,freq=20.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.4649412 = fieldWeight in 3782, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3782)
0.25 = coord(1/4)
- Abstract
- Ein Konferenzereignis der besonderen Art fand am 18. und 19. November 2010 in Luxemburg statt. Initiiert durch das Amt für Veröffentlichungen der Europäischen Union (http://publications.europa.eu) waren Bibliothekare und Information Professionals eingeladen, um über die Zukunft mehrsprachiger kontrollierter Vokabulare in Informationssystemen und insbesondere deren Beitrag zum Semantic Web zu diskutieren. Organisiert wurde die Konferenz durch das EuroVoc-Team, das den Thesaurus der Europäischen Union bearbeitet. Die letzte EuroVoc-Konferenz fand im Jahr 2006 statt. In der Zwischenzeit ist EuroVoc zu einem ontologie-basierten Thesaurusmanagementsystem übergegangen und hat systematisch begonnen, Semantic-Web-Technologien für die Bearbeitung und Repräsentation einzusetzen und sich mit anderen Vokabularen zu vernetzen. Ein produktiver Austausch fand mit den Produzenten anderer europäischer und internationaler Vokabulare (z.B. United Nations oder FAO) sowie Vertretern aus Projekten, die an Themen über automatische Indexierung (hier insbesondere parlamentarische und rechtliche Dokumente) sowie Interoperabilitiät zwischen Vokabularen arbeiten, statt.
- Source
- Information - Wissenschaft und Praxis. 62(2011) H.2/3, S.125-126
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Heel, F.: Abbildungen zwischen der Dewey-Dezimalklassifikation (DDC), der Regensburger Verbundklassifikation (RVK) und der Schlagwortnormdatei (SWD) für die Recherche in heterogen erschlossenen Datenbeständen : Möglichkeiten und Problembereiche (2007)
0.02
0.016940128 = product of:
0.06776051 = sum of:
0.06776051 = weight(_text_:und in 434) [ClassicSimilarity], result of:
0.06776051 = score(doc=434,freq=28.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.45843822 = fieldWeight in 434, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=434)
0.25 = coord(1/4)
- Abstract
- Eine einheitliche Sacherschließung in Deutschland wird durch die Vielzahl an vorhandenen und verwendeten Erschließungssystemen, Universal-, Fachklassifikationen und Fachthesauri erschwert. Den Benutzern von Bibliothekskatalogen oder Datenbanken fällt es daher schwer, themenspezifische Recherchen in heterogen erschlossenen Datenbeständen durchzuführen. In diesem Fall müssen die Nutzer derzeit nämlich den Umgang mit mehreren Erschließungsinstrumenten erlernen und verschiedene Suchanfragen anwenden, um das gewünschte Rechercheergebnis datenbankübergreifend zu erreichen. Um dem Benutzer einen einheitlichen Zugang zu heterogen erschlossenen Datenbeständen zu gewährleisten und gleichzeitig auch den Arbeitsaufwand für die Bibliothekare zu reduzieren, ist die Erstellung eines so genannten "Integrierten Retrievals" sinnvoll. Durch die Verknüpfung der unterschiedlichen Sacherschließungssysteme mit Hilfe von Konkordanzen wird es dem Nutzer ermöglicht, mit einem ihm vertrauten Vokabular eine sachliche Recherche in unterschiedlich erschlossenen Datenbeständen durchzuführen, ohne die spezifischen Besonderheiten der verschiedenen Erschließungsinstrumente kennen zu müssen. In dieser Arbeit sind exemplarisch drei Abbildungen für den Fachbereich der Bibliotheks- und Informationswissenschaften zwischen den für Deutschland wichtigsten Sacherschließungssystemen Dewey-Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK) und Schlagwortnormdatei (SWD) erstellt worden. Die Ergebnisse dieser Arbeit sollen einen ersten Überblick über spezifische Problemfelder und Möglichkeiten der hier erstellten Konkordanzen DDC - RVK, SWD - DDC und SWD - RVK liefern, um damit die Erstellung eines zukünftigen Recherchetools (und gegebenenfalls einer Klassifizierungshilfe) voranzutreiben. Die erstellten Konkordanzen liegen der Arbeit als Anhang bei.
- Content
- Bachelorarbeit im Studiengang Bibliotheks- und Informationsmanagement, Fakultät Information und Kommunikation, Hochschule der Medien Stuttgart
- Imprint
- Stuttgart : Hochschule der Medien / Fakultät Information und Kommunikation
-
Hubrich, J.: Begriffliche Suche und Wissensexploration in heterogenen Informationsräumen : Kurzfassung (2009)
0.02
0.016769873 = product of:
0.06707949 = sum of:
0.06707949 = weight(_text_:und in 716) [ClassicSimilarity], result of:
0.06707949 = score(doc=716,freq=14.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.4538307 = fieldWeight in 716, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=716)
0.25 = coord(1/4)
- Abstract
- Erschließungsinstrumente erhöhen Effizienz und Effektivität thematischer Recherchen, indem sie standardisierte Zugänge zu Informationsressourcen bieten und mittels Ausweisung von Begriffsbeziehungen explorative Suchprozesse unterstützen. In heterogenen Informationsräumen ist ihre Funktionalität aufgrund der Unterschiedlichkeit der verwendeten Indexierungsdaten indes begrenzt. Die Herstellung von Verbindungen zwischen Dokumentationssprachen trägt dazu bei, dass das mit einem einzelnen Begriffssystem gegebene Potential über Teilmengen hinaus nutzbar wird. Welcher Mehrwert durch eine adäquate Einbindung derartiger Verknüpfungen in Retrievalapplikationen im Einzelnen erzielt werden kann, ist wesentlich abhängig von der zugrunde liegenden Methode der Heterogenitätsbehandlung und den berücksichtigten Charakteristika der jeweiligen Erschließungsinstrumente. Im Folgenden wird der vom DFG-Projekt CrissCross praktizierte Ansatz zur Herstellung von semantischer Interoperabilität zwischen der Schlagwortnormdatei (SWD) und der Dewey-Dezimalklassifikation (DDC) vorgestellt und sein Nutzen zur Unterstützung thematischer Suchprozesse aufgezeigt.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.4, S.7-11
-
Binz, V.; Rühle, S.: KIM - Das Kompetenzzentrum Interoperable Metadaten (2009)
0.02
0.016769873 = product of:
0.06707949 = sum of:
0.06707949 = weight(_text_:und in 559) [ClassicSimilarity], result of:
0.06707949 = score(doc=559,freq=14.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.4538307 = fieldWeight in 559, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=559)
0.25 = coord(1/4)
- Abstract
- Die Interoperabilität von Metadaten ist eine wichtige Voraussetzung für das Generieren von Information und Wissen in einer vernetzten Welt. Aus diesem Grund entstehen seit Mitte der Neunziger Jahre verschiedene Standards mit dem Ziel, die Interoperabilität von Metadaten zu erhöhen. Genannt seien hier vor allem DCMES und DCAM, RDF und SKOS. Aufgabe von KIM ist es, diese Entwicklungen zu begleiten und in die deutschsprachige Community zu tragen. Dabei bietet KIM neben reinen Informationsangeboten (z. B. in Form von Übersetzungen, Vorträgen und Handreichungen) auch konkrete Unterstützung in Form von Schulungen und Beratungen an.
- Source
- Bibliothek: Forschung und Praxis. 33(2009) H.3, S.370-374
-
Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011)
0.02
0.016769873 = product of:
0.06707949 = sum of:
0.06707949 = weight(_text_:und in 782) [ClassicSimilarity], result of:
0.06707949 = score(doc=782,freq=14.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.4538307 = fieldWeight in 782, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=782)
0.25 = coord(1/4)
- Abstract
- In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
-
Sigel, A.: Wissensorganisation, Topic Maps und Ontology Engineering : Die Verbindung bewährter Begriffsstrukturen mit aktueller XML Technologie (2004)
0.02
0.016323918 = product of:
0.065295674 = sum of:
0.065295674 = weight(_text_:und in 4236) [ClassicSimilarity], result of:
0.065295674 = score(doc=4236,freq=26.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.44176215 = fieldWeight in 4236, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4236)
0.25 = coord(1/4)
- Abstract
- Wie können begriffliche Strukturen an Topic Maps angebunden werden? Allgemeiner. Wie kann die Wissensorganisation dazu beitragen, dass im Semantic Web eine begriffsbasierte Infrastruktur verfügbar ist? Dieser Frage hat sich die Wissensorganisation bislang noch nicht wirklich angenommen. Insgesamt ist die Berührung zwischen semantischen Wissenstechnologien und wissensorganisatorischen Fragestellungen noch sehr gering, obwohl Begriffsstrukturen, Ontologien und Topic Maps grundsätzlich gut zusammenpassen und ihre gemeinsame Betrachtung Erkenntnisse für zentrale wissensorganisatorische Fragestellungen wie z.B. semantische Interoperabilität und semantisches Retrieval erwarten lässt. Daher motiviert und skizziert dieser Beitrag die Grundidee, nach der es möglich sein müsste, eine Sprache zur Darstellung von Begriffsstrukturen in der Wissensorganisation geeignet mit Topic Maps zu verbinden. Eine genauere Untersuchung und Implementation stehen allerdings weiterhin aus. Speziell wird vermutet, dass sich der Concepto zugrunde liegende Formalismus CLF (Concept Language Formalism) mit Topic Maps vorteilhaft abbilden lässt 3 Damit können Begriffs- und Themennetze realisiert werden, die auf expliziten Begriffssystemen beruhen. Seitens der Wissensorganisation besteht die Notwendigkeit, sich mit aktuellen Entwicklungen auf dem Gebiet des Semantic Web und ontology engineering vertraut zu machen, aber auch die eigene Kompetenz stärker aktiv in diese Gebiete einzubringen. Damit dies geschehen kann, führt dieser Beitrag zum besseren Verständnis zunächst aus Sicht der Wissensorganisation knapp in Ontologien und Topic Maps ein und diskutiert wichtige Überschneidungsbereiche.
- Source
- Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
-
Galinski, C.: Wozu Normen? : Wozu semantische Interoperabilität? (2006)
0.02
0.016298782 = product of:
0.06519513 = sum of:
0.06519513 = weight(_text_:und in 811) [ClassicSimilarity], result of:
0.06519513 = score(doc=811,freq=18.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.44108194 = fieldWeight in 811, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=811)
0.25 = coord(1/4)
- Abstract
- Das Internet beginnt sein volles Potential als Kommunikationsraum zu entfalten. Das betrifft vor allem auch die distribuierte dynamische Erstellung und Wartung von strukturiertem Content. Dabei handelt es sich um datenbankmäßig strukturierte Daten (basierend auf Metadaten, generischen Datenmodellen und Metamodellen), die über die Attribute verfügen, welche ihre Qualität und damit das Vertrauen der Nutzer bestimmen. Da Fachwissen hochgradig "selbstreferenziell" ist, muss "smart content" einen Teil seines Kontexts - zumindest in Form von Verweisen - mit sich führen. Hinzu kommen Anforderungen an Contenteinheiten, grundsätzlich mehrsprachig. multimodal, multimedia sein zu können und hochgradige Personalisierung, Barrierefreiheit und unterschiedlichste Ausgabeformate zu unterstützen. Die Großindustrie weiß, dass eBusiness vom Ansatz her mehrsprachig angelegt sein muss, um Produkte und Dienstleistungen in der Sprache und Kultur der Zielmärkte verkaufen zu können. Viele Normungsaktivitäten zielen auf die Methoden der entsprechenden Datenmodellierung ab. Die Methodennormen von ISO/TC 37 "Terminologie und andere Sprach-, sowie Contentressourcen" haben sich bislang als die "generischsten" für fachsprachliche Contenteinheiten erwiesen, und bewähren sich auch für nicht-wortsprachliche Contenteinheiten auf der Ebene der lexikalischen Semantik.
-
Gödert, W.: Semantische Wissensrepräsentation und Interoperabilität : Teil 2: Ein formales Modell semantischer Interoperabilität (2010)
0.02
0.016197862 = product of:
0.06479145 = sum of:
0.06479145 = weight(_text_:und in 2530) [ClassicSimilarity], result of:
0.06479145 = score(doc=2530,freq=10.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.4383508 = fieldWeight in 2530, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2530)
0.25 = coord(1/4)
- Abstract
- In diesem zweiten Teil wird ein formales Modell zur semantischen Interoperabilität als Brücke zwischen formaler Modellierung und intellektueller Interpretation vorgestellt, das ein besseres Verständnis der zentralen Begriffe von semantischer Ähnlichkeit und Verschiedenheit von Begriffen und Klassen, sowohl als elementare Inhaltsentitäten von Dokumentationssprachen als auch als synthetische Repräsentationen von Dokumentinhalten, ermöglichen soll.
- Source
- Information - Wissenschaft und Praxis. 61(2010) H.1, S.19-28
-
Hennicke, S.: Linked data und semantische Suchfunktionalitäten in Europeana (2013)
0.02
0.016197862 = product of:
0.06479145 = sum of:
0.06479145 = weight(_text_:und in 1947) [ClassicSimilarity], result of:
0.06479145 = score(doc=1947,freq=10.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.4383508 = fieldWeight in 1947, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1947)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag berichtet von Arbeiten, die im Projekt Europeana zu Linked Data und semantischer Suchfunktionalität durchgeführt wurden und basiert auf einem Vortrag vom 23.9.2010 auf der ODOK 2010. Die geplante und auf Technologien aus dem Bereich des Semantic Web basierende Informationsarchitektur von Europeana wird skizziert. Auf diese Informationsarchitektur setzen semantische Funktionalitäten auf die als zukunftsweisende Suchfunktionalitäten in Europeana implementiert werden sollen. Anhand einiger konkreter Beispiele wird in einem zweiten Teil das Grundprinzip einer möglichen semantischen Suche in Europeana dargestellt.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 66(2013) H.1, S.20-34
-
Ertugrul, M.: Probleme und Lösungen zur semantischen Interoperabilität (2013)
0.02
0.016197862 = product of:
0.06479145 = sum of:
0.06479145 = weight(_text_:und in 2115) [ClassicSimilarity], result of:
0.06479145 = score(doc=2115,freq=10.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.4383508 = fieldWeight in 2115, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2115)
0.25 = coord(1/4)
- Abstract
- Mit der Einführung von EAI im eigenen Unternehmen verbinden die meisten Unternehmer positive Ergebnisse und Wirkungen beim Betrieb ihrer IT-Systeme. Die Koexistenz vieler verschiedener Anwendungssysteme, Betriebssysteme und/oder Hardware spielt nur noch eine untergeordnete Rolle. Die Lauffähigkeit der Geschäftsprozesse wird durch EAI gewährleistet, und das nicht nur unternehmensintern, sondern auch -extern. Vergleichbar mit einem Plug & Play wird den Unternehmen suggeriert, dass eine EAI einfach und schnell eine homogene Umgebung wenn auch virtuell - erzeugt.
-
Schleipen, M.: Adaptivität und semantische Interoperabilität von Manufacturing Execution Systemen (MES) (2013)
0.02
0.016197862 = product of:
0.06479145 = sum of:
0.06479145 = weight(_text_:und in 2276) [ClassicSimilarity], result of:
0.06479145 = score(doc=2276,freq=10.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.4383508 = fieldWeight in 2276, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2276)
0.25 = coord(1/4)
- Abstract
- MES (Manufacturing Execution Systems) sind zwischen der Automatisierungs- und der Unternehmensleitebene von Änderungen in der Produktion betroffen. Darum ist ihre Adaptivität im Lebenszyklus der Produktionsanlagen erfolgskritisch. Zusätzlich agieren MES als Daten- und Informationsdrehscheibe. Daher müssen sie möglichst gut und nahtlos mit anderen Systemen zusammenarbeiten: MES müssen interoperabel werden und dabei die Semantik im Griff haben. Die vorliegende Arbeit begegnet beiden Aspekten.
-
Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007)
0.02
0.015787723 = product of:
0.06315089 = sum of:
0.06315089 = weight(_text_:und in 3439) [ClassicSimilarity], result of:
0.06315089 = score(doc=3439,freq=38.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.4272515 = fieldWeight in 3439, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3439)
0.25 = coord(1/4)
- Abstract
- Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
- Content
- Darin u.a. "Interoperabilität als Kernstück - Technische und semantische Interoperabilität bilden somit das Kernstück für das Funktionieren der Europäischen Digitalen Bibliothek. Doch bevor Wege gefunden werden können, wie etwas funktionieren kann, muss zunächst einmal festgelegt werden, was funktionieren soll. Hierfür sind die Nutzeranforderungen das Maß aller Dinge, weshalb sich ein ganzes Arbeitspaket in EDLnet mit der Nutzersicht, den Nutzeranforderungen und der Nutzbarkeit der Europäischen Digitalen Bibliothek befasst, Anforderungen formuliert und diese im Arbeitspaket »Interoperabilität« umgesetzt werden. Für die Entscheidung, welche Inhalte wie präsentiert werden, sind jedoch nicht allein technische und semantische Fragestellungen zu klären, sondern auch ein Geschäftsmodell zu entwickeln, das festlegt, was die beteiligten Institutionen und Organisationen in welcher Form zu welchen Bedingungen zur Europäischen Digitalen Bibliothek beitragen. Auch das Geschäftsmodell wird Auswirkungen auf technische und semantische Interoperabilität haben und liefert die daraus abgeleiteten Anforderungen zur Umsetzung an das entsprechende Arbeitspaket. Im EDLnet-Projekt ist somit ein ständiger Arbeitskreislauf installiert, in welchem die Anforderungen an die Europäische Digitale Bibliothek formuliert, an das Interoperabilitäts-Arbeitspaket weitergegeben und dort umgesetzt werden. Diese Lösung wird wiederum an die Arbeitspakete »Nutzersicht« und »Geschäftsmodell« zurückgemeldet, getestet, kommentiert und für die Kommentare wiederum technische Lösungen gesucht. Dies ist eine Form des »rapid prototyping«, das hier zur Anwendung kommt, d. h. die Funktionalitäten werden schrittweise gemäß des Feedbacks der zukünftigen Nutzer sowie der Projektpartner erweitert und gleichzeitig wird der Prototyp stets lauffähig gehalten und bis zur Produktreife weiterentwickelt. Hierdurch verspricht man sich ein schnelles Ergebnis bei geringem Risiko einer Fehlentwicklung durch das ständige Feedback."