-
Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010)
0.14
0.14296235 = product of:
0.2859247 = sum of:
0.2601585 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
0.2601585 = score(doc=1604,freq=2.0), product of:
0.47730878 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06772732 = queryNorm
0.5450528 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.025766207 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
0.025766207 = score(doc=1604,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.17153187 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.5 = coord(2/4)
- Abstract
- iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Ioannou, E.; Nejdl, W.; Niederée, C.; Velegrakis, Y.: Embracing uncertainty in entity linking (2012)
0.02
0.024784343 = product of:
0.09913737 = sum of:
0.09913737 = weight(_text_:html in 1433) [ClassicSimilarity], result of:
0.09913737 = score(doc=1433,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.28436378 = fieldWeight in 1433, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0390625 = fieldNorm(doc=1433)
0.25 = coord(1/4)
- Abstract
- The modern Web has grown from a publishing place of well-structured data and HTML pages for companies and experienced users into a vivid publishing and data exchange community in which everyone can participate, both as a data consumer and as a data producer. Unavoidably, the data available on the Web became highly heterogeneous, ranging from highly structured and semistructured to highly unstructured user-generated content, reflecting different perspectives and structuring principles. The full potential of such data can only be realized by combining information from multiple sources. For instance, the knowledge that is typically embedded in monolithic applications can be outsourced and, thus, used also in other applications. Numerous systems nowadays are already actively utilizing existing content from various sources such as WordNet or Wikipedia. Some well-known examples of such systems include DBpedia, Freebase, Spock, and DBLife. A major challenge during combining and querying information from multiple heterogeneous sources is entity linkage, i.e., the ability to detect whether two pieces of information correspond to the same real-world object. This chapter introduces a novel approach for addressing the entity linkage problem for heterogeneous, uncertain, and volatile data.
-
Mao, M.: Ontology mapping : towards semantic interoperability in distributed and heterogeneous environments (2008)
0.02
0.019827474 = product of:
0.079309896 = sum of:
0.079309896 = weight(_text_:html in 659) [ClassicSimilarity], result of:
0.079309896 = score(doc=659,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.22749102 = fieldWeight in 659, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.03125 = fieldNorm(doc=659)
0.25 = coord(1/4)
- Abstract
- This dissertation studies ontology mapping: the problem of finding semantic correspondences between similar elements of different ontologies. In the dissertation, elements denote classes or properties of ontologies. The goal of this research is to use ontology mapping to make heterogeneous information more accessible. The World Wide Web (WWW) now is widely used as a universal medium for information exchange. Semantic interoperability among different information systems in the WWW is limited due to information heterogeneity, and the non semantic nature of HTML and URLs. Ontologies have been suggested as a way to solve the problem of information heterogeneity by providing formal, explicit definitions of data and reasoning ability over related concepts. Given that no universal ontology exists for the WWW, work has focused on finding semantic correspondences between similar elements of different ontologies, i.e., ontology mapping. Ontology mapping can be done either by hand or using automated tools. Manual mapping becomes impractical as the size and complexity of ontologies increases. Full or semi-automated mapping approaches have been examined by several research studies. Previous full or semiautomated mapping approaches include analyzing linguistic information of elements in ontologies, treating ontologies as structural graphs, applying heuristic rules and machine learning techniques, and using probabilistic and reasoning methods etc. In this paper, two generic ontology mapping approaches are proposed. One is the PRIOR+ approach, which utilizes both information retrieval and artificial intelligence techniques in the context of ontology mapping. The other is the non-instance learning based approach, which experimentally explores machine learning algorithms to solve ontology mapping problem without requesting any instance. The results of the PRIOR+ on different tests at OAEI ontology matching campaign 2007 are encouraging. The non-instance learning based approach has shown potential for solving ontology mapping problem on OAEI benchmark tests.
-
Nentwig, L.: Semantische Interoperabilität : Bd.2: Semantische Konflikte (2010)
0.02
0.018404435 = product of:
0.07361774 = sum of:
0.07361774 = weight(_text_:und in 848) [ClassicSimilarity], result of:
0.07361774 = score(doc=848,freq=32.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.4900911 = fieldWeight in 848, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=848)
0.25 = coord(1/4)
- Abstract
- Prozessketten in der freien Wirtschaft oder Verwaltung sind zunehmend geprägt von einem intensiven Austausch von Dokumenten und Daten auch über die Grenzen der beteiligten Organisationen hinweg. Wie in Band 1 der White Paper-Reihe dargelegt, ist die Sicherstellung der semantischen Interoperabilität eine der zentralen Anforderungen für einen semantisch konsistenten und damit erfolgreichen Ablauf der Geschäftsprozesse. Grundlage für semantische Interoperabilität sind die technische und die syntaktische Interoperabilität: Die technische Interoperabilität umfasst die Möglichkeit der technischen Interaktion mit sowie des Transports von Inhalten und erfordert dafür die leitungstechnische Verbindbarkeit und Passbarkeit auf Protokollebene. Die syntaktische Interoperabilität wird durch einen homogenen Einsatz von Sprachen (wie z. B. XML) sichergestellt und gewährleistet den Austausch von Daten auf Basis von vordefinierten und exakt vereinbahrten syntaktischen Strukturen. Semantische Interoperabilität stellt die komplexeste unter den Stufen der Interoperabilität dar. Der wesentliche Grund dafür, dass die Anforderung der semantischen Interoperabilität nicht erfüllt wird, ist das Vorhandensein bzw. die fehlende Auflösung sogenannter semantischer Konflikte. Ein semantischer Konflikt wird hervorgerufen, wenn die am Datenaustausch beteiligten Sender und Empfänger unterschiedliche Datenstrukturen und Dateninhalte verwenden. Eine detaillierte Beschreibung der Konfliktarten und ihrer Behandlung zeigen die nächsten Abschnitte.
- Content
- Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
- Imprint
- Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST
-
Balakrishnan, U.; Peters, S.; Voß, J.: Coli-conc : eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen (2021)
0.02
0.018219462 = product of:
0.07287785 = sum of:
0.07287785 = weight(_text_:und in 1369) [ClassicSimilarity], result of:
0.07287785 = score(doc=1369,freq=16.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.48516542 = fieldWeight in 1369, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1369)
0.25 = coord(1/4)
- Abstract
- coli-conc ist eine Dienstleistung der Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG). Sie stellt webbasierte Dienste für einen effektiveren Austausch von Wissensorganisationssystemen und für die effiziente Erstellung und Wartung von Mappings zur Verfügung. Der Schwerpunkt liegt auf den im deutschsprachigen Raum verbreiteten bibliothekarischen Klassifikationen und Normdateien, vor allem den bedeutenden Universalklassifikationen wie Dewey Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK), Basisklassifikation (BK) und den Sachgruppen der Deutschen Nationalbibliografie (SDNB). Dieser Bericht beschreibt den Hintergrund, die Architektur und die Funktionalitäten von coli-conc sowie das Herzstück der Infrastruktur - das Mapping-Tool Cocoda. Außerdem wird auf Maßnahmen zur Qualitätssicherung eingegangen und ein Einblick in das neue Mapping-Verfahren mit dem Konzept- Hub gewährt.
- Series
- Bibliotheks- und Informationspraxis; 70
-
Hubrich, J.: CrissCross: SWD-DDC-Mapping (2008)
0.02
0.01803259 = product of:
0.07213036 = sum of:
0.07213036 = weight(_text_:und in 3175) [ClassicSimilarity], result of:
0.07213036 = score(doc=3175,freq=12.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.48018923 = fieldWeight in 3175, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3175)
0.25 = coord(1/4)
- Abstract
- Mit zunehmender Nutzung netzwerkbasierter Systeme und steigender internationaler Zusammenarbeit werden Informationsräume geschaffen, in denen unterschiedlich indexierte Informationsressourcen aus verschiedenen Ländern über das Internet frei zugänglich gemacht werden. Bedingt durch die Unterschiedlichkeit der verwendeten Erschließungsinstrumente in Sprache und Struktur gestaltet sich die thematische Recherche in diesen Informationsräumen umständlich und langwierig. Im Rahmen des von der Deutschen Forschungsgemeinschaft (DFG) geförderten und von der Deutschen Nationalbibliothek (DNB) in Kooperation mit der Fachhochschule Köln durchgeführten Projekts CrissCross wird ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular erstellt, das einen wesentlich effizienteren Zugriff auf heterogen erschlossene Informationsressourcen ermöglicht.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 61(2008) H.3, S.50-58
-
Huckstorf, A.; Petras, V.: Mind the lexical gap : EuroVoc Building Block of the Semantic Web (2011)
0.02
0.01745998 = product of:
0.06983992 = sum of:
0.06983992 = weight(_text_:und in 3782) [ClassicSimilarity], result of:
0.06983992 = score(doc=3782,freq=20.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.4649412 = fieldWeight in 3782, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3782)
0.25 = coord(1/4)
- Abstract
- Ein Konferenzereignis der besonderen Art fand am 18. und 19. November 2010 in Luxemburg statt. Initiiert durch das Amt für Veröffentlichungen der Europäischen Union (http://publications.europa.eu) waren Bibliothekare und Information Professionals eingeladen, um über die Zukunft mehrsprachiger kontrollierter Vokabulare in Informationssystemen und insbesondere deren Beitrag zum Semantic Web zu diskutieren. Organisiert wurde die Konferenz durch das EuroVoc-Team, das den Thesaurus der Europäischen Union bearbeitet. Die letzte EuroVoc-Konferenz fand im Jahr 2006 statt. In der Zwischenzeit ist EuroVoc zu einem ontologie-basierten Thesaurusmanagementsystem übergegangen und hat systematisch begonnen, Semantic-Web-Technologien für die Bearbeitung und Repräsentation einzusetzen und sich mit anderen Vokabularen zu vernetzen. Ein produktiver Austausch fand mit den Produzenten anderer europäischer und internationaler Vokabulare (z.B. United Nations oder FAO) sowie Vertretern aus Projekten, die an Themen über automatische Indexierung (hier insbesondere parlamentarische und rechtliche Dokumente) sowie Interoperabilitiät zwischen Vokabularen arbeiten, statt.
- Source
- Information - Wissenschaft und Praxis. 62(2011) H.2/3, S.125-126
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Heel, F.: Abbildungen zwischen der Dewey-Dezimalklassifikation (DDC), der Regensburger Verbundklassifikation (RVK) und der Schlagwortnormdatei (SWD) für die Recherche in heterogen erschlossenen Datenbeständen : Möglichkeiten und Problembereiche (2007)
0.02
0.017215772 = product of:
0.06886309 = sum of:
0.06886309 = weight(_text_:und in 434) [ClassicSimilarity], result of:
0.06886309 = score(doc=434,freq=28.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.45843822 = fieldWeight in 434, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=434)
0.25 = coord(1/4)
- Abstract
- Eine einheitliche Sacherschließung in Deutschland wird durch die Vielzahl an vorhandenen und verwendeten Erschließungssystemen, Universal-, Fachklassifikationen und Fachthesauri erschwert. Den Benutzern von Bibliothekskatalogen oder Datenbanken fällt es daher schwer, themenspezifische Recherchen in heterogen erschlossenen Datenbeständen durchzuführen. In diesem Fall müssen die Nutzer derzeit nämlich den Umgang mit mehreren Erschließungsinstrumenten erlernen und verschiedene Suchanfragen anwenden, um das gewünschte Rechercheergebnis datenbankübergreifend zu erreichen. Um dem Benutzer einen einheitlichen Zugang zu heterogen erschlossenen Datenbeständen zu gewährleisten und gleichzeitig auch den Arbeitsaufwand für die Bibliothekare zu reduzieren, ist die Erstellung eines so genannten "Integrierten Retrievals" sinnvoll. Durch die Verknüpfung der unterschiedlichen Sacherschließungssysteme mit Hilfe von Konkordanzen wird es dem Nutzer ermöglicht, mit einem ihm vertrauten Vokabular eine sachliche Recherche in unterschiedlich erschlossenen Datenbeständen durchzuführen, ohne die spezifischen Besonderheiten der verschiedenen Erschließungsinstrumente kennen zu müssen. In dieser Arbeit sind exemplarisch drei Abbildungen für den Fachbereich der Bibliotheks- und Informationswissenschaften zwischen den für Deutschland wichtigsten Sacherschließungssystemen Dewey-Dezimalklassifikation (DDC), Regensburger Verbundklassifikation (RVK) und Schlagwortnormdatei (SWD) erstellt worden. Die Ergebnisse dieser Arbeit sollen einen ersten Überblick über spezifische Problemfelder und Möglichkeiten der hier erstellten Konkordanzen DDC - RVK, SWD - DDC und SWD - RVK liefern, um damit die Erstellung eines zukünftigen Recherchetools (und gegebenenfalls einer Klassifizierungshilfe) voranzutreiben. Die erstellten Konkordanzen liegen der Arbeit als Anhang bei.
- Content
- Bachelorarbeit im Studiengang Bibliotheks- und Informationsmanagement, Fakultät Information und Kommunikation, Hochschule der Medien Stuttgart
- Imprint
- Stuttgart : Hochschule der Medien / Fakultät Information und Kommunikation
-
Hubrich, J.: Begriffliche Suche und Wissensexploration in heterogenen Informationsräumen : Kurzfassung (2009)
0.02
0.017042745 = product of:
0.06817098 = sum of:
0.06817098 = weight(_text_:und in 716) [ClassicSimilarity], result of:
0.06817098 = score(doc=716,freq=14.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.4538307 = fieldWeight in 716, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=716)
0.25 = coord(1/4)
- Abstract
- Erschließungsinstrumente erhöhen Effizienz und Effektivität thematischer Recherchen, indem sie standardisierte Zugänge zu Informationsressourcen bieten und mittels Ausweisung von Begriffsbeziehungen explorative Suchprozesse unterstützen. In heterogenen Informationsräumen ist ihre Funktionalität aufgrund der Unterschiedlichkeit der verwendeten Indexierungsdaten indes begrenzt. Die Herstellung von Verbindungen zwischen Dokumentationssprachen trägt dazu bei, dass das mit einem einzelnen Begriffssystem gegebene Potential über Teilmengen hinaus nutzbar wird. Welcher Mehrwert durch eine adäquate Einbindung derartiger Verknüpfungen in Retrievalapplikationen im Einzelnen erzielt werden kann, ist wesentlich abhängig von der zugrunde liegenden Methode der Heterogenitätsbehandlung und den berücksichtigten Charakteristika der jeweiligen Erschließungsinstrumente. Im Folgenden wird der vom DFG-Projekt CrissCross praktizierte Ansatz zur Herstellung von semantischer Interoperabilität zwischen der Schlagwortnormdatei (SWD) und der Dewey-Dezimalklassifikation (DDC) vorgestellt und sein Nutzen zur Unterstützung thematischer Suchprozesse aufgezeigt.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.4, S.7-11
-
Binz, V.; Rühle, S.: KIM - Das Kompetenzzentrum Interoperable Metadaten (2009)
0.02
0.017042745 = product of:
0.06817098 = sum of:
0.06817098 = weight(_text_:und in 559) [ClassicSimilarity], result of:
0.06817098 = score(doc=559,freq=14.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.4538307 = fieldWeight in 559, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=559)
0.25 = coord(1/4)
- Abstract
- Die Interoperabilität von Metadaten ist eine wichtige Voraussetzung für das Generieren von Information und Wissen in einer vernetzten Welt. Aus diesem Grund entstehen seit Mitte der Neunziger Jahre verschiedene Standards mit dem Ziel, die Interoperabilität von Metadaten zu erhöhen. Genannt seien hier vor allem DCMES und DCAM, RDF und SKOS. Aufgabe von KIM ist es, diese Entwicklungen zu begleiten und in die deutschsprachige Community zu tragen. Dabei bietet KIM neben reinen Informationsangeboten (z. B. in Form von Übersetzungen, Vorträgen und Handreichungen) auch konkrete Unterstützung in Form von Schulungen und Beratungen an.
- Source
- Bibliothek: Forschung und Praxis. 33(2009) H.3, S.370-374
-
Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011)
0.02
0.017042745 = product of:
0.06817098 = sum of:
0.06817098 = weight(_text_:und in 782) [ClassicSimilarity], result of:
0.06817098 = score(doc=782,freq=14.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.4538307 = fieldWeight in 782, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=782)
0.25 = coord(1/4)
- Abstract
- In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
-
Sigel, A.: Wissensorganisation, Topic Maps und Ontology Engineering : Die Verbindung bewährter Begriffsstrukturen mit aktueller XML Technologie (2004)
0.02
0.016589534 = product of:
0.066358134 = sum of:
0.066358134 = weight(_text_:und in 4236) [ClassicSimilarity], result of:
0.066358134 = score(doc=4236,freq=26.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.44176215 = fieldWeight in 4236, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4236)
0.25 = coord(1/4)
- Abstract
- Wie können begriffliche Strukturen an Topic Maps angebunden werden? Allgemeiner. Wie kann die Wissensorganisation dazu beitragen, dass im Semantic Web eine begriffsbasierte Infrastruktur verfügbar ist? Dieser Frage hat sich die Wissensorganisation bislang noch nicht wirklich angenommen. Insgesamt ist die Berührung zwischen semantischen Wissenstechnologien und wissensorganisatorischen Fragestellungen noch sehr gering, obwohl Begriffsstrukturen, Ontologien und Topic Maps grundsätzlich gut zusammenpassen und ihre gemeinsame Betrachtung Erkenntnisse für zentrale wissensorganisatorische Fragestellungen wie z.B. semantische Interoperabilität und semantisches Retrieval erwarten lässt. Daher motiviert und skizziert dieser Beitrag die Grundidee, nach der es möglich sein müsste, eine Sprache zur Darstellung von Begriffsstrukturen in der Wissensorganisation geeignet mit Topic Maps zu verbinden. Eine genauere Untersuchung und Implementation stehen allerdings weiterhin aus. Speziell wird vermutet, dass sich der Concepto zugrunde liegende Formalismus CLF (Concept Language Formalism) mit Topic Maps vorteilhaft abbilden lässt 3 Damit können Begriffs- und Themennetze realisiert werden, die auf expliziten Begriffssystemen beruhen. Seitens der Wissensorganisation besteht die Notwendigkeit, sich mit aktuellen Entwicklungen auf dem Gebiet des Semantic Web und ontology engineering vertraut zu machen, aber auch die eigene Kompetenz stärker aktiv in diese Gebiete einzubringen. Damit dies geschehen kann, führt dieser Beitrag zum besseren Verständnis zunächst aus Sicht der Wissensorganisation knapp in Ontologien und Topic Maps ein und diskutiert wichtige Überschneidungsbereiche.
- Source
- Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
-
Galinski, C.: Wozu Normen? : Wozu semantische Interoperabilität? (2006)
0.02
0.01656399 = product of:
0.06625596 = sum of:
0.06625596 = weight(_text_:und in 811) [ClassicSimilarity], result of:
0.06625596 = score(doc=811,freq=18.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.44108194 = fieldWeight in 811, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=811)
0.25 = coord(1/4)
- Abstract
- Das Internet beginnt sein volles Potential als Kommunikationsraum zu entfalten. Das betrifft vor allem auch die distribuierte dynamische Erstellung und Wartung von strukturiertem Content. Dabei handelt es sich um datenbankmäßig strukturierte Daten (basierend auf Metadaten, generischen Datenmodellen und Metamodellen), die über die Attribute verfügen, welche ihre Qualität und damit das Vertrauen der Nutzer bestimmen. Da Fachwissen hochgradig "selbstreferenziell" ist, muss "smart content" einen Teil seines Kontexts - zumindest in Form von Verweisen - mit sich führen. Hinzu kommen Anforderungen an Contenteinheiten, grundsätzlich mehrsprachig. multimodal, multimedia sein zu können und hochgradige Personalisierung, Barrierefreiheit und unterschiedlichste Ausgabeformate zu unterstützen. Die Großindustrie weiß, dass eBusiness vom Ansatz her mehrsprachig angelegt sein muss, um Produkte und Dienstleistungen in der Sprache und Kultur der Zielmärkte verkaufen zu können. Viele Normungsaktivitäten zielen auf die Methoden der entsprechenden Datenmodellierung ab. Die Methodennormen von ISO/TC 37 "Terminologie und andere Sprach-, sowie Contentressourcen" haben sich bislang als die "generischsten" für fachsprachliche Contenteinheiten erwiesen, und bewähren sich auch für nicht-wortsprachliche Contenteinheiten auf der Ebene der lexikalischen Semantik.
-
Gödert, W.: Semantische Wissensrepräsentation und Interoperabilität : Teil 2: Ein formales Modell semantischer Interoperabilität (2010)
0.02
0.016461426 = product of:
0.065845706 = sum of:
0.065845706 = weight(_text_:und in 2530) [ClassicSimilarity], result of:
0.065845706 = score(doc=2530,freq=10.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.4383508 = fieldWeight in 2530, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2530)
0.25 = coord(1/4)
- Abstract
- In diesem zweiten Teil wird ein formales Modell zur semantischen Interoperabilität als Brücke zwischen formaler Modellierung und intellektueller Interpretation vorgestellt, das ein besseres Verständnis der zentralen Begriffe von semantischer Ähnlichkeit und Verschiedenheit von Begriffen und Klassen, sowohl als elementare Inhaltsentitäten von Dokumentationssprachen als auch als synthetische Repräsentationen von Dokumentinhalten, ermöglichen soll.
- Source
- Information - Wissenschaft und Praxis. 61(2010) H.1, S.19-28
-
Hennicke, S.: Linked data und semantische Suchfunktionalitäten in Europeana (2013)
0.02
0.016461426 = product of:
0.065845706 = sum of:
0.065845706 = weight(_text_:und in 1947) [ClassicSimilarity], result of:
0.065845706 = score(doc=1947,freq=10.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.4383508 = fieldWeight in 1947, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1947)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag berichtet von Arbeiten, die im Projekt Europeana zu Linked Data und semantischer Suchfunktionalität durchgeführt wurden und basiert auf einem Vortrag vom 23.9.2010 auf der ODOK 2010. Die geplante und auf Technologien aus dem Bereich des Semantic Web basierende Informationsarchitektur von Europeana wird skizziert. Auf diese Informationsarchitektur setzen semantische Funktionalitäten auf die als zukunftsweisende Suchfunktionalitäten in Europeana implementiert werden sollen. Anhand einiger konkreter Beispiele wird in einem zweiten Teil das Grundprinzip einer möglichen semantischen Suche in Europeana dargestellt.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 66(2013) H.1, S.20-34
-
Ertugrul, M.: Probleme und Lösungen zur semantischen Interoperabilität (2013)
0.02
0.016461426 = product of:
0.065845706 = sum of:
0.065845706 = weight(_text_:und in 2115) [ClassicSimilarity], result of:
0.065845706 = score(doc=2115,freq=10.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.4383508 = fieldWeight in 2115, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2115)
0.25 = coord(1/4)
- Abstract
- Mit der Einführung von EAI im eigenen Unternehmen verbinden die meisten Unternehmer positive Ergebnisse und Wirkungen beim Betrieb ihrer IT-Systeme. Die Koexistenz vieler verschiedener Anwendungssysteme, Betriebssysteme und/oder Hardware spielt nur noch eine untergeordnete Rolle. Die Lauffähigkeit der Geschäftsprozesse wird durch EAI gewährleistet, und das nicht nur unternehmensintern, sondern auch -extern. Vergleichbar mit einem Plug & Play wird den Unternehmen suggeriert, dass eine EAI einfach und schnell eine homogene Umgebung wenn auch virtuell - erzeugt.
-
Schleipen, M.: Adaptivität und semantische Interoperabilität von Manufacturing Execution Systemen (MES) (2013)
0.02
0.016461426 = product of:
0.065845706 = sum of:
0.065845706 = weight(_text_:und in 2276) [ClassicSimilarity], result of:
0.065845706 = score(doc=2276,freq=10.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.4383508 = fieldWeight in 2276, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2276)
0.25 = coord(1/4)
- Abstract
- MES (Manufacturing Execution Systems) sind zwischen der Automatisierungs- und der Unternehmensleitebene von Änderungen in der Produktion betroffen. Darum ist ihre Adaptivität im Lebenszyklus der Produktionsanlagen erfolgskritisch. Zusätzlich agieren MES als Daten- und Informationsdrehscheibe. Daher müssen sie möglichst gut und nahtlos mit anderen Systemen zusammenarbeiten: MES müssen interoperabel werden und dabei die Semantik im Griff haben. Die vorliegende Arbeit begegnet beiden Aspekten.
-
Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007)
0.02
0.016044613 = product of:
0.06417845 = sum of:
0.06417845 = weight(_text_:und in 3439) [ClassicSimilarity], result of:
0.06417845 = score(doc=3439,freq=38.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.4272515 = fieldWeight in 3439, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3439)
0.25 = coord(1/4)
- Abstract
- Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
- Content
- Darin u.a. "Interoperabilität als Kernstück - Technische und semantische Interoperabilität bilden somit das Kernstück für das Funktionieren der Europäischen Digitalen Bibliothek. Doch bevor Wege gefunden werden können, wie etwas funktionieren kann, muss zunächst einmal festgelegt werden, was funktionieren soll. Hierfür sind die Nutzeranforderungen das Maß aller Dinge, weshalb sich ein ganzes Arbeitspaket in EDLnet mit der Nutzersicht, den Nutzeranforderungen und der Nutzbarkeit der Europäischen Digitalen Bibliothek befasst, Anforderungen formuliert und diese im Arbeitspaket »Interoperabilität« umgesetzt werden. Für die Entscheidung, welche Inhalte wie präsentiert werden, sind jedoch nicht allein technische und semantische Fragestellungen zu klären, sondern auch ein Geschäftsmodell zu entwickeln, das festlegt, was die beteiligten Institutionen und Organisationen in welcher Form zu welchen Bedingungen zur Europäischen Digitalen Bibliothek beitragen. Auch das Geschäftsmodell wird Auswirkungen auf technische und semantische Interoperabilität haben und liefert die daraus abgeleiteten Anforderungen zur Umsetzung an das entsprechende Arbeitspaket. Im EDLnet-Projekt ist somit ein ständiger Arbeitskreislauf installiert, in welchem die Anforderungen an die Europäische Digitale Bibliothek formuliert, an das Interoperabilitäts-Arbeitspaket weitergegeben und dort umgesetzt werden. Diese Lösung wird wiederum an die Arbeitspakete »Nutzersicht« und »Geschäftsmodell« zurückgemeldet, getestet, kommentiert und für die Kommentare wiederum technische Lösungen gesucht. Dies ist eine Form des »rapid prototyping«, das hier zur Anwendung kommt, d. h. die Funktionalitäten werden schrittweise gemäß des Feedbacks der zukünftigen Nutzer sowie der Projektpartner erweitert und gleichzeitig wird der Prototyp stets lauffähig gehalten und bis zur Produktreife weiterentwickelt. Hierdurch verspricht man sich ein schnelles Ergebnis bei geringem Risiko einer Fehlentwicklung durch das ständige Feedback."
-
Nentwig, L.: Semantische Interoperabilität : Bd.1: Eine technische Einführung (2010)
0.02
0.015938709 = product of:
0.063754834 = sum of:
0.063754834 = weight(_text_:und in 847) [ClassicSimilarity], result of:
0.063754834 = score(doc=847,freq=24.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.42443132 = fieldWeight in 847, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=847)
0.25 = coord(1/4)
- Abstract
- Jede Organisation, sei es in der freien Wirtschaft oder der öffentlichen Verwaltung, nutzt heute Informationssysteme zur effizienten Abwicklung der Geschäftsprozesse. Um Kooperationen zwischen den Organisationen zu ermöglichen, steigt dabei in zunehmendem Maße die Bedeutung organisationsübergreifender und medienbruchfreier Geschäftsprozesse. Grundlage für einen solchen Datenaustausch ist ein Vorgehen, das Fehlinterpretationen und inhaltliche Missverständnisse bei der Verwendung von Begriffen, Datenstrukturen, Schreibkonventionen etc. zu vermeiden hilft und semantische Interoperabilität ermöglicht. Erst die Semantische Interoperabilität gewährleistet einen effizienten organisationsinternen Datenaustausch und eine effiziente Datenintegration mit externen Kooperationsteilnehmern. Die Arbeit an praktikablen Konzepten und Lösungen steht im Zentrum des Arbeitsgebietes »Semantic Interoperability Engineering« (SIE). In diesem Whitepaper werden dafür zentrale Begriffe und Konzepte eingeführt. Sie dienen als Basis für eine weitere Beschäftigung mit dem Thema.
- Content
- Um zwischen Behörden, Wirtschaft und Bürgern durchgängige Prozessketten zu erreichen, wird heute weitgehend auf internetgestützte Kooperation gesetzt. Vielfach sind dabei Insellösungen und autarke IT-Fachanwendungen entstanden, die nicht ohne Weiteres interoperabel sind. Trotz eines syntaktisch korrekten Datenaustausches können die Nutzung unterschiedlicher Begriffe, Datenstrukturen und Schreibkonventionen zu Fehlinterpretationen führen. In der White Paper-Reihe »Semantische Interoperabilität« vermittelt das Fraunhofer ISST in verständlicher Weise Grundlagen und Lösungsansätze des »Semantic Interoperability Engineerings « (SIE). Die Reihe richtet sich an technisch interessierte Personenkreise mit und ohne fachliches Vorwissen (vom Projektleiter bis zum CIO). Vgl.: http://www.isst.fraunhofer.de/geschaeftsfelder/gfegovernment/referenzprojekte/sie/white-paper/index.jsp.
- Imprint
- Berlin : Fraunhofer-Institut für Software- und Systemtechnik ISST
-
Kempf, A.O.: Thesauri und Interoperabilität mit anderen Vokabularen : Die neue Thesaurusnorm ISO 25964 (2013)
0.02
0.015938709 = product of:
0.063754834 = sum of:
0.063754834 = weight(_text_:und in 2144) [ClassicSimilarity], result of:
0.063754834 = score(doc=2144,freq=6.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.42443132 = fieldWeight in 2144, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=2144)
0.25 = coord(1/4)
- Source
- Information - Wissenschaft und Praxis. 64(2013) H.6, S.365-368
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus