-
Zapilko, B.; Sure, Y.: Neue Möglichkeiten für die Wissensorganisation durch die Kombination von Digital Library Verfahren mit Standards des Semantic Web (2013)
0.02
0.017842628 = product of:
0.07137051 = sum of:
0.07137051 = weight(_text_:und in 1936) [ClassicSimilarity], result of:
0.07137051 = score(doc=1936,freq=20.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.4649412 = fieldWeight in 1936, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1936)
0.25 = coord(1/4)
- Abstract
- Entwicklungen und Technologien des Semantic Web treffen seit einigen Jahren verstärkt auf die Bibliotheks- und Dokumentationswelt, um das dort seit Jahrzehnten gesammelte und gepflegte Wissen für das Web und seine Nurzer zugänglich und weiter verarbeitbar zu machen. Dabei können beide Lager von einer Öffnung gegenüber den Verfahren des jeweils anderen und den daraus resultierenden Möglichkeiten, beispielsweise einer integrierten Recherche in verteilten und semantisch angereicherten Dokumentbeständen oder der Anreicherung eigener Bestände um Inhalte anderer, frei verfügbarer Bestände, profitieren. Dieses Paper stellt die Reformulierung eines gängigen informationswissenschaftlichen Verfahrens aus der Dokumentations- und Bibliothekswelt, des sogenannten SchalenmodeIls, vor und zeigt neues Potenzial und neue Möglichkeiten für die Wissensorganisation auf, die durch dessen Anwendung im Semantic Web entstehen können. Darüber hinaus werden erste praktische Ergebnisse der Vorarbeiten dieser Reformulierung präsentiert, die Transformation eines Thesaurus ins SKOS-Format.
-
Sigel, A.: Informationsintegration mit semantischen Wissenstechnologien (2006)
0.02
0.01741625 = product of:
0.069665 = sum of:
0.069665 = weight(_text_:und in 174) [ClassicSimilarity], result of:
0.069665 = score(doc=174,freq=14.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.4538307 = fieldWeight in 174, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=174)
0.25 = coord(1/4)
- Abstract
- Das Tutorium vermittelt theoretische Grundlagen der wissensorganisatorischen (semantischen) Integration und zeigt auch einige praktische Beispiele. Die Integration bezieht sich auf die Ebenen: Integration von ähnlichen Einträgen in verschiedenen Ontologien (Begriffe und Beziehungen) sowie von Aussagen über gleiche Aussagegegenstände und zugehörige Informationsressourcen. Hierzu werden ausgewählte semantische Wissenstechnologien (Topic Maps und RDF) und -werkzeuge vorgestellt und mit wissensorganisatorischen Grundlagen verbunden (z.B. SKOS - Simple Knowledge Organization Systems, http://www.w3.org/2004/02/skos/, oder Published Resource Identifiers).
- Content
- Tutorium auf der 10. Deutschen ISKO-Tagung (Wissensorganisation 2006): Kompatibilität und Heterogenität in der Wissensorganisation Universität Wien, Montag 03. Juli 2006.
-
Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011)
0.02
0.01741625 = product of:
0.069665 = sum of:
0.069665 = weight(_text_:und in 782) [ClassicSimilarity], result of:
0.069665 = score(doc=782,freq=14.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.4538307 = fieldWeight in 782, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=782)
0.25 = coord(1/4)
- Abstract
- In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
-
Schulz, T.: Konzeption und prototypische Entwicklung eines Thesaurus für IT-Konzepte an Hochschulen (2021)
0.02
0.016953107 = product of:
0.06781243 = sum of:
0.06781243 = weight(_text_:und in 1430) [ClassicSimilarity], result of:
0.06781243 = score(doc=1430,freq=26.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.44176215 = fieldWeight in 1430, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1430)
0.25 = coord(1/4)
- Abstract
- In Hochschulen besteht derzeit ein großes Anliegen, die Digitalisierung effektiv und effizient für Prozesse in Steuerungsbereichen zu nutzen. Dabei steht die IT-Governance im Mittelpunkt der hochschulpolitischen Überlegungen und beinhaltet "die interne Steuerung und Koordination von Entscheidungsprozessen in Bezug auf IT-Steuerung beziehungsweise Digitalisierungsmaßnahmen."(Christmann-Budian et al. 2018) Strategisch kann die Bündelung von Kompetenzen in der deutschen Hochschullandschaft dabei helfen, die steigenden Anforderungen an die IT-Governance zu erfüllen. Passend zu diesem Ansatz realisieren aktuell im ZDT zusammengeschlossene Hochschulen das Projekt "IT-Konzepte - Portfolio gemeinsamer Vorlagen und Muster". Das Projekt schließt an die Problemstellung an, indem Kompetenzen gebündelt und alle Hochschulen befähigt werden, IT-Konzepte erarbeiten und verabschieden zu können. Dazu wird ein Portfolio an Muster und Vorlagen als Ressourcenpool zusammengetragen und referenziert, um eine Nachvollziehbarkeit der Vielfalt an Herausgebern gewährleisten zu können (Meister 2020). Um den Ressourcenpool, welcher einen Body of Knowledge (BoK) darstellt, effizient durchsuchen zu können, ist eine sinnvolle Struktur unabdinglich. Daher setzt sich das Ziel der Bachelorarbeit aus der Analyse von hochschulinternen Dokumenten mithilfe von Natural Language Processing (NLP) und die daraus resultierende Entwicklung eines Thesaurus-Prototyps für IT-Konzepte zusammen. Dieser soll im Anschluss serialisiert und automatisiert werden, um diesen fortlaufend auf einem aktuellen Stand zu halten. Es wird sich mit der Frage beschäftigt, wie ein Thesaurus nachhaltig technologisch, systematisch und konsistent erstellt werden kann, um diesen Prozess im späteren Verlauf als Grundlage für weitere Themenbereiche einzuführen.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Niederée, C.: Metadaten als Bausteine des Semantic Web (2003)
0.02
0.016927004 = product of:
0.067708015 = sum of:
0.067708015 = weight(_text_:und in 2761) [ClassicSimilarity], result of:
0.067708015 = score(doc=2761,freq=18.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.44108194 = fieldWeight in 2761, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2761)
0.25 = coord(1/4)
- Abstract
- Das »Semantic Web« bildet einen der wichtigsten, aktuellen Trends in der Weiterentwicklung des World Wide Web. Ehrgeizige Vision dieser nächsten Generation des WWW ist es, durch semantische Anreicherung von Information eine neue Qualität in der Bereitstellung von Inhalten und Diensten zu erreichen und vollständig neue Anwendungsmöglichkeiten für das Web zu eröffnen. Wichtige Ziele der Entwicklung des Semantic Web sind dabei die verbesserte Unterstützung von Kooperation zwischen Menschen und Computern und die intelligente Assistenz bei der Durchführung von Aufgaben in kooperativen verteilten Informationsumgebungen. Schlüssel zur Erreichung dieser Ziele sind die Anreicherung von Daten im Web mit Metadaten, welche diese Daten in einen semantischen Kontext einbetten. Diese Kontextinformation wird durch Software-Anwendungen interpretiert und zur Informationsfilterung, Verfeinerung von Anfragen und zur Bereitstellung intelligenter Assistenten verwendet. Eine große Herausforderung stellt dabei die geeignete Modellierung und Beschreibung des Kontexts dar. Diese muss eine automatische, globale Interpretation ermöglichen, ohne dass auf ein allgemeingültiges semantisches Beschreibungsschema zurückgegriffen werden kann. Die Vereinbarung eines solchen allgemeingültigen Schemas ist in einem derart umfangreichen, heterogenen und autonomen Rahmen, wie ihn das WWW darstellt, nicht möglich.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.193-198
-
Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001)
0.02
0.016927004 = product of:
0.067708015 = sum of:
0.067708015 = weight(_text_:und in 322) [ClassicSimilarity], result of:
0.067708015 = score(doc=322,freq=18.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.44108194 = fieldWeight in 322, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=322)
0.25 = coord(1/4)
- Abstract
- Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
- Content
- Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
-
May, W.: Reasoning im und für das Semantic Web (2006)
0.02
0.016822193 = product of:
0.06728877 = sum of:
0.06728877 = weight(_text_:und in 812) [ClassicSimilarity], result of:
0.06728877 = score(doc=812,freq=10.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.4383508 = fieldWeight in 812, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=812)
0.25 = coord(1/4)
- Abstract
- Dieses Kapitel gibt zuerst einen kurzen historischen Überblick über "Reasoning", d. h. Schließen, Wissensrepräsentation und "künstliche Intelligenz". Der Hauptteil geht auf einige "Reasoning"-Mechanismen und -Konzepte, die im Semantic Web eine Rolle spielen, ein und zeigt, wie dieses "Reasoning" - unauffällig - in den Konzepten des Semantic Web zur Beschreibung von Wissensbasen enthalten ist. Weiterhin werden Reasoning-Mechanismen umrissen, die dem Zusammenspiel verschiedener Knoten im Semantic Web dienen, und ein kurzes Fazit gezogen.
-
Finke, M.; Risch, J.: "Match Me If You Can" : Sammeln und semantisches Aufbereiten von Fußballdaten (2017)
0.02
0.016822193 = product of:
0.06728877 = sum of:
0.06728877 = weight(_text_:und in 4723) [ClassicSimilarity], result of:
0.06728877 = score(doc=4723,freq=10.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.4383508 = fieldWeight in 4723, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4723)
0.25 = coord(1/4)
- Abstract
- Interviews, Spielstatistiken oder Videoaufzeichnungen sind für Fußballfans zwar zahlreich im Internet verfügbar, aber auf viele verschiedene Websites verstreut. "Semantic Media Mining" verknüpft nun Fußballdaten aus unterschiedlichen Quellen, bereitet sie semantisch auf und führt sie auf einer einzigen Website zusammen. Dadurch dokumentieren und visualisieren wir mehr als 50 Jahre Fußballgeschichte mit über 500 Mannschaften und 40.000 Spielern der Champions League, sowie der 1. und 2. Bundesliga.
-
Semantic web & linked data : Elemente zukünftiger Informationsinfrastrukturen ; 1. DGI-Konferenz ; 62. Jahrestagung der DGI ; Frankfurt am Main, 7. - 9. Oktober 2010 ; Proceedings / Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis (2010)
0.02
0.01669025 = product of:
0.066761 = sum of:
0.066761 = weight(_text_:und in 2516) [ClassicSimilarity], result of:
0.066761 = score(doc=2516,freq=70.0), product of:
0.15350439 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06921162 = queryNorm
0.43491268 = fieldWeight in 2516, product of:
8.3666 = tf(freq=70.0), with freq of:
70.0 = termFreq=70.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2516)
0.25 = coord(1/4)
- Abstract
- Informationswissenschaft und Informatik nähern sich auf vielen Gebieten bei ihren Projekten und in ihren Zielsetzungen immer stärker an. Ganz besonders deutlich wird dies vor dem Hintergrund von Semantic Web und Linked Data. Die Textanalyse und Fixierung der Essenz einer Publikation in Form ihrer belastbaren Aussagen und zugrunde liegender Daten sowie deren Speicherung und Aufbereitung für die Nutzung gehören zu den professionellen Aktivitäten der in der DGI organisierten Informationsfachleute. Das Semantic Web versprocht, bei entsprechender intellektueller Vorarbeit, diese Tätigkeiten künftig zu erleichtern. Der Tgaungsband macht an vielen Beispielen anschaulich klar, wie die in Informationswissenschaft und -praxis über Jahrzehnte erarbeiteten Grundlagen und Werkzeuge jetzt für den Aufbau der zukünftigen Informationsinfrastrukturen eingesetzt werden können. Er vereint die Textfassungen der Beiträge, die durch das Programmkomitee für die 1. DGI-Konferenz angenommen worden sind, dazu gehören u.a. wissensbasierte Anwendungen in der Wirtschaft, Aufbau von Ontologien mittels Thesauri, Mehrsprachigkeit und Open Data.
- Content
- Enthält die Beiträge: ONTOLOGIEN UND WISSENSREPRÄSENTATIONEN: DIE VERLINKUNG ZWISCHEN INFORMATIONSSUCHENDEN UND INFORMATIONSRESSOURCEN Die Verwendung von SKOS-Daten zur semantischen Suchfragenerweiterung im Kontext des individualisierbaren Informationsportals RODIN / Fabio Ricci und Rene Schneider - Aufbau einer Testumgebung zur Ermittlung signifikanter Parameter bei der Ontologieabfrage / Sonja Öttl, Daniel Streiff, Niklaus Stettler und Martin Studer - Anforderungen an die Wissensrepräsentation im Social Semantic Web / Katrin Weller SEMANTIC WEB & LINKED DATA: WISSENSBASIERTE ANWENDUNGEN IN DER WIRTSCHAFT Semantic Web & Linked Data für professionelle Informationsangebote. Hoffnungsträger oder "alter Hut" - Eine Praxisbetrachtung für die Wirtschaftsinformationen / Ruth Göbel - Semantische wissensbasierte Suche in den Life Sciences am Beispiel von GoPubMed / Michael R. Alvers Produktion und Distribution für multimedialen Content in Form von Linked Data am Beispiel von PAUX / Michael Dreusicke DAS RÜCKRAT DES WEB DER DATEN: ONTOLOGIEN IN BIBLIOTHEKEN Linked Data aus und für Bibliotheken: Rückgratstärkung im Semantic Web / Reinhard Altenhöner, Jan Hannemann und Jürgen Kett - MODS2FRBRoo: Ein Tool zur Anbindung von bibliografischen Daten an eine Ontologie für Begriffe und Informationen im Bereich des kulturellen Erbes / Hans-Georg Becker - Suchmöglichkeiten für Vokabulare im Semantic Web / Friederike Borchert
LINKED DATA IM GEOINFORMATIONSBEREICH - CHANCEN ODER GEFAHR? Geodaten - von der Verantwortung des Dealers / Karsten Neumann - Computergestützte Freizeitplanung basierend auf Points Of Interest / Peter Bäcker und Ugur Macit VON LINKED DATA ZU VERLINKTEN DIALOGEN Die globalisierte Semantic Web Informationswissenschaftlerin / Dierk Eichel - Kommunikation und Kontext. Überlegungen zur Entwicklung virtueller Diskursräume für die Wissenschaft / Ben Kaden und Maxi Kindling - Konzeptstudie: Die informationswissenschaftliche Zeitschrift der Zukunft / Lambert Heller und Heinz Pampel SEMANTIC WEB & LINKED DATA IM BILDUNGSWESEN Einsatz von Semantic Web-Technologien am Informationszentrum Bildung / Carola Carstens und Marc Rittberger - Bedarfsgerecht, kontextbezogen, qualitätsgesichert: Von der Information zum Wertschöpfungsfaktor Wissen am Beispiel einer Wissenslandkarte als dynamisches System zur Repräsentation des Wissens in der Berufsbildungsforschung / Sandra Dücker und Markus Linten - Virtuelle Forschungsumgebungen und Forschungsdaten für Lehre und Forschung: Informationsinfrastrukturen für die (Natur-)Wissenschaften / Matthias Schulze
OPEN DATA - OPENS PROBLEMS? Challenges and Opportunities in Social Science Research Data Management / Stefan Kramer - Aktivitäten von GESIS im Kontext von Open Data und Zugang zu sozialwissenschaftlichen Forschungsergebnissen / Anja Wilde, Agnieszka Wenninger, Oliver Hopt, Philipp Schaer und Benjamin Zapilko NUTZER UND NUTZUNG IM ZEITALTER VON SEMANTIC WEB & LINKED DATA Die Erfassung, Nutzung und Weiterverwendung von statistischen Informationen - Erfahrungsbericht / Doris Stärk - Einsatz semantischer Technologien zur Entwicklung eines Lerntrajektoriengenerators in frei zugänglichen, nicht personalisierenden Lernplattformen / Richard Huber, Adrian Paschke, Georges Awad und Kirsten Hantelmann OPEN DATA: KONZEPTE - NUTZUNG - ZUKUNFT Zur Konzeption und Implementierung einer Infrastruktur für freie bibliographische Daten / Adrian Pohl und Felix Ostrowski - Lösung zum multilingualen Wissensmanagement semantischer Informationen / Lars Ludwig - Linked Open Projects: Nachnutzung von Projektergebnissen als Linked Data / Kai Eckert AUSBLICK INFORMATIONSKOMPETENZ GMMIK ['gi-mik] - Ein Modell der Informationskompetenz / Aleksander Knauerhase WORKSHOP Wissensdiagnostik als Instrument für Lernempfehlungen am Beispiel der Facharztprüfung / Werner Povoden, Sabine Povoden und Roland Streule
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis ; Bd. 14) (DGI-Konferenz ; 1
-
Campbell, D.G.: Derrida, logocentrism, and the concept of warrant on the Semantic Web (2008)
0.02
0.016485397 = product of:
0.06594159 = sum of:
0.06594159 = weight(_text_:however in 3507) [ClassicSimilarity], result of:
0.06594159 = score(doc=3507,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.22941813 = fieldWeight in 3507, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0390625 = fieldNorm(doc=3507)
0.25 = coord(1/4)
- Content
- The highly-structured data standards of the Semantic Web contain a promising venue for the migration of library subject access standards onto the World Wide Web. The new functionalities of the Web, however, along with the anticipated capabilities of intelligent Web agents, suggest that information on the Semantic Web will have much more flexibility, diversity and mutability. We need, therefore, a method for recognizing and assessing the principles whereby Semantic Web information can combine together in productive and useful ways. This paper will argue that the concept of warrant in traditional library science, can provide a useful means of translating library knowledge structures into Web-based knowledge structures. Using Derrida's concept of logocentrism, this paper suggests that what while "warrant" in library science traditionally alludes to the principles by which concepts are admitted into the design of a classification or access system, "warrant" on the Semantic Web alludes to the principles by which Web resources can be admitted into a network of information uses. Furthermore, library information practice suggests a far more complex network of warrant concepts that provide a subtlety and richness to knowledge organization that the Semantic Web has not yet attained.
-
Almeida, M.; Souza, R.; Fonseca, F.: Semantics in the Semantic Web : a critical evaluation (2011)
0.02
0.016485397 = product of:
0.06594159 = sum of:
0.06594159 = weight(_text_:however in 293) [ClassicSimilarity], result of:
0.06594159 = score(doc=293,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.22941813 = fieldWeight in 293, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0390625 = fieldNorm(doc=293)
0.25 = coord(1/4)
- Abstract
- In recent years, the term "semantics" has been widely used in various fields of research and particularly in areas related to information technology. One of the motivators of such an appropriation is the vision of the Semantic Web, a set of developments underway, which might allow one to obtain better results when querying on the web. However, it is worth asking what kind of semantics we can find in the Semantic Web, considering that studying the subject is a complex and controversial endeavor. Working within this context, we present an account of semantics, relying on the main linguist approaches, in order to then analyze what semantics is within the scope of information technology. We critically evaluate a spectrum, which proposes the ordination of instruments (models, languages, taxonomic structures, to mention but a few) according to a semantic scale. In addition to proposing a new extended spectrum, we suggest alternative interpretations with the aim of clarifying the use of the term "semantics" in different contexts. Finally, we offer our conclusions regarding the semantic in the Semantic Web and mention future directions and complementary works.
-
Maltese, V.; Farazi, F.: Towards the integration of knowledge organization systems with the linked data cloud (2011)
0.02
0.016485397 = product of:
0.06594159 = sum of:
0.06594159 = weight(_text_:however in 815) [ClassicSimilarity], result of:
0.06594159 = score(doc=815,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.22941813 = fieldWeight in 815, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0390625 = fieldNorm(doc=815)
0.25 = coord(1/4)
- Abstract
- In representing the shared view of all the people involved, building a knowledge organization system (KOS) from scratch is extremely costly, and it is therefore fundamental to reuse existing resources. This can be done by progressively extending the KOS with knowledge coming from similar KOSs and by promoting interoperability among them. The linked data initiative is indeed encouraging people to share and integrate their datasets into a giant network of interconnected resources. This enables different applications to interoperate and share their data. The integration should take into account the purpose of the datasets, however, and make explicit the semantics. In fact, the difference in the purpose is reflected in the difference in the semantics. With this paper we (a) highlight the potential problems that may arise by not taking into account purpose and semantics; (b) make clear how the difference in the purpose is reflected in totally different semantics and (c) provide an algorithm to translate from one semantics into another as a preliminary step towards the integration of ontologies designed for different purposes. This will allow reusing the ontologies even in contexts different from those in which they were designed.
-
Lassalle, E.; Lassalle, E.: Semantic models in information retrieval (2012)
0.02
0.016485397 = product of:
0.06594159 = sum of:
0.06594159 = weight(_text_:however in 1097) [ClassicSimilarity], result of:
0.06594159 = score(doc=1097,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.22941813 = fieldWeight in 1097, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0390625 = fieldNorm(doc=1097)
0.25 = coord(1/4)
- Abstract
- Robertson and Spärck Jones pioneered experimental probabilistic models (Binary Independence Model) with both a typology generalizing the Boolean model, a frequency counting to calculate elementary weightings, and their combination into a global probabilistic estimation. However, this model did not consider indexing terms dependencies. An extension to mixture models (e.g., using a 2-Poisson law) made it possible to take into account these dependencies from a macroscopic point of view (BM25), as well as a shallow linguistic processing of co-references. New approaches (language models, for example "bag of words" models, probabilistic dependencies between requests and documents, and consequently Bayesian inference using Dirichlet prior conjugate) furnished new solutions for documents structuring (categorization) and for index smoothing. Presently, in these probabilistic models the main issues have been addressed from a formal point of view only. Thus, linguistic properties are neglected in the indexing language. The authors examine how a linguistic and semantic modeling can be integrated in indexing languages and set up a hybrid model that makes it possible to deal with different information retrieval problems in a unified way.
-
Ghorbel, H.; Bahri, A.; Bouaziz, R.: Fuzzy ontologies building platform for Semantic Web : FOB platform (2012)
0.02
0.016485397 = product of:
0.06594159 = sum of:
0.06594159 = weight(_text_:however in 1098) [ClassicSimilarity], result of:
0.06594159 = score(doc=1098,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.22941813 = fieldWeight in 1098, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0390625 = fieldNorm(doc=1098)
0.25 = coord(1/4)
- Abstract
- The unstructured design of Web resources favors human comprehension, but makes difficult the automatic exploitation of the contents of these resources by machines. So, the Semantic Web aims at making the cooperation between human and machine possible, by giving any information a well defined meaning. The first weavings of the Semantic Web are already prepared. Machines become able to treat and understand the data that were accustomed to only visualization, by using ontologies constitute an essential element of the Semantic Web, as they serve as a form of knowledge representation, sharing, and reuse. However, the Web content is subject to imperfection, and crisp ontologies become less suitable to represent concepts with imprecise definitions. To overcome this problem, fuzzy ontologies constitute a promising research orientation. Indeed, the definition of fuzzy ontologies components constitutes an issue that needs to be well treated. It is necessary to have an appropriate methodology of building an operationalization of fuzzy ontological models. This chapter defines a fuzzy ontological model based on fuzzy description logic. This model uses a new approach for the formal description of fuzzy ontologies. This new methodology shows how all the basic components defined for fuzzy ontologies can be constructed.
-
Maltese, V.; Farazi, F.: Towards the integration of knowledge organization systems with the linked data cloud (2011)
0.02
0.016485397 = product of:
0.06594159 = sum of:
0.06594159 = weight(_text_:however in 1602) [ClassicSimilarity], result of:
0.06594159 = score(doc=1602,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.22941813 = fieldWeight in 1602, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0390625 = fieldNorm(doc=1602)
0.25 = coord(1/4)
- Abstract
- In representing the shared view of all the people involved, building a Knowledge Organization System (KOS) from scratch is extremely costly, and it is therefore fundamental to reuse existing resources. This can be done by progressively extending the KOS with knowledge coming from similar KOS and by promoting interoperability among them. The linked data initiative is indeed fostering people to share and integrate their datasets into a giant network of interconnected resources. This enables different applications to interoperate and share their data. However, the integration should take into account the purpose of the datasets and make explicit the semantics. In fact, the difference in the purpose is reflected in the difference in the semantics. With this paper we (a) highlight the potential problems that may arise by not taking into account purpose and semantics, (b) make clear how the difference in the purpose is reflected in totally different semantics and (c) provide an algorithm to translate from one semantic into another as a preliminary step towards the integration of ontologies designed for different purposes. This will allow reusing the ontologies even in contexts different from those in which they were designed.
-
Gómez-Pérez, A.; Corcho, O.: Ontology languages for the Semantic Web (2015)
0.02
0.016485397 = product of:
0.06594159 = sum of:
0.06594159 = weight(_text_:however in 4297) [ClassicSimilarity], result of:
0.06594159 = score(doc=4297,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.22941813 = fieldWeight in 4297, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0390625 = fieldNorm(doc=4297)
0.25 = coord(1/4)
- Abstract
- Ontologies have proven to be an essential element in many applications. They are used in agent systems, knowledge management systems, and e-commerce platforms. They can also generate natural language, integrate intelligent information, provide semantic-based access to the Internet, and extract information from texts in addition to being used in many other applications to explicitly declare the knowledge embedded in them. However, not only are ontologies useful for applications in which knowledge plays a key role, but they can also trigger a major change in current Web contents. This change is leading to the third generation of the Web-known as the Semantic Web-which has been defined as "the conceptual structuring of the Web in an explicit machine-readable way."1 This definition does not differ too much from the one used for defining an ontology: "An ontology is an explicit, machinereadable specification of a shared conceptualization."2 In fact, new ontology-based applications and knowledge architectures are developing for this new Web. A common claim for all of these approaches is the need for languages to represent the semantic information that this Web requires-solving the heterogeneous data exchange in this heterogeneous environment. Here, we don't decide which language is best of the Semantic Web. Rather, our goal is to help developers find the most suitable language for their representation needs. The authors analyze the most representative ontology languages created for the Web and compare them using a common framework.
-
Oliveira Machado, L.M.; Souza, R.R.; Simões, M. da Graça: Semantic web or web of data? : a diachronic study (1999 to 2017) of the publications of Tim Berners-Lee and the World Wide Web Consortium (2019)
0.02
0.016485397 = product of:
0.06594159 = sum of:
0.06594159 = weight(_text_:however in 300) [ClassicSimilarity], result of:
0.06594159 = score(doc=300,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.22941813 = fieldWeight in 300, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0390625 = fieldNorm(doc=300)
0.25 = coord(1/4)
- Abstract
- The web has been, in the last decades, the place where information retrieval achieved its maximum importance, given its ubiquity and the sheer volume of information. However, its exponential growth made the retrieval task increasingly hard, relying in its effectiveness on idiosyncratic and somewhat biased ranking algorithms. To deal with this problem, a "new" web, called the Semantic Web (SW), was proposed, bringing along concepts like "Web of Data" and "Linked Data," although the definitions and connections among these concepts are often unclear. Based on a qualitative approach built over a literature review, a definition of SW is presented, discussing the related concepts sometimes used as synonyms. It concludes that the SW is a comprehensive and ambitious construct that includes the great purpose of making the web a global database. It also follows the specifications developed and/or associated with its operationalization and the necessary procedures for the connection of data in an open format on the web. The goals of this comprehensive SW are the union of two outcomes still tenuously connected: the virtually unlimited possibility of connections between data-the web domain-with the potentiality of the automated inference of "intelligent" systems-the semantic component.
-
Knowledge graphs : new directions for knowledge representation on the Semantic Web (2019)
0.02
0.016485397 = product of:
0.06594159 = sum of:
0.06594159 = weight(_text_:however in 1052) [ClassicSimilarity], result of:
0.06594159 = score(doc=1052,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.22941813 = fieldWeight in 1052, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0390625 = fieldNorm(doc=1052)
0.25 = coord(1/4)
- Abstract
- The increasingly pervasive nature of the Web, expanding to devices and things in everydaylife, along with new trends in Artificial Intelligence call for new paradigms and a new look onKnowledge Representation and Processing at scale for the Semantic Web. The emerging, but stillto be concretely shaped concept of "Knowledge Graphs" provides an excellent unifying metaphorfor this current status of Semantic Web research. More than two decades of Semantic Webresearch provides a solid basis and a promising technology and standards stack to interlink data,ontologies and knowledge on the Web. However, neither are applications for Knowledge Graphsas such limited to Linked Open Data, nor are instantiations of Knowledge Graphs in enterprises- while often inspired by - limited to the core Semantic Web stack. This report documents theprogram and the outcomes of Dagstuhl Seminar 18371 "Knowledge Graphs: New Directions forKnowledge Representation on the Semantic Web", where a group of experts from academia andindustry discussed fundamental questions around these topics for a week in early September 2018,including the following: what are knowledge graphs? Which applications do we see to emerge?Which open research questions still need be addressed and which technology gaps still need tobe closed?
-
Usbeck, R.; Yan, X.; Perevalov, A.; Jiang, L.; Schulz, J.; Kraft, A.; Möller, C.; Huang, J.; Reineke, J.; Ngonga Ngomo, A.-C.; Saleem, M.; Both, A.: QALD-10 - The 10th challenge on question answering over linked data: : shifting from DBpedia to Wikidata as a KG for KGQA (2023)
0.02
0.016485397 = product of:
0.06594159 = sum of:
0.06594159 = weight(_text_:however in 2350) [ClassicSimilarity], result of:
0.06594159 = score(doc=2350,freq=2.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.22941813 = fieldWeight in 2350, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.0390625 = fieldNorm(doc=2350)
0.25 = coord(1/4)
- Abstract
- Knowledge Graph Question Answering (KGQA) has gained attention from both industry and academia over the past decade. Researchers proposed a substantial amount of benchmarking datasets with different properties, pushing the development in this field forward. Many of these benchmarks depend on Freebase, DBpedia, or Wikidata. However, KGQA benchmarks that depend on Freebase and DBpedia are gradually less studied and used, because Freebase is defunct and DBpedia lacks the structural validity of Wikidata. Therefore, research is gravitating toward Wikidata-based benchmarks. That is, new KGQA benchmarks are created on the basis of Wikidata and existing ones are migrated. We present a new, multilingual, complex KGQA benchmarking dataset as the 10th part of the Question Answering over Linked Data (QALD) benchmark series. This corpus formerly depended on DBpedia. Since QALD serves as a base for many machine-generated benchmarks, we increased the size and adjusted the benchmark to Wikidata and its ranking mechanism of properties. These measures foster novel KGQA developments by more demanding benchmarks. Creating a benchmark from scratch or migrating it from DBpedia to Wikidata is non-trivial due to the complexity of the Wikidata knowledge graph, mapping issues between different languages, and the ranking mechanism of properties using qualifiers. We present our creation strategy and the challenges we faced that will assist other researchers in their future work. Our case study, in the form of a conference challenge, is accompanied by an in-depth analysis of the created benchmark.
-
Miles, A.; Matthews, B.; Beckett, D.; Brickley, D.; Wilson, M.; Rogers, N.: SKOS: A language to describe simple knowledge structures for the web (2005)
0.02
0.01631971 = product of:
0.06527884 = sum of:
0.06527884 = weight(_text_:however in 1517) [ClassicSimilarity], result of:
0.06527884 = score(doc=1517,freq=4.0), product of:
0.28742972 = queryWeight, product of:
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.06921162 = queryNorm
0.22711235 = fieldWeight in 1517, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.1529117 = idf(docFreq=1897, maxDocs=44421)
0.02734375 = fieldNorm(doc=1517)
0.25 = coord(1/4)
- Content
- This type of effort is common in the digital library community, where a group of experts will interact with a user community to create a thesaurus for a specific domain (e.g. the Art & Architecture Thesaurus AAT AAT) or an overarching classification scheme (e.g. the Dewey Decimal Classification). A similar type of activity is being undertaken more recently in a less centralised manner by web communities, producing for example the DMOZ web directory DMOZ, or the Topic Exchange for weblog topics Topic Exchange. The web, including the semantic web, provides a medium within which communities can interact and collaboratively build and use vocabularies of concepts. A simple language is required that allows these communities to express the structure and content of their vocabularies in a machine-understandable way, enabling exchange and reuse. The Resource Description Framework (RDF) is an ideal language for making statements about web resources and publishing metadata. However, RDF provides only the low level semantics required to form metadata statements. RDF vocabularies must be built on top of RDF to support the expression of more specific types of information within metadata. Ontology languages such as OWL OWL add a layer of expressive power to RDF, and provide powerful tools for defining complex conceptual structures, which can be used to generate rich metadata. However, the class-oriented, logically precise modelling required to construct useful web ontologies is demanding in terms of expertise, effort, and therefore cost. In many cases this type of modelling may be superfluous or unsuited to requirements. Therefore there is a need for a language for expressing vocabularies of concepts for use in semantically rich metadata, that is powerful enough to support semantically enhanced search, but simple enough to be undemanding in terms of the cost and expertise required to use it."