-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.10
0.10131633 = product of:
0.20263267 = sum of:
0.14784497 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.14784497 = score(doc=346,freq=2.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.054787695 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.054787695 = score(doc=346,freq=28.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Cazan, C.: Medizinische Ontologien : das Ende des MeSH (2006)
0.09
0.0882519 = product of:
0.1765038 = sum of:
0.054787695 = weight(_text_:und in 1132) [ClassicSimilarity], result of:
0.054787695 = score(doc=1132,freq=28.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.36675057 = fieldWeight in 1132, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1132)
0.12171612 = weight(_text_:hand in 1132) [ClassicSimilarity], result of:
0.12171612 = score(doc=1132,freq=4.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.3360693 = fieldWeight in 1132, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.03125 = fieldNorm(doc=1132)
0.5 = coord(2/4)
- Abstract
- Die Komplexizität medizinischer Fragestellungen und des medizinischen Informationsmanagements war seit den Anfängen der Informatik immer ein besonders wichtiges Thema. Trotz des Scheiterns der Künstlichen Intelligenz in den 80er Jahren des vorigen Jahrhunderts haben deren Kernideen Früchte getragen. Durch kongruente Entwicklung einer Reihe anderer Wissenschaftsdisziplinen und der exponentiellen Entwicklung im Bereich Computerhardware konnten die gestellten, hohen Anforderungen bei der medizinischen Informationssuche doch noch erfüllt werden. Die programmatische Forderung von Tim Berners-Lee betreffend "Semantic Web" im Jahr 2000 hat dem Thema Ontologien für maschinenlesbare Repositorien in Allgemein- und Fachsprache breitere Aufmerksamkeit gewonnen. Da in der Medizin (PubMed) mit dem von NLM schon vor 20 Jahren entwickelten Unified Medical Language System (UMLS) eine funktionierende Ontologie in Form eines semantischen Netzes in Betrieb ist, ist es auch für Medizinbibliothekare und Medizindokumentare hoch an der Zeit, sich damit zu beschäftigen. Ontologien können im Wesen, trotz der informatisch vernebelnden Terminologie, als Werkzeuge der Klassifikation verstanden werden. Hier sind von seiten der Bibliotheks- und Dokumentationswissenschaft wesentliche Beiträge möglich. Der vorliegende Bericht bietet einen Einstieg in das Thema, erklärt wesentliche Elemente des UMLS und schließt mit einer kommentierten Anmerkungs- und Literaturliste für die weitere Beschäftigung mit Ontologien.
- Content
- Dieser Aufsatz ist kein Abgesang auf MeSH (= Medical Subject Headings in Medline/PubMed), wie man/frau vielleicht vermuten könnte. Vielmehr wird - ohne informatiklastiges Fachchinesisch - an Hand des von der National Library of Medicine entwickelten Unified Medical Language System erklärt, worin die Anforderungen an Ontologien bestehen, die im Zusammenhang mit dem Semantic Web allerorten eingefordert und herbeigewünscht werden. Eine Lektüre für Einsteigerinnen, die zum Vertiefen der gewonnenen Begriffssicherheit an Hand der weiterführenden Literaturhinweise anregt. Da das UMLS hier vor allem als Beispiel verwendet wird, werden auch Bibliothekarlnnen, Dokumentarlnnen und Informationsspezialistinnen anderer Fachbereiche den Aufsatz mit Gewinn lesen - und erfahren, dass unser Fachwissen aus der Sacherschließung und der Verwendung und Mitgestaltung von Normdateien und Thesauri bei der Entwicklung von Ontologien gefragt ist! (Eveline Pipp, Universitätsbibliothek Innsbruck). - Die elektronische Version dieses Artikels ist verfügbar unter: http://www.egms.de/en/journals/mbi/2006-6/mbi000049.shtml.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Krause, J.: Shell Model, Semantic Web and Web Information Retrieval (2006)
0.07
0.069642544 = product of:
0.13928509 = sum of:
0.03170222 = weight(_text_:und in 61) [ClassicSimilarity], result of:
0.03170222 = score(doc=61,freq=6.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.21221566 = fieldWeight in 61, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=61)
0.10758286 = weight(_text_:hand in 61) [ClassicSimilarity], result of:
0.10758286 = score(doc=61,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.29704607 = fieldWeight in 61, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0390625 = fieldNorm(doc=61)
0.5 = coord(2/4)
- Abstract
- The middle of the 1990s are coined by the increased enthusiasm for the possibilities of the WWW, which has only recently deviated - at least in relation to scientific information - for the differentiated measuring of its advantages and disadvantages. Web Information Retrieval originated as a specialized discipline with great commercial significance (for an overview see Lewandowski 2005). Besides the new technological structure that enables the indexing and searching (in seconds) of unimaginable amounts of data worldwide, new assessment processes for the ranking of search results are being developed, which use the link structures of the Web. They are the main innovation with respect to the traditional "mother discipline" of Information Retrieval. From the beginning, link structures of Web pages are applied to commercial search engines in a wide array of variations. From the perspective of scientific information, link topology based approaches were in essence trying to solve a self-created problem: on the one hand, it quickly became clear that the openness of the Web led to an up-tonow unknown increase in available information, but this also caused the quality of the Web pages searched to become a problem - and with it the relevance of the results. The gatekeeper function of traditional information providers, which narrows down every user query to focus on high-quality sources was lacking. Therefore, the recognition of the "authoritativeness" of the Web pages by general search engines such as Google was one of the most important factors for their success.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Radhakrishnan, A.: Swoogle : an engine for the Semantic Web (2007)
0.04
0.036961243 = product of:
0.14784497 = sum of:
0.14784497 = weight(_text_:java in 709) [ClassicSimilarity], result of:
0.14784497 = score(doc=709,freq=2.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.31145877 = fieldWeight in 709, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=709)
0.25 = coord(1/4)
- Content
- "Swoogle, the Semantic web search engine, is a research project carried out by the ebiquity research group in the Computer Science and Electrical Engineering Department at the University of Maryland. It's an engine tailored towards finding documents on the semantic web. The whole research paper is available here. Semantic web is touted as the next generation of online content representation where the web documents are represented in a language that is not only easy for humans but is machine readable (easing the integration of data as never thought possible) as well. And the main elements of the semantic web include data model description formats such as Resource Description Framework (RDF), a variety of data interchange formats (e.g. RDF/XML, Turtle, N-Triples), and notations such as RDF Schema (RDFS), the Web Ontology Language (OWL), all of which are intended to provide a formal description of concepts, terms, and relationships within a given knowledge domain (Wikipedia). And Swoogle is an attempt to mine and index this new set of web documents. The engine performs crawling of semantic documents like most web search engines and the search is available as web service too. The engine is primarily written in Java with the PHP used for the front-end and MySQL for database. Swoogle is capable of searching over 10,000 ontologies and indexes more that 1.3 million web documents. It also computes the importance of a Semantic Web document. The techniques used for indexing are the more google-type page ranking and also mining the documents for inter-relationships that are the basis for the semantic web. For more information on how the RDF framework can be used to relate documents, read the link here. Being a research project, and with a non-commercial motive, there is not much hype around Swoogle. However, the approach to indexing of Semantic web documents is an approach that most engines will have to take at some point of time. When the Internet debuted, there were no specific engines available for indexing or searching. The Search domain only picked up as more and more content became available. One fundamental question that I've always wondered about it is - provided that the search engines return very relevant results for a query - how to ascertain that the documents are indeed the most relevant ones available. There is always an inherent delay in indexing of document. Its here that the new semantic documents search engines can close delay. Experimenting with the concept of Search in the semantic web can only bore well for the future of search technology."
-
Svensson, L.G.: Unified access : a semantic Web based model for multilingual navigation in heterogeneous data sources (2008)
0.03
0.03227486 = product of:
0.12909944 = sum of:
0.12909944 = weight(_text_:hand in 3191) [ClassicSimilarity], result of:
0.12909944 = score(doc=3191,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.3564553 = fieldWeight in 3191, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.046875 = fieldNorm(doc=3191)
0.25 = coord(1/4)
- Abstract
- Most online library catalogues are not well equipped for subject search. On the one hand it is difficult to navigate the structures of the thesauri and classification systems used for indexing. Further, there is little or no support for the integration of crosswalks between different controlled vocabularies, so that a subject search query formulated using one controlled vocabulary will not find resources indexed with another knowledge organisation system even if there exists a crosswalk between them. In this paper we will look at SemanticWeb technologies and a prototype system leveraging those technologies in order to enhance the subject search possibilities in heterogeneously indexed repositories. Finally, we will have a brief look at different initiatives aimed at integrating library data into the SemanticWeb.
-
Fernández, M.; Cantador, I.; López, V.; Vallet, D.; Castells, P.; Motta, E.: Semantically enhanced Information Retrieval : an ontology-based approach (2011)
0.03
0.03042903 = product of:
0.12171612 = sum of:
0.12171612 = weight(_text_:hand in 1230) [ClassicSimilarity], result of:
0.12171612 = score(doc=1230,freq=4.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.3360693 = fieldWeight in 1230, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.03125 = fieldNorm(doc=1230)
0.25 = coord(1/4)
- Abstract
- Currently, techniques for content description and query processing in Information Retrieval (IR) are based on keywords, and therefore provide limited capabilities to capture the conceptualizations associated with user needs and contents. Aiming to solve the limitations of keyword-based models, the idea of conceptual search, understood as searching by meanings rather than literal strings, has been the focus of a wide body of research in the IR field. More recently, it has been used as a prototypical scenario (or even envisioned as a potential "killer app") in the Semantic Web (SW) vision, since its emergence in the late nineties. However, current approaches to semantic search developed in the SW area have not yet taken full advantage of the acquired knowledge, accumulated experience, and technological sophistication achieved through several decades of work in the IR field. Starting from this position, this work investigates the definition of an ontology-based IR model, oriented to the exploitation of domain Knowledge Bases to support semantic search capabilities in large document repositories, stressing on the one hand the use of fully fledged ontologies in the semantic-based perspective, and on the other hand the consideration of unstructured content as the target search space. The major contribution of this work is an innovative, comprehensive semantic search model, which extends the classic IR model, addresses the challenges of the massive and heterogeneous Web environment, and integrates the benefits of both keyword and semantic-based search. Additional contributions include: an innovative rank fusion technique that minimizes the undesired effects of knowledge sparseness on the yet juvenile SW, and the creation of a large-scale evaluation benchmark, based on TREC IR evaluation standards, which allows a rigorous comparison between IR and SW approaches. Conducted experiments show that our semantic search model obtained comparable and better performance results (in terms of MAP and P@10 values) than the best TREC automatic system.
-
Davies, J.; Weeks, R.; Krohn, U.: QuizRDF: search technology for the Semantic Web (2004)
0.02
0.021516573 = product of:
0.08606629 = sum of:
0.08606629 = weight(_text_:hand in 406) [ClassicSimilarity], result of:
0.08606629 = score(doc=406,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.23763686 = fieldWeight in 406, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.03125 = fieldNorm(doc=406)
0.25 = coord(1/4)
- Abstract
- Important information is often scattered across Web and/or intranet resources. Traditional search engines return ranked retrieval lists that offer little or no information on the semantic relationships among documents. Knowledge workers spend a substantial amount of their time browsing and reading to find out how documents are related to one another and where each falls into the overall structure of the problem domain. Yet only when knowledge workers begin to locate the similarities and differences among pieces of information do they move into an essential part of their work: building relationships to create new knowledge. Information retrieval traditionally focuses on the relationship between a given query (or user profile) and the information store. On the other hand, exploitation of interrelationships between selected pieces of information (which can be facilitated by the use of ontologies) can put otherwise isolated information into a meaningful context. The implicit structures so revealed help users use and manage information more efficiently. Knowledge management tools are needed that integrate the resources dispersed across Web resources into a coherent corpus of interrelated information. Previous research in information integration has largely focused on integrating heterogeneous databases and knowledge bases, which represent information in a highly structured way, often by means of formal languages. In contrast, the Web consists to a large extent of unstructured or semi-structured natural language texts. As we have seen, ontologies offer an alternative way to cope with heterogeneous representations of Web resources. The domain model implicit in an ontology can be taken as a unifying structure for giving information a common representation and semantics. Once such a unifying structure exists, it can be exploited to improve browsing and retrieval performance in information access tools. QuizRDF is an example of such a tool.
-
Stojanovic, N.: Ontology-based Information Retrieval : methods and tools for cooperative query answering (2005)
0.02
0.021516573 = product of:
0.08606629 = sum of:
0.08606629 = weight(_text_:hand in 1701) [ClassicSimilarity], result of:
0.08606629 = score(doc=1701,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.23763686 = fieldWeight in 1701, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.03125 = fieldNorm(doc=1701)
0.25 = coord(1/4)
- Abstract
- By the explosion of possibilities for a ubiquitous content production, the information overload problem reaches the level of complexity which cannot be managed by traditional modelling approaches anymore. Due to their pure syntactical nature traditional information retrieval approaches did not succeed in treating content itself (i.e. its meaning, and not its representation). This leads to a very low usefulness of the results of a retrieval process for a user's task at hand. In the last ten years ontologies have been emerged from an interesting conceptualisation paradigm to a very promising (semantic) modelling technology, especially in the context of the Semantic Web. From the information retrieval point of view, ontologies enable a machine-understandable form of content description, such that the retrieval process can be driven by the meaning of the content. However, the very ambiguous nature of the retrieval process in which a user, due to the unfamiliarity with the underlying repository and/or query syntax, just approximates his information need in a query, implies a necessity to include the user in the retrieval process more actively in order to close the gap between the meaning of the content and the meaning of a user's query (i.e. his information need). This thesis lays foundation for such an ontology-based interactive retrieval process, in which the retrieval system interacts with a user in order to conceptually interpret the meaning of his query, whereas the underlying domain ontology drives the conceptualisation process. In that way the retrieval process evolves from a query evaluation process into a highly interactive cooperation between a user and the retrieval system, in which the system tries to anticipate the user's information need and to deliver the relevant content proactively. Moreover, the notion of content relevance for a user's query evolves from a content dependent artefact to the multidimensional context-dependent structure, strongly influenced by the user's preferences. This cooperation process is realized as the so-called Librarian Agent Query Refinement Process. In order to clarify the impact of an ontology on the retrieval process (regarding its complexity and quality), a set of methods and tools for different levels of content and query formalisation is developed, ranging from pure ontology-based inferencing to keyword-based querying in which semantics automatically emerges from the results. Our evaluation studies have shown that the possibilities to conceptualize a user's information need in the right manner and to interpret the retrieval results accordingly are key issues for realizing much more meaningful information retrieval systems.
-
Baumer, C.; Reichenberger, K.: Business Semantics - Praxis und Perspektiven (2006)
0.02
0.019370377 = product of:
0.07748151 = sum of:
0.07748151 = weight(_text_:und in 20) [ClassicSimilarity], result of:
0.07748151 = score(doc=20,freq=14.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.51866364 = fieldWeight in 20, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=20)
0.25 = coord(1/4)
- Abstract
- Der Artikel führt in semantische Technologien ein und gewährt Einblick in unterschiedliche Entwicklungsrichtungen. Insbesondere werden Business Semantics vorgestellt und vom Semantic Web abgegrenzt. Die Stärken von Business Semantics werden speziell an den Praxisbeispielen des Knowledge Portals und dem Projekt "Knowledge Base" der Wienerberger AG veranschaulicht. So werden die Anforderungen - was brauchen Anwendungen in Unternehmen heute - und die Leistungsfähigkeit von Systemen - was bieten Business Semantics - konkretisiert und gegenübergestellt.
- Source
- Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.359-366
-
Fensel, A.: Towards semantic APIs for research data services (2017)
0.02
0.01921845 = product of:
0.0768738 = sum of:
0.0768738 = weight(_text_:und in 439) [ClassicSimilarity], result of:
0.0768738 = score(doc=439,freq=18.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.5145956 = fieldWeight in 439, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=439)
0.25 = coord(1/4)
- Abstract
- Die schnelle Entwicklung der Internet- und Web-Technologie verändert den Stand der Technik in der Kommunikation von Wissen oder Forschungsergebnissen. Insbesondere werden semantische Technologien, verknüpfte und offene Daten zu entscheidenden Faktoren für einen erfolgreichen und effizienten Forschungsfortschritt. Zuerst definiere ich den Research Data Service (RDS) und diskutiere typische aktuelle und mögliche zukünftige Nutzungsszenarien mit RDS. Darüber hinaus bespreche ich den Stand der Technik in den Bereichen semantische Dienstleistung und Datenanmerkung und API-Konstruktion sowie infrastrukturelle Lösungen, die für die RDS-Realisierung anwendbar sind. Zum Schluss werden noch innovative Methoden der Online-Verbreitung, Förderung und effizienten Kommunikation der Forschung diskutiert.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.157-169
-
Ulrich, W.: Simple Knowledge Organisation System (2007)
0.02
0.019021334 = product of:
0.07608534 = sum of:
0.07608534 = weight(_text_:und in 1105) [ClassicSimilarity], result of:
0.07608534 = score(doc=1105,freq=6.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.50931764 = fieldWeight in 1105, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=1105)
0.25 = coord(1/4)
- Content
- Semantic Web - Taxonomie und Thesaurus - SKOS - Historie - Klassen und Eigenschaften - Beispiele - Generierung - automatisiert - per Folksonomie - Fazit und Ausblick
-
Semantic Web : Wege zur vernetzten Wissensgesellschaft (2006)
0.02
0.018303286 = product of:
0.073213145 = sum of:
0.073213145 = weight(_text_:und in 242) [ClassicSimilarity], result of:
0.073213145 = score(doc=242,freq=128.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.4900911 = fieldWeight in 242, product of:
11.313708 = tf(freq=128.0), with freq of:
128.0 = termFreq=128.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=242)
0.25 = coord(1/4)
- Abstract
- Semantic Web ist Vision, Konzept und Programm für die nächste Generation des Internets. Semantik ist dabei ein wesentliches Element in der Transformation von Information in Wissen, sei es um eine effizientere Maschine-Maschine-Kommunikation zu ermöglichen oder um Geschäftsprozess-Management, Wissensmanagement und innerbetriebliche Kooperation durch Modellierung zu verbessern. Der Band richtet sich gleichermaßen an ein praxisorientiertes und wissenschaftliches Publikum, das nicht nur aus der technischen Perspektive einen Zugang zum Thema sucht. Der praktische Nutzen wird in der Fülle von Anwendungsbeispielen offensichtlich, in denen semantische Technologien zum Einsatz kommen. Praxisorientierung ist auch das Leitthema der Semantic Web School, die sich zum Ziel gesetzt hat, den Wissenstransfer zu semantischen Technologien anzukurbeln und den interdisziplinären Diskurs über deren Nutzen und Folgen zu intensivieren. Der vorliegende Band vereinigt 33 Beiträge von 57 Autoren aus 35 Institutionen zu einem virulenten und multidisziplinären Thema. Der Band richtet sich gleichermaßen an interessierte Laien und fachfremde Experten, die nicht nur aus der technischen Perspektive einen Zugang zum Thema suchen. Denn obwohl das Thema Semantic Web zu überwiegendem Maße ein technisches ist, sollen hier bewusst jene Aspekte angesprochen werden. die außerhalb einer ingenieurswissenschaftlichen Perspektive von Relevanz sind und vor allem die praktischen Aspekte semantischer Technologien adressieren. Dieser Anforderung wird durch die vielen Praxisbezüge und Anwendungsbeispiele innerhalb der einzelnen Beiträge Rechnung getragen. Hierbei ist es den Herausgebern jedoch wichtig darauf hinzuweisen, das Semantic Web und semantische Technologien nicht als verheißungsvolles Allheilmittel der durch Informationstechnologien heraufbeschworenen Probleme und Herausforderungen zu betrachten. Ganz im Gegenteil plädieren die Herausgeber für eine verstärkte Auseinandersetzung mit dem Thema unter Einbeziehung einer großen Vielfalt an Experten aus den unterschiedlichsten Fachbereichen, die einen reflektierten und kritischen Beitrag zu den positiven und negativen Effekten semantischer Technologien beitragen sollen.
- Content
- Inhalt: Im ersten Teil wird neben der begrifflichen Klärung eine Reihe von Einstiegspunkten angeboten, ohne dass der Leser das Semantic Web in seiner Systematik und Funktionsweise kennen muss. Im Beitrag von Andreas Blumauer und Tassilo Pellegrini werden die zentralen Begriffe rund um semantische Technologien vorgestellt und zentrale Konzepte überblicksartig dargestellt. Die Arbeitsgruppe um Bernardi et al. leitet über in den Themenbereich der Arbeitsorganisation und diskutieret die Bedingungen für den Einsatz semantischer Technologien aus der Perspektive der Wissensarbeit. Dem Thema Normen und Standards wurden sogar zwei Beiträge gewidmet. Während Christian Galinski die grundsätzliche Notwendigkeit von Normen zu Zwecken der Interoperabilität aus einer Top-DownPerspektive beleuchtet, eröffnet Klaus Birkenbihl einen Einblick in die technischen Standards des Semantic Web aus der Bottom-Up-Perspektive des World Wide Web Consortiums (W3C). Mit einem Beitrag zum Innovationsgrad semantischer Technologien in der ökonomischen Koordination betreten Michael Weber und Karl Fröschl weitgehend theoretisches Neuland und legen ein Fundament für weiterführende Auseinandersetzungen. Abgerundet wird der erste Teil noch mit einem Beitrag von Bernd Wohlkinger und Tassilo Pellegrini über die technologiepolitischen Dimensionen der Semantic Web Forschung in der europäischen Union.
Im zweiten Teil steht der Anwender des Semantic Web im Mittelpunkt, womit auch die erste Ebene der systematischen Auseinandersetzung mit semantischen Technologien angesprochen wird. Nicola Henze zeigt auf, welchen Beitrag semantische Technologien für die Personalisierung von Informationssystemen leisten. Stefanie Lindstaedt und Armin Ulbrich diskutieren die Möglichkeiten der Zusammenführung von Arbeiten und Lernen zu Zwecken der Kompetenzentwicklung in Arbeitsprozessen. Leo Sauermann stellt daraufhin mit der Metapher des "Semantic Desktop" ein innovatives Konzept für den Arbeitsplatz der Zukunft vor und fragt - nicht ohne eine gewisse Ironie -, ob dieser Arbeitsplatz tatsächlich auf einen physischen Ort begrenzt ist. Mark Buzinkay zeigt aus einer historischen Perspektive, wie semantische Strukturen die Navigation sowohl im Web als auch auf einzelnen Webseiten verändert haben und noch werden. Michael Schuster und Dieter Rappold adressieren die Konvergenz von Social Software und Semantic Web entlang der persönlichen Aneignung von Informationstechnologien zu Zwecken der sozialen Vernetzung. Remo Burkhard plädiert dafür, Wissensvisualisierung als Brückenfunktion zwischen technischer Infrastruktur und Nutzer wahrzunehmen und demonstriert das Potential der Wissensvisualisierung zur zielgruppengerechten Kommunikation komplexer Zusammenhänge. Abschließend zeigt Gabriele Sauberer, welche Informationskompetenzen und Schlüsselqualifikationen in der modernen Informationsgesellschaft von Bedeutung sein werden, in der der Einsatz semantische Technologien zur täglichen Wissensarbeit gehören wird.
Der dritte Teil des Bandes thematisiert die organisationalen Dimensionen des Semantic Web und demonstriert unter dem Stichwort "Wissensmanagement" eine Reihe von Konzepten und Anwendungen im betrieblichen und kollaborativen Umgang mit Information. Der Beitrag von Andreas Blumauer und Thomas Fundneider bietet einen Überblick über den Einsatz semantischer Technologien am Beispiel eines integrierten Wissensmanagement-Systems. Michael John und Jörg Drescher zeichnen den historischen Entwicklungsprozess des IT-Einsatzes für das Management von Informations- und Wissensprozessen im betrieblichen Kontext. Vor dem Hintergrund der betrieblichen Veränderungen durch Globalisierung und angeheizten Wettbewerb zeigt Heiko Beier, welche Rollen, Prozesse und Instrumente in wissensbasierten Organisationen die effiziente Nutzung von Wissen unterstützen. Mit dem Konzept des kollaborativen Wissensmanagement präsentiert das Autorenteam Schmitz et al. einen innovativen WissensmanagementAnsatz auf Peer-to-Peer-Basis mit dem Ziel der kollaborativen Einbindung und Pflege von dezentralisierten Wissensbasen. York Sure und Christoph Tempich demonstrieren anhand der Modellierungsmethode DILIGENT, welchen Beitrag Ontologien bei der Wissensvernetzung in Organisationen leisten können. Hannes Werthner und Michael Borovicka adressieren die Bedeutung semantischer Technologien für eCommerce und demonstrieren am Beispiel HARMONISE deren Einsatz im Bereich des eTourismus. Erweitert wird diese Perspektive durch den Beitrag von Fill et al., in dem das Zusammenspiel zwischen Web-Services und Geschäftsprozessen aus der Perspektive der Wirtschaftsinformatik analysiert wird. Abschließend präsentiert das Autorenteam Angele et al. eine Reihe von realisierten Anwendungen auf Basis semantischer Technologien und identifiziert kritische Faktoren für deren Einsatz.
Im vierten Teil des Bandes stehen die technischen und infrastrukturellen Aspekte im Mittelpunkt des Interesses, die für den Aufbau und Betrieb semantischer Systeme von Relevanz sind. Wolfgang Kienreich und Markus Strohmaier identifizieren die Wissensmodellierung als Basis für den Einsatz semantischer Technologien für das Knowledge Engineering und stellen zwei grundlegende Modellierungsparadigmen vor. Andreas Koller argumentiert, dass die strukturierte Ablage von Content in Content Management Systemen den Lift-Off des Semantic Web stützen wird und zeigt eine Reihe von einfachen Maßnahmen auf, wie CMS Semantic Web tauglich gemacht werden können. Alois Reitbauer gibt einen leicht verständlichen Überblick über technische Fragestellungen der IT-Integration und demonstriert anhand von Beispielen die Vorteile semantischer Technologien gegenüber konventionellen Methoden. Gerald Reif veranschaulicht die Einsatzgebiete und Leistungsfähigkeit der semantischen Annotation und stellt Tools vor, die den Nutzer bei der Dokumentenverschlagwortung unterstützen. Robert Baumgartner stellt die Funktionsweise von Wrappertechnologien zur Extraktion von Daten aus unstrukturierten Dokumenten vor und demonstriert den Nutzen am Beispiel eines B2B-Szenarios. Michael Granitzer bietet einen Überblick über statistische Verfahren der Textanalyse und zeigt, welchen Beitrag diese zur Wartung von Ontologien leisten können.
Gerhard Budin geht auf die zentrale Rolle des Terminologiemanagements bei der Ordnung und Intersubjektivierung komplexer Wissensstrukturen ein und gibt Anleitung für die Entwicklung von terminologischen Metamodellen. Marc Ehrig und Rudi Studer thematisieren Prinzipien und Herausforderungen der semantischen Integration von Ontologien zu Zwecken der Herstellung von Interoperabilität von Web Services. Wolfgang May gibt eine Einführung in das Thema Reasoning im und für das Semantic Web und zeigt auf, welche Mechanismen und Konzepte in naher Zukunft für das Semantic Web relevant werden. Abschließend führt die Autorengruppe um Polleres et al. in das junge Thema der semantischen Beschreibung von Web Services ein und adressiert Fragestellungen der Service Komposition und Automatisierung von Geschäftsprozessen. In einem Nachwort widmet sich Rafael Capurro der Frage, wie es in Zeiten eines auftauchenden semantischen Web um die philosophische Hermeneutik bestellt ist. Und er kommt zu dem Schluss, dass das Semantic Web als ein weltpolitisches Projekt verstanden werden sollte, das zu wichtig ist, um es alleine den Technikern oder den Politikern zu überlassen.
-
Zapilko, B.; Sure, Y.: Neue Möglichkeiten für die Wissensorganisation durch die Kombination von Digital Library Verfahren mit Standards des Semantic Web (2013)
0.02
0.017364021 = product of:
0.069456086 = sum of:
0.069456086 = weight(_text_:und in 1936) [ClassicSimilarity], result of:
0.069456086 = score(doc=1936,freq=20.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.4649412 = fieldWeight in 1936, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1936)
0.25 = coord(1/4)
- Abstract
- Entwicklungen und Technologien des Semantic Web treffen seit einigen Jahren verstärkt auf die Bibliotheks- und Dokumentationswelt, um das dort seit Jahrzehnten gesammelte und gepflegte Wissen für das Web und seine Nurzer zugänglich und weiter verarbeitbar zu machen. Dabei können beide Lager von einer Öffnung gegenüber den Verfahren des jeweils anderen und den daraus resultierenden Möglichkeiten, beispielsweise einer integrierten Recherche in verteilten und semantisch angereicherten Dokumentbeständen oder der Anreicherung eigener Bestände um Inhalte anderer, frei verfügbarer Bestände, profitieren. Dieses Paper stellt die Reformulierung eines gängigen informationswissenschaftlichen Verfahrens aus der Dokumentations- und Bibliothekswelt, des sogenannten SchalenmodeIls, vor und zeigt neues Potenzial und neue Möglichkeiten für die Wissensorganisation auf, die durch dessen Anwendung im Semantic Web entstehen können. Darüber hinaus werden erste praktische Ergebnisse der Vorarbeiten dieser Reformulierung präsentiert, die Transformation eines Thesaurus ins SKOS-Format.
-
Sigel, A.: Informationsintegration mit semantischen Wissenstechnologien (2006)
0.02
0.01694908 = product of:
0.06779632 = sum of:
0.06779632 = weight(_text_:und in 174) [ClassicSimilarity], result of:
0.06779632 = score(doc=174,freq=14.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.4538307 = fieldWeight in 174, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=174)
0.25 = coord(1/4)
- Abstract
- Das Tutorium vermittelt theoretische Grundlagen der wissensorganisatorischen (semantischen) Integration und zeigt auch einige praktische Beispiele. Die Integration bezieht sich auf die Ebenen: Integration von ähnlichen Einträgen in verschiedenen Ontologien (Begriffe und Beziehungen) sowie von Aussagen über gleiche Aussagegegenstände und zugehörige Informationsressourcen. Hierzu werden ausgewählte semantische Wissenstechnologien (Topic Maps und RDF) und -werkzeuge vorgestellt und mit wissensorganisatorischen Grundlagen verbunden (z.B. SKOS - Simple Knowledge Organization Systems, http://www.w3.org/2004/02/skos/, oder Published Resource Identifiers).
- Content
- Tutorium auf der 10. Deutschen ISKO-Tagung (Wissensorganisation 2006): Kompatibilität und Heterogenität in der Wissensorganisation Universität Wien, Montag 03. Juli 2006.
-
Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011)
0.02
0.01694908 = product of:
0.06779632 = sum of:
0.06779632 = weight(_text_:und in 782) [ClassicSimilarity], result of:
0.06779632 = score(doc=782,freq=14.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.4538307 = fieldWeight in 782, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=782)
0.25 = coord(1/4)
- Abstract
- In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
-
Schulz, T.: Konzeption und prototypische Entwicklung eines Thesaurus für IT-Konzepte an Hochschulen (2021)
0.02
0.016498359 = product of:
0.065993436 = sum of:
0.065993436 = weight(_text_:und in 1430) [ClassicSimilarity], result of:
0.065993436 = score(doc=1430,freq=26.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.44176215 = fieldWeight in 1430, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1430)
0.25 = coord(1/4)
- Abstract
- In Hochschulen besteht derzeit ein großes Anliegen, die Digitalisierung effektiv und effizient für Prozesse in Steuerungsbereichen zu nutzen. Dabei steht die IT-Governance im Mittelpunkt der hochschulpolitischen Überlegungen und beinhaltet "die interne Steuerung und Koordination von Entscheidungsprozessen in Bezug auf IT-Steuerung beziehungsweise Digitalisierungsmaßnahmen."(Christmann-Budian et al. 2018) Strategisch kann die Bündelung von Kompetenzen in der deutschen Hochschullandschaft dabei helfen, die steigenden Anforderungen an die IT-Governance zu erfüllen. Passend zu diesem Ansatz realisieren aktuell im ZDT zusammengeschlossene Hochschulen das Projekt "IT-Konzepte - Portfolio gemeinsamer Vorlagen und Muster". Das Projekt schließt an die Problemstellung an, indem Kompetenzen gebündelt und alle Hochschulen befähigt werden, IT-Konzepte erarbeiten und verabschieden zu können. Dazu wird ein Portfolio an Muster und Vorlagen als Ressourcenpool zusammengetragen und referenziert, um eine Nachvollziehbarkeit der Vielfalt an Herausgebern gewährleisten zu können (Meister 2020). Um den Ressourcenpool, welcher einen Body of Knowledge (BoK) darstellt, effizient durchsuchen zu können, ist eine sinnvolle Struktur unabdinglich. Daher setzt sich das Ziel der Bachelorarbeit aus der Analyse von hochschulinternen Dokumenten mithilfe von Natural Language Processing (NLP) und die daraus resultierende Entwicklung eines Thesaurus-Prototyps für IT-Konzepte zusammen. Dieser soll im Anschluss serialisiert und automatisiert werden, um diesen fortlaufend auf einem aktuellen Stand zu halten. Es wird sich mit der Frage beschäftigt, wie ein Thesaurus nachhaltig technologisch, systematisch und konsistent erstellt werden kann, um diesen Prozess im späteren Verlauf als Grundlage für weitere Themenbereiche einzuführen.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Niederée, C.: Metadaten als Bausteine des Semantic Web (2003)
0.02
0.016472956 = product of:
0.065891825 = sum of:
0.065891825 = weight(_text_:und in 2761) [ClassicSimilarity], result of:
0.065891825 = score(doc=2761,freq=18.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.44108194 = fieldWeight in 2761, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2761)
0.25 = coord(1/4)
- Abstract
- Das »Semantic Web« bildet einen der wichtigsten, aktuellen Trends in der Weiterentwicklung des World Wide Web. Ehrgeizige Vision dieser nächsten Generation des WWW ist es, durch semantische Anreicherung von Information eine neue Qualität in der Bereitstellung von Inhalten und Diensten zu erreichen und vollständig neue Anwendungsmöglichkeiten für das Web zu eröffnen. Wichtige Ziele der Entwicklung des Semantic Web sind dabei die verbesserte Unterstützung von Kooperation zwischen Menschen und Computern und die intelligente Assistenz bei der Durchführung von Aufgaben in kooperativen verteilten Informationsumgebungen. Schlüssel zur Erreichung dieser Ziele sind die Anreicherung von Daten im Web mit Metadaten, welche diese Daten in einen semantischen Kontext einbetten. Diese Kontextinformation wird durch Software-Anwendungen interpretiert und zur Informationsfilterung, Verfeinerung von Anfragen und zur Bereitstellung intelligenter Assistenten verwendet. Eine große Herausforderung stellt dabei die geeignete Modellierung und Beschreibung des Kontexts dar. Diese muss eine automatische, globale Interpretation ermöglichen, ohne dass auf ein allgemeingültiges semantisches Beschreibungsschema zurückgegriffen werden kann. Die Vereinbarung eines solchen allgemeingültigen Schemas ist in einem derart umfangreichen, heterogenen und autonomen Rahmen, wie ihn das WWW darstellt, nicht möglich.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.193-198
-
Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001)
0.02
0.016472956 = product of:
0.065891825 = sum of:
0.065891825 = weight(_text_:und in 322) [ClassicSimilarity], result of:
0.065891825 = score(doc=322,freq=18.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.44108194 = fieldWeight in 322, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=322)
0.25 = coord(1/4)
- Abstract
- Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
- Content
- Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit
-
May, W.: Reasoning im und für das Semantic Web (2006)
0.02
0.016370956 = product of:
0.06548382 = sum of:
0.06548382 = weight(_text_:und in 812) [ClassicSimilarity], result of:
0.06548382 = score(doc=812,freq=10.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.4383508 = fieldWeight in 812, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=812)
0.25 = coord(1/4)
- Abstract
- Dieses Kapitel gibt zuerst einen kurzen historischen Überblick über "Reasoning", d. h. Schließen, Wissensrepräsentation und "künstliche Intelligenz". Der Hauptteil geht auf einige "Reasoning"-Mechanismen und -Konzepte, die im Semantic Web eine Rolle spielen, ein und zeigt, wie dieses "Reasoning" - unauffällig - in den Konzepten des Semantic Web zur Beschreibung von Wissensbasen enthalten ist. Weiterhin werden Reasoning-Mechanismen umrissen, die dem Zusammenspiel verschiedener Knoten im Semantic Web dienen, und ein kurzes Fazit gezogen.
-
Finke, M.; Risch, J.: "Match Me If You Can" : Sammeln und semantisches Aufbereiten von Fußballdaten (2017)
0.02
0.016370956 = product of:
0.06548382 = sum of:
0.06548382 = weight(_text_:und in 4723) [ClassicSimilarity], result of:
0.06548382 = score(doc=4723,freq=10.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.4383508 = fieldWeight in 4723, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4723)
0.25 = coord(1/4)
- Abstract
- Interviews, Spielstatistiken oder Videoaufzeichnungen sind für Fußballfans zwar zahlreich im Internet verfügbar, aber auf viele verschiedene Websites verstreut. "Semantic Media Mining" verknüpft nun Fußballdaten aus unterschiedlichen Quellen, bereitet sie semantisch auf und führt sie auf einer einzigen Website zusammen. Dadurch dokumentieren und visualisieren wir mehr als 50 Jahre Fußballgeschichte mit über 500 Mannschaften und 40.000 Spielern der Champions League, sowie der 1. und 2. Bundesliga.