-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.10
0.09853668 = product of:
0.19707336 = sum of:
0.14378878 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.14378878 = score(doc=346,freq=2.0), product of:
0.46166232 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06550718 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.053284574 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.053284574 = score(doc=346,freq=28.0), product of:
0.14528832 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06550718 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Slimani, T.: Semantic annotation : the mainstay of Semantic Web (2013)
0.05
0.05259437 = product of:
0.21037748 = sum of:
0.21037748 = weight(_text_:helps in 307) [ClassicSimilarity], result of:
0.21037748 = score(doc=307,freq=2.0), product of:
0.42212644 = queryWeight, product of:
6.443972 = idf(docFreq=191, maxDocs=44421)
0.06550718 = queryNorm
0.49837554 = fieldWeight in 307, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.443972 = idf(docFreq=191, maxDocs=44421)
0.0546875 = fieldNorm(doc=307)
0.25 = coord(1/4)
- Abstract
- Given that semantic Web realization is based on the critical mass of metadata accessibility and the representation of data with formal knowledge, it needs to generate metadata that is specific, easy to understand and well-defined. However, semantic annotation of the web documents is the successful way to make the Semantic Web vision a reality. This paper introduces the Semantic Web and its vision (stack layers) with regard to some concept definitions that helps the understanding of semantic annotation. Additionally, this paper introduces the semantic annotation categories, tools, domains and models.
-
Isaac, A.; Baker, T.: Linked data practice at different levels of semantic precision : the perspective of libraries, archives and museums (2015)
0.04
0.037567407 = product of:
0.15026963 = sum of:
0.15026963 = weight(_text_:helps in 3026) [ClassicSimilarity], result of:
0.15026963 = score(doc=3026,freq=2.0), product of:
0.42212644 = queryWeight, product of:
6.443972 = idf(docFreq=191, maxDocs=44421)
0.06550718 = queryNorm
0.3559825 = fieldWeight in 3026, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.443972 = idf(docFreq=191, maxDocs=44421)
0.0390625 = fieldNorm(doc=3026)
0.25 = coord(1/4)
- Abstract
- Libraries, archives and museums rely on structured schemas and vocabularies to indicate classes in which a resource may belong. In the context of linked data, key organizational components are the RDF data model, element schemas and value vocabularies, with simple ontologies having minimally defined classes and properties in order to facilitate reuse and interoperability. Simplicity over formal semantics is a tenet of the open-world assumption underlying ontology languages central to the Semantic Web, but the result is a lack of constraints, data quality checks and validation capacity. Inconsistent use of vocabularies and ontologies that do not follow formal semantics rules and logical concept hierarchies further complicate the use of Semantic Web technologies. The Simple Knowledge Organization System (SKOS) helps make existing value vocabularies available in the linked data environment, but it exchanges precision for simplicity. Incompatibilities between simple organized vocabularies, Resource Description Framework Schemas and OWL ontologies and even basic notions of subjects and concepts prevent smooth translations and challenge the conversion of cultural institutions' unique legacy vocabularies for linked data. Adopting the linked data vision requires accepting loose semantic interpretations. To avoid semantic inconsistencies and illogical results, cultural organizations following the linked data path must be careful to choose the level of semantics that best suits their domain and needs.
-
Chaudhury, S.; Mallik, A.; Ghosh, H.: Multimedia ontology : representation and applications (2016)
0.04
0.037567407 = product of:
0.15026963 = sum of:
0.15026963 = weight(_text_:helps in 3801) [ClassicSimilarity], result of:
0.15026963 = score(doc=3801,freq=2.0), product of:
0.42212644 = queryWeight, product of:
6.443972 = idf(docFreq=191, maxDocs=44421)
0.06550718 = queryNorm
0.3559825 = fieldWeight in 3801, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.443972 = idf(docFreq=191, maxDocs=44421)
0.0390625 = fieldNorm(doc=3801)
0.25 = coord(1/4)
- Abstract
- The book covers multimedia ontology in heritage preservation with intellectual explorations of various themes of Indian cultural heritage. The result of more than 15 years of collective research, Multimedia Ontology: Representation and Applications provides a theoretical foundation for understanding the nature of media data and the principles involved in its interpretation. The book presents a unified approach to recent advances in multimedia and explains how a multimedia ontology can fill the semantic gap between concepts and the media world. It relays real-life examples of implementations in different domains to illustrate how this gap can be filled. The book contains information that helps with building semantic, content-based search and retrieval engines and also with developing vertical application-specific search applications. It guides you in designing multimedia tools that aid in logical and conceptual organization of large amounts of multimedia data. As a practical demonstration, it showcases multimedia applications in cultural heritage preservation efforts and the creation of virtual museums. The book describes the limitations of existing ontology techniques in semantic multimedia data processing, as well as some open problems in the representations and applications of multimedia ontology. As an antidote, it introduces new ontology representation and reasoning schemes that overcome these limitations. The long, compiled efforts reflected in Multimedia Ontology: Representation and Applications are a signpost for new achievements and developments in efficiency and accessibility in the field.
-
Radhakrishnan, A.: Swoogle : an engine for the Semantic Web (2007)
0.04
0.035947196 = product of:
0.14378878 = sum of:
0.14378878 = weight(_text_:java in 709) [ClassicSimilarity], result of:
0.14378878 = score(doc=709,freq=2.0), product of:
0.46166232 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06550718 = queryNorm
0.31145877 = fieldWeight in 709, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=709)
0.25 = coord(1/4)
- Content
- "Swoogle, the Semantic web search engine, is a research project carried out by the ebiquity research group in the Computer Science and Electrical Engineering Department at the University of Maryland. It's an engine tailored towards finding documents on the semantic web. The whole research paper is available here. Semantic web is touted as the next generation of online content representation where the web documents are represented in a language that is not only easy for humans but is machine readable (easing the integration of data as never thought possible) as well. And the main elements of the semantic web include data model description formats such as Resource Description Framework (RDF), a variety of data interchange formats (e.g. RDF/XML, Turtle, N-Triples), and notations such as RDF Schema (RDFS), the Web Ontology Language (OWL), all of which are intended to provide a formal description of concepts, terms, and relationships within a given knowledge domain (Wikipedia). And Swoogle is an attempt to mine and index this new set of web documents. The engine performs crawling of semantic documents like most web search engines and the search is available as web service too. The engine is primarily written in Java with the PHP used for the front-end and MySQL for database. Swoogle is capable of searching over 10,000 ontologies and indexes more that 1.3 million web documents. It also computes the importance of a Semantic Web document. The techniques used for indexing are the more google-type page ranking and also mining the documents for inter-relationships that are the basis for the semantic web. For more information on how the RDF framework can be used to relate documents, read the link here. Being a research project, and with a non-commercial motive, there is not much hype around Swoogle. However, the approach to indexing of Semantic web documents is an approach that most engines will have to take at some point of time. When the Internet debuted, there were no specific engines available for indexing or searching. The Search domain only picked up as more and more content became available. One fundamental question that I've always wondered about it is - provided that the search engines return very relevant results for a query - how to ascertain that the documents are indeed the most relevant ones available. There is always an inherent delay in indexing of document. Its here that the new semantic documents search engines can close delay. Experimenting with the concept of Search in the semantic web can only bore well for the future of search technology."
-
Feigenbaum, L.; Herman, I.; Hongsermeier, T.; Neumann, E.; Stephens, S.: ¬The Semantic Web in action (2007)
0.03
0.030053927 = product of:
0.12021571 = sum of:
0.12021571 = weight(_text_:helps in 4000) [ClassicSimilarity], result of:
0.12021571 = score(doc=4000,freq=2.0), product of:
0.42212644 = queryWeight, product of:
6.443972 = idf(docFreq=191, maxDocs=44421)
0.06550718 = queryNorm
0.28478602 = fieldWeight in 4000, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.443972 = idf(docFreq=191, maxDocs=44421)
0.03125 = fieldNorm(doc=4000)
0.25 = coord(1/4)
- Abstract
- Six years ago in this magazine, Tim Berners-Lee, James Hendler and Ora Lassila unveiled a nascent vision of the Semantic Web: a highly interconnected network of data that could be easily accessed and understood by any desktop or handheld machine. They painted a future of intelligent software agents that would head out on the World Wide Web and automatically book flights and hotels for our trips, update our medical records and give us a single, customized answer to a particular question without our having to search for information or pore through results. They also presented the young technologies that would make this vision come true: a common language for representing data that could be understood by all kinds of software agents; ontologies--sets of statements--that translate information from disparate databases into common terms; and rules that allow software agents to reason about the information described in those terms. The data format, ontologies and reasoning software would operate like one big application on the World Wide Web, analyzing all the raw data stored in online databases as well as all the data about the text, images, video and communications the Web contained. Like the Web itself, the Semantic Web would grow in a grassroots fashion, only this time aided by working groups within the World Wide Web Consortium, which helps to advance the global medium. Since then skeptics have said the Semantic Web would be too difficult for people to understand or exploit. Not so. The enabling technologies have come of age. A vibrant community of early adopters has agreed on standards that have steadily made the Semantic Web practical to use. Large companies have major projects under way that will greatly improve the efficiencies of in-house operations and of scientific research. Other firms are using the Semantic Web to enhance business-to-business interactions and to build the hidden data-processing structures, or back ends, behind new consumer services. And like an iceberg, the tip of this large body of work is emerging in direct consumer applications, too.
-
Singh, A.; Sinha, U.; Sharma, D.k.: Semantic Web and data visualization (2020)
0.03
0.030053927 = product of:
0.12021571 = sum of:
0.12021571 = weight(_text_:helps in 1080) [ClassicSimilarity], result of:
0.12021571 = score(doc=1080,freq=2.0), product of:
0.42212644 = queryWeight, product of:
6.443972 = idf(docFreq=191, maxDocs=44421)
0.06550718 = queryNorm
0.28478602 = fieldWeight in 1080, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.443972 = idf(docFreq=191, maxDocs=44421)
0.03125 = fieldNorm(doc=1080)
0.25 = coord(1/4)
- Abstract
- With the terrific growth of data volume and data being produced every second on millions of devices across the globe, there is a desperate need to manage the unstructured data available on web pages efficiently. Semantic Web or also known as Web of Trust structures the scattered data on the Internet according to the needs of the user. It is an extension of the World Wide Web (WWW) which focuses on manipulating web data on behalf of Humans. Due to the ability of the Semantic Web to integrate data from disparate sources and hence makes it more user-friendly, it is an emerging trend. Tim Berners-Lee first introduced the term Semantic Web and since then it has come a long way to become a more intelligent and intuitive web. Data Visualization plays an essential role in explaining complex concepts in a universal manner through pictorial representation, and the Semantic Web helps in broadening the potential of Data Visualization and thus making it an appropriate combination. The objective of this chapter is to provide fundamental insights concerning the semantic web technologies and in addition to that it also elucidates the issues as well as the solutions regarding the semantic web. The purpose of this chapter is to highlight the semantic web architecture in detail while also comparing it with the traditional search system. It classifies the semantic web architecture into three major pillars i.e. RDF, Ontology, and XML. Moreover, it describes different semantic web tools used in the framework and technology. It attempts to illustrate different approaches of the semantic web search engines. Besides stating numerous challenges faced by the semantic web it also illustrates the solutions.
-
Isaac, A.: Aligning thesauri for an integrated access to Cultural Heritage Resources (2007)
0.03
0.026297186 = product of:
0.10518874 = sum of:
0.10518874 = weight(_text_:helps in 1553) [ClassicSimilarity], result of:
0.10518874 = score(doc=1553,freq=2.0), product of:
0.42212644 = queryWeight, product of:
6.443972 = idf(docFreq=191, maxDocs=44421)
0.06550718 = queryNorm
0.24918777 = fieldWeight in 1553, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.443972 = idf(docFreq=191, maxDocs=44421)
0.02734375 = fieldNorm(doc=1553)
0.25 = coord(1/4)
- Abstract
- Currently, a number of efforts are being carried out to integrate collections from different institutions and containing heterogeneous material. Examples of such projects are The European Library [1] and the Memory of the Netherlands [2]. A crucial point for the success of these is the availability to provide a unified access on top of the different collections, e.g. using one single vocabulary for querying or browsing the objects they contain. This is made difficult by the fact that the objects from different collections are often described using different vocabularies - thesauri, classification schemes - and are therefore not interoperable at the semantic level. To solve this problem, one can turn to semantic links - mappings - between the elements of the different vocabularies. If one knows that a concept C from a vocabulary V is semantically equivalent to a concept to a concept D from vocabulary W, then an appropriate search engine can return all the objects that were indexed against D for a query for objects described using C. We thus have an access to other collections, using a single one vocabulary. This is however an ideal situation, and hard alignment work is required to reach it. Several projects in the past have tried to implement such a solution, like MACS [3] and Renardus [4]. They have demonstrated very interesting results, but also highlighted the difficulty of aligning manually all the different vocabularies involved in practical cases, which sometimes contain hundreds of thousands of concepts. To alleviate this problem, a number of tools have been proposed in order to provide with candidate mappings between two input vocabularies, making alignment a (semi-) automatic task. Recently, the Semantic Web community has produced a lot of these alignment tools'. Several techniques are found, depending on the material they exploit: labels of concepts, structure of vocabularies, collection objects and external knowledge sources. Throughout our presentation, we will present a concrete heterogeneity case where alignment techniques have been applied to build a (pilot) browser, developed in the context of the STITCH project [5]. This browser enables a unified access to two collections of illuminated manuscripts, using the description vocabulary used in the first collection, Mandragore [6], or the one used by the second, Iconclass [7]. In our talk, we will also make the point for using unified representations the vocabulary semantic and lexical information. Additionally to ease the use of the alignment tools that have these vocabularies as input, turning to a standard representation format helps designing applications that are more generic, like the browser we demonstrate. We give pointers to SKOS [8], an open and web-enabled format currently developed by the Semantic Web community.
-
Heery, R.; Wagner, H.: ¬A metadata registry for the Semantic Web (2002)
0.03
0.026297186 = product of:
0.10518874 = sum of:
0.10518874 = weight(_text_:helps in 2210) [ClassicSimilarity], result of:
0.10518874 = score(doc=2210,freq=2.0), product of:
0.42212644 = queryWeight, product of:
6.443972 = idf(docFreq=191, maxDocs=44421)
0.06550718 = queryNorm
0.24918777 = fieldWeight in 2210, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.443972 = idf(docFreq=191, maxDocs=44421)
0.02734375 = fieldNorm(doc=2210)
0.25 = coord(1/4)
- Abstract
- * Agencies maintaining directories of data elements in a domain area in accordance with ISO/IEC 11179 (This standard specifies good practice for data element definition as well as the registration process. Example implementations are the National Health Information Knowledgebase hosted by the Australian Institute of Health and Welfare and the Environmental Data Registry hosted by the US Environmental Protection Agency.); * The xml.org directory of the Extended Markup Language (XML) document specifications facilitating re-use of Document Type Definition (DTD), hosted by the Organization for the Advancement of Structured Information Standards (OASIS); * The MetaForm database of Dublin Core usage and mappings maintained at the State and University Library in Goettingen; * The Semantic Web Agreement Group Dictionary, a database of terms for the Semantic Web that can be referred to by humans and software agents; * LEXML, a multi-lingual and multi-jurisdictional RDF Dictionary for the legal world; * The SCHEMAS registry maintained by the European Commission funded SCHEMAS project, which indexes several metadata element sets as well as a large number of activity reports describing metadata related activities and initiatives. Metadata registries essentially provide an index of terms. Given the distributed nature of the Web, there are a number of ways this can be accomplished. For example, the registry could link to terms and definitions in schemas published by implementers and stored locally by the schema maintainer. Alternatively, the registry might harvest various metadata schemas from their maintainers. Registries provide 'added value' to users by indexing schemas relevant to a particular 'domain' or 'community of use' and by simplifying the navigation of terms by enabling multiple schemas to be accessed from one view. An important benefit of this approach is an increase in the reuse of existing terms, rather than users having to reinvent them. Merging schemas to one view leads to harmonization between applications and helps avoid duplication of effort. Additionally, the establishment of registries to index terms actively being used in local implementations facilitates the metadata standards activity by providing implementation experience transferable to the standards-making process.
-
Jacobs, I.: From chaos, order: W3C standard helps organize knowledge : SKOS Connects Diverse Knowledge Organization Systems to Linked Data (2009)
0.03
0.026297186 = product of:
0.10518874 = sum of:
0.10518874 = weight(_text_:helps in 49) [ClassicSimilarity], result of:
0.10518874 = score(doc=49,freq=2.0), product of:
0.42212644 = queryWeight, product of:
6.443972 = idf(docFreq=191, maxDocs=44421)
0.06550718 = queryNorm
0.24918777 = fieldWeight in 49, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.443972 = idf(docFreq=191, maxDocs=44421)
0.02734375 = fieldNorm(doc=49)
0.25 = coord(1/4)
-
Baumer, C.; Reichenberger, K.: Business Semantics - Praxis und Perspektiven (2006)
0.02
0.018838942 = product of:
0.07535577 = sum of:
0.07535577 = weight(_text_:und in 20) [ClassicSimilarity], result of:
0.07535577 = score(doc=20,freq=14.0), product of:
0.14528832 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06550718 = queryNorm
0.51866364 = fieldWeight in 20, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=20)
0.25 = coord(1/4)
- Abstract
- Der Artikel führt in semantische Technologien ein und gewährt Einblick in unterschiedliche Entwicklungsrichtungen. Insbesondere werden Business Semantics vorgestellt und vom Semantic Web abgegrenzt. Die Stärken von Business Semantics werden speziell an den Praxisbeispielen des Knowledge Portals und dem Projekt "Knowledge Base" der Wienerberger AG veranschaulicht. So werden die Anforderungen - was brauchen Anwendungen in Unternehmen heute - und die Leistungsfähigkeit von Systemen - was bieten Business Semantics - konkretisiert und gegenübergestellt.
- Source
- Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.359-366
-
Fensel, A.: Towards semantic APIs for research data services (2017)
0.02
0.018691184 = product of:
0.074764736 = sum of:
0.074764736 = weight(_text_:und in 439) [ClassicSimilarity], result of:
0.074764736 = score(doc=439,freq=18.0), product of:
0.14528832 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06550718 = queryNorm
0.5145956 = fieldWeight in 439, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=439)
0.25 = coord(1/4)
- Abstract
- Die schnelle Entwicklung der Internet- und Web-Technologie verändert den Stand der Technik in der Kommunikation von Wissen oder Forschungsergebnissen. Insbesondere werden semantische Technologien, verknüpfte und offene Daten zu entscheidenden Faktoren für einen erfolgreichen und effizienten Forschungsfortschritt. Zuerst definiere ich den Research Data Service (RDS) und diskutiere typische aktuelle und mögliche zukünftige Nutzungsszenarien mit RDS. Darüber hinaus bespreche ich den Stand der Technik in den Bereichen semantische Dienstleistung und Datenanmerkung und API-Konstruktion sowie infrastrukturelle Lösungen, die für die RDS-Realisierung anwendbar sind. Zum Schluss werden noch innovative Methoden der Online-Verbreitung, Förderung und effizienten Kommunikation der Forschung diskutiert.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 70(2017) H.2, S.157-169
-
Ulrich, W.: Simple Knowledge Organisation System (2007)
0.02
0.018499475 = product of:
0.0739979 = sum of:
0.0739979 = weight(_text_:und in 1105) [ClassicSimilarity], result of:
0.0739979 = score(doc=1105,freq=6.0), product of:
0.14528832 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06550718 = queryNorm
0.50931764 = fieldWeight in 1105, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=1105)
0.25 = coord(1/4)
- Content
- Semantic Web - Taxonomie und Thesaurus - SKOS - Historie - Klassen und Eigenschaften - Beispiele - Generierung - automatisiert - per Folksonomie - Fazit und Ausblick
-
Semantic Web : Wege zur vernetzten Wissensgesellschaft (2006)
0.02
0.017801128 = product of:
0.07120451 = sum of:
0.07120451 = weight(_text_:und in 242) [ClassicSimilarity], result of:
0.07120451 = score(doc=242,freq=128.0), product of:
0.14528832 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06550718 = queryNorm
0.4900911 = fieldWeight in 242, product of:
11.313708 = tf(freq=128.0), with freq of:
128.0 = termFreq=128.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=242)
0.25 = coord(1/4)
- Abstract
- Semantic Web ist Vision, Konzept und Programm für die nächste Generation des Internets. Semantik ist dabei ein wesentliches Element in der Transformation von Information in Wissen, sei es um eine effizientere Maschine-Maschine-Kommunikation zu ermöglichen oder um Geschäftsprozess-Management, Wissensmanagement und innerbetriebliche Kooperation durch Modellierung zu verbessern. Der Band richtet sich gleichermaßen an ein praxisorientiertes und wissenschaftliches Publikum, das nicht nur aus der technischen Perspektive einen Zugang zum Thema sucht. Der praktische Nutzen wird in der Fülle von Anwendungsbeispielen offensichtlich, in denen semantische Technologien zum Einsatz kommen. Praxisorientierung ist auch das Leitthema der Semantic Web School, die sich zum Ziel gesetzt hat, den Wissenstransfer zu semantischen Technologien anzukurbeln und den interdisziplinären Diskurs über deren Nutzen und Folgen zu intensivieren. Der vorliegende Band vereinigt 33 Beiträge von 57 Autoren aus 35 Institutionen zu einem virulenten und multidisziplinären Thema. Der Band richtet sich gleichermaßen an interessierte Laien und fachfremde Experten, die nicht nur aus der technischen Perspektive einen Zugang zum Thema suchen. Denn obwohl das Thema Semantic Web zu überwiegendem Maße ein technisches ist, sollen hier bewusst jene Aspekte angesprochen werden. die außerhalb einer ingenieurswissenschaftlichen Perspektive von Relevanz sind und vor allem die praktischen Aspekte semantischer Technologien adressieren. Dieser Anforderung wird durch die vielen Praxisbezüge und Anwendungsbeispiele innerhalb der einzelnen Beiträge Rechnung getragen. Hierbei ist es den Herausgebern jedoch wichtig darauf hinzuweisen, das Semantic Web und semantische Technologien nicht als verheißungsvolles Allheilmittel der durch Informationstechnologien heraufbeschworenen Probleme und Herausforderungen zu betrachten. Ganz im Gegenteil plädieren die Herausgeber für eine verstärkte Auseinandersetzung mit dem Thema unter Einbeziehung einer großen Vielfalt an Experten aus den unterschiedlichsten Fachbereichen, die einen reflektierten und kritischen Beitrag zu den positiven und negativen Effekten semantischer Technologien beitragen sollen.
- Content
- Inhalt: Im ersten Teil wird neben der begrifflichen Klärung eine Reihe von Einstiegspunkten angeboten, ohne dass der Leser das Semantic Web in seiner Systematik und Funktionsweise kennen muss. Im Beitrag von Andreas Blumauer und Tassilo Pellegrini werden die zentralen Begriffe rund um semantische Technologien vorgestellt und zentrale Konzepte überblicksartig dargestellt. Die Arbeitsgruppe um Bernardi et al. leitet über in den Themenbereich der Arbeitsorganisation und diskutieret die Bedingungen für den Einsatz semantischer Technologien aus der Perspektive der Wissensarbeit. Dem Thema Normen und Standards wurden sogar zwei Beiträge gewidmet. Während Christian Galinski die grundsätzliche Notwendigkeit von Normen zu Zwecken der Interoperabilität aus einer Top-DownPerspektive beleuchtet, eröffnet Klaus Birkenbihl einen Einblick in die technischen Standards des Semantic Web aus der Bottom-Up-Perspektive des World Wide Web Consortiums (W3C). Mit einem Beitrag zum Innovationsgrad semantischer Technologien in der ökonomischen Koordination betreten Michael Weber und Karl Fröschl weitgehend theoretisches Neuland und legen ein Fundament für weiterführende Auseinandersetzungen. Abgerundet wird der erste Teil noch mit einem Beitrag von Bernd Wohlkinger und Tassilo Pellegrini über die technologiepolitischen Dimensionen der Semantic Web Forschung in der europäischen Union.
Im zweiten Teil steht der Anwender des Semantic Web im Mittelpunkt, womit auch die erste Ebene der systematischen Auseinandersetzung mit semantischen Technologien angesprochen wird. Nicola Henze zeigt auf, welchen Beitrag semantische Technologien für die Personalisierung von Informationssystemen leisten. Stefanie Lindstaedt und Armin Ulbrich diskutieren die Möglichkeiten der Zusammenführung von Arbeiten und Lernen zu Zwecken der Kompetenzentwicklung in Arbeitsprozessen. Leo Sauermann stellt daraufhin mit der Metapher des "Semantic Desktop" ein innovatives Konzept für den Arbeitsplatz der Zukunft vor und fragt - nicht ohne eine gewisse Ironie -, ob dieser Arbeitsplatz tatsächlich auf einen physischen Ort begrenzt ist. Mark Buzinkay zeigt aus einer historischen Perspektive, wie semantische Strukturen die Navigation sowohl im Web als auch auf einzelnen Webseiten verändert haben und noch werden. Michael Schuster und Dieter Rappold adressieren die Konvergenz von Social Software und Semantic Web entlang der persönlichen Aneignung von Informationstechnologien zu Zwecken der sozialen Vernetzung. Remo Burkhard plädiert dafür, Wissensvisualisierung als Brückenfunktion zwischen technischer Infrastruktur und Nutzer wahrzunehmen und demonstriert das Potential der Wissensvisualisierung zur zielgruppengerechten Kommunikation komplexer Zusammenhänge. Abschließend zeigt Gabriele Sauberer, welche Informationskompetenzen und Schlüsselqualifikationen in der modernen Informationsgesellschaft von Bedeutung sein werden, in der der Einsatz semantische Technologien zur täglichen Wissensarbeit gehören wird.
Der dritte Teil des Bandes thematisiert die organisationalen Dimensionen des Semantic Web und demonstriert unter dem Stichwort "Wissensmanagement" eine Reihe von Konzepten und Anwendungen im betrieblichen und kollaborativen Umgang mit Information. Der Beitrag von Andreas Blumauer und Thomas Fundneider bietet einen Überblick über den Einsatz semantischer Technologien am Beispiel eines integrierten Wissensmanagement-Systems. Michael John und Jörg Drescher zeichnen den historischen Entwicklungsprozess des IT-Einsatzes für das Management von Informations- und Wissensprozessen im betrieblichen Kontext. Vor dem Hintergrund der betrieblichen Veränderungen durch Globalisierung und angeheizten Wettbewerb zeigt Heiko Beier, welche Rollen, Prozesse und Instrumente in wissensbasierten Organisationen die effiziente Nutzung von Wissen unterstützen. Mit dem Konzept des kollaborativen Wissensmanagement präsentiert das Autorenteam Schmitz et al. einen innovativen WissensmanagementAnsatz auf Peer-to-Peer-Basis mit dem Ziel der kollaborativen Einbindung und Pflege von dezentralisierten Wissensbasen. York Sure und Christoph Tempich demonstrieren anhand der Modellierungsmethode DILIGENT, welchen Beitrag Ontologien bei der Wissensvernetzung in Organisationen leisten können. Hannes Werthner und Michael Borovicka adressieren die Bedeutung semantischer Technologien für eCommerce und demonstrieren am Beispiel HARMONISE deren Einsatz im Bereich des eTourismus. Erweitert wird diese Perspektive durch den Beitrag von Fill et al., in dem das Zusammenspiel zwischen Web-Services und Geschäftsprozessen aus der Perspektive der Wirtschaftsinformatik analysiert wird. Abschließend präsentiert das Autorenteam Angele et al. eine Reihe von realisierten Anwendungen auf Basis semantischer Technologien und identifiziert kritische Faktoren für deren Einsatz.
Im vierten Teil des Bandes stehen die technischen und infrastrukturellen Aspekte im Mittelpunkt des Interesses, die für den Aufbau und Betrieb semantischer Systeme von Relevanz sind. Wolfgang Kienreich und Markus Strohmaier identifizieren die Wissensmodellierung als Basis für den Einsatz semantischer Technologien für das Knowledge Engineering und stellen zwei grundlegende Modellierungsparadigmen vor. Andreas Koller argumentiert, dass die strukturierte Ablage von Content in Content Management Systemen den Lift-Off des Semantic Web stützen wird und zeigt eine Reihe von einfachen Maßnahmen auf, wie CMS Semantic Web tauglich gemacht werden können. Alois Reitbauer gibt einen leicht verständlichen Überblick über technische Fragestellungen der IT-Integration und demonstriert anhand von Beispielen die Vorteile semantischer Technologien gegenüber konventionellen Methoden. Gerald Reif veranschaulicht die Einsatzgebiete und Leistungsfähigkeit der semantischen Annotation und stellt Tools vor, die den Nutzer bei der Dokumentenverschlagwortung unterstützen. Robert Baumgartner stellt die Funktionsweise von Wrappertechnologien zur Extraktion von Daten aus unstrukturierten Dokumenten vor und demonstriert den Nutzen am Beispiel eines B2B-Szenarios. Michael Granitzer bietet einen Überblick über statistische Verfahren der Textanalyse und zeigt, welchen Beitrag diese zur Wartung von Ontologien leisten können.
Gerhard Budin geht auf die zentrale Rolle des Terminologiemanagements bei der Ordnung und Intersubjektivierung komplexer Wissensstrukturen ein und gibt Anleitung für die Entwicklung von terminologischen Metamodellen. Marc Ehrig und Rudi Studer thematisieren Prinzipien und Herausforderungen der semantischen Integration von Ontologien zu Zwecken der Herstellung von Interoperabilität von Web Services. Wolfgang May gibt eine Einführung in das Thema Reasoning im und für das Semantic Web und zeigt auf, welche Mechanismen und Konzepte in naher Zukunft für das Semantic Web relevant werden. Abschließend führt die Autorengruppe um Polleres et al. in das junge Thema der semantischen Beschreibung von Web Services ein und adressiert Fragestellungen der Service Komposition und Automatisierung von Geschäftsprozessen. In einem Nachwort widmet sich Rafael Capurro der Frage, wie es in Zeiten eines auftauchenden semantischen Web um die philosophische Hermeneutik bestellt ist. Und er kommt zu dem Schluss, dass das Semantic Web als ein weltpolitisches Projekt verstanden werden sollte, das zu wichtig ist, um es alleine den Technikern oder den Politikern zu überlassen.
-
Zapilko, B.; Sure, Y.: Neue Möglichkeiten für die Wissensorganisation durch die Kombination von Digital Library Verfahren mit Standards des Semantic Web (2013)
0.02
0.016887631 = product of:
0.067550525 = sum of:
0.067550525 = weight(_text_:und in 1936) [ClassicSimilarity], result of:
0.067550525 = score(doc=1936,freq=20.0), product of:
0.14528832 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06550718 = queryNorm
0.4649412 = fieldWeight in 1936, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1936)
0.25 = coord(1/4)
- Abstract
- Entwicklungen und Technologien des Semantic Web treffen seit einigen Jahren verstärkt auf die Bibliotheks- und Dokumentationswelt, um das dort seit Jahrzehnten gesammelte und gepflegte Wissen für das Web und seine Nurzer zugänglich und weiter verarbeitbar zu machen. Dabei können beide Lager von einer Öffnung gegenüber den Verfahren des jeweils anderen und den daraus resultierenden Möglichkeiten, beispielsweise einer integrierten Recherche in verteilten und semantisch angereicherten Dokumentbeständen oder der Anreicherung eigener Bestände um Inhalte anderer, frei verfügbarer Bestände, profitieren. Dieses Paper stellt die Reformulierung eines gängigen informationswissenschaftlichen Verfahrens aus der Dokumentations- und Bibliothekswelt, des sogenannten SchalenmodeIls, vor und zeigt neues Potenzial und neue Möglichkeiten für die Wissensorganisation auf, die durch dessen Anwendung im Semantic Web entstehen können. Darüber hinaus werden erste praktische Ergebnisse der Vorarbeiten dieser Reformulierung präsentiert, die Transformation eines Thesaurus ins SKOS-Format.
-
Sigel, A.: Informationsintegration mit semantischen Wissenstechnologien (2006)
0.02
0.016484074 = product of:
0.0659363 = sum of:
0.0659363 = weight(_text_:und in 174) [ClassicSimilarity], result of:
0.0659363 = score(doc=174,freq=14.0), product of:
0.14528832 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06550718 = queryNorm
0.4538307 = fieldWeight in 174, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=174)
0.25 = coord(1/4)
- Abstract
- Das Tutorium vermittelt theoretische Grundlagen der wissensorganisatorischen (semantischen) Integration und zeigt auch einige praktische Beispiele. Die Integration bezieht sich auf die Ebenen: Integration von ähnlichen Einträgen in verschiedenen Ontologien (Begriffe und Beziehungen) sowie von Aussagen über gleiche Aussagegegenstände und zugehörige Informationsressourcen. Hierzu werden ausgewählte semantische Wissenstechnologien (Topic Maps und RDF) und -werkzeuge vorgestellt und mit wissensorganisatorischen Grundlagen verbunden (z.B. SKOS - Simple Knowledge Organization Systems, http://www.w3.org/2004/02/skos/, oder Published Resource Identifiers).
- Content
- Tutorium auf der 10. Deutschen ISKO-Tagung (Wissensorganisation 2006): Kompatibilität und Heterogenität in der Wissensorganisation Universität Wien, Montag 03. Juli 2006.
-
Dellschaft, K.; Hachenberg, C.: Repräsentation von Wissensorganisationssystemen im Semantic Web : ein Best Practice Guide (2011)
0.02
0.016484074 = product of:
0.0659363 = sum of:
0.0659363 = weight(_text_:und in 782) [ClassicSimilarity], result of:
0.0659363 = score(doc=782,freq=14.0), product of:
0.14528832 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06550718 = queryNorm
0.4538307 = fieldWeight in 782, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=782)
0.25 = coord(1/4)
- Abstract
- In diesem Dokument sollen Begriffe, Prinzipien und Methoden vorgestellt werden, die sich als hilfreich bei der Erstellung von Semantic Web konformen Repräsentationen von Wissensorganisationssystemen (KOS) erwiesen haben, wie z. B. Thesauri und Klassifikationssysteme. Das Dokument richtet sich an Organisationen wie z. B. Bibliotheken, die ihre traditionellen Wissensorganisationssysteme im Rahmen des Semantic Web veröffentlichen wollen. Die in diesem Dokument beschriebenen Vorgehensweisen und Prinzipien sind nicht als normativ anzusehen. Sie sollen nur dabei helfen, von bisher gemachten Erfahrungen zu profitieren und einen leichteren Einstieg in die wichtigsten Begriffichkeiten und Techniken des Semantic Web zu bekommen. An vielen Stellen wird zudem auf weiterführende Literatur zum Thema und auf relevante Standards und Spezifikationen aus dem Bereich des Semantic Web hingewiesen.
-
Schulz, T.: Konzeption und prototypische Entwicklung eines Thesaurus für IT-Konzepte an Hochschulen (2021)
0.02
0.01604572 = product of:
0.06418288 = sum of:
0.06418288 = weight(_text_:und in 1430) [ClassicSimilarity], result of:
0.06418288 = score(doc=1430,freq=26.0), product of:
0.14528832 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06550718 = queryNorm
0.44176215 = fieldWeight in 1430, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1430)
0.25 = coord(1/4)
- Abstract
- In Hochschulen besteht derzeit ein großes Anliegen, die Digitalisierung effektiv und effizient für Prozesse in Steuerungsbereichen zu nutzen. Dabei steht die IT-Governance im Mittelpunkt der hochschulpolitischen Überlegungen und beinhaltet "die interne Steuerung und Koordination von Entscheidungsprozessen in Bezug auf IT-Steuerung beziehungsweise Digitalisierungsmaßnahmen."(Christmann-Budian et al. 2018) Strategisch kann die Bündelung von Kompetenzen in der deutschen Hochschullandschaft dabei helfen, die steigenden Anforderungen an die IT-Governance zu erfüllen. Passend zu diesem Ansatz realisieren aktuell im ZDT zusammengeschlossene Hochschulen das Projekt "IT-Konzepte - Portfolio gemeinsamer Vorlagen und Muster". Das Projekt schließt an die Problemstellung an, indem Kompetenzen gebündelt und alle Hochschulen befähigt werden, IT-Konzepte erarbeiten und verabschieden zu können. Dazu wird ein Portfolio an Muster und Vorlagen als Ressourcenpool zusammengetragen und referenziert, um eine Nachvollziehbarkeit der Vielfalt an Herausgebern gewährleisten zu können (Meister 2020). Um den Ressourcenpool, welcher einen Body of Knowledge (BoK) darstellt, effizient durchsuchen zu können, ist eine sinnvolle Struktur unabdinglich. Daher setzt sich das Ziel der Bachelorarbeit aus der Analyse von hochschulinternen Dokumenten mithilfe von Natural Language Processing (NLP) und die daraus resultierende Entwicklung eines Thesaurus-Prototyps für IT-Konzepte zusammen. Dieser soll im Anschluss serialisiert und automatisiert werden, um diesen fortlaufend auf einem aktuellen Stand zu halten. Es wird sich mit der Frage beschäftigt, wie ein Thesaurus nachhaltig technologisch, systematisch und konsistent erstellt werden kann, um diesen Prozess im späteren Verlauf als Grundlage für weitere Themenbereiche einzuführen.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Niederée, C.: Metadaten als Bausteine des Semantic Web (2003)
0.02
0.016021013 = product of:
0.06408405 = sum of:
0.06408405 = weight(_text_:und in 2761) [ClassicSimilarity], result of:
0.06408405 = score(doc=2761,freq=18.0), product of:
0.14528832 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06550718 = queryNorm
0.44108194 = fieldWeight in 2761, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2761)
0.25 = coord(1/4)
- Abstract
- Das »Semantic Web« bildet einen der wichtigsten, aktuellen Trends in der Weiterentwicklung des World Wide Web. Ehrgeizige Vision dieser nächsten Generation des WWW ist es, durch semantische Anreicherung von Information eine neue Qualität in der Bereitstellung von Inhalten und Diensten zu erreichen und vollständig neue Anwendungsmöglichkeiten für das Web zu eröffnen. Wichtige Ziele der Entwicklung des Semantic Web sind dabei die verbesserte Unterstützung von Kooperation zwischen Menschen und Computern und die intelligente Assistenz bei der Durchführung von Aufgaben in kooperativen verteilten Informationsumgebungen. Schlüssel zur Erreichung dieser Ziele sind die Anreicherung von Daten im Web mit Metadaten, welche diese Daten in einen semantischen Kontext einbetten. Diese Kontextinformation wird durch Software-Anwendungen interpretiert und zur Informationsfilterung, Verfeinerung von Anfragen und zur Bereitstellung intelligenter Assistenten verwendet. Eine große Herausforderung stellt dabei die geeignete Modellierung und Beschreibung des Kontexts dar. Diese muss eine automatische, globale Interpretation ermöglichen, ohne dass auf ein allgemeingültiges semantisches Beschreibungsschema zurückgegriffen werden kann. Die Vereinbarung eines solchen allgemeingültigen Schemas ist in einem derart umfangreichen, heterogenen und autonomen Rahmen, wie ihn das WWW darstellt, nicht möglich.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.193-198
-
Studer, R.; Studer, H.-P.; Studer, A.: Semantisches Knowledge Retrieval (2001)
0.02
0.016021013 = product of:
0.06408405 = sum of:
0.06408405 = weight(_text_:und in 322) [ClassicSimilarity], result of:
0.06408405 = score(doc=322,freq=18.0), product of:
0.14528832 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06550718 = queryNorm
0.44108194 = fieldWeight in 322, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=322)
0.25 = coord(1/4)
- Abstract
- Dieses Whitepaper befasst sich mit der Integration semantischer Technologien in bestehende Ansätze des Information Retrieval und die damit verbundenen weitreichenden Auswirkungen auf Effizienz und Effektivität von Suche und Navigation in Dokumenten. Nach einer Einbettung in die Problematik des Wissensmanagement aus Sicht der Informationstechnik folgt ein Überblick zu den Methoden des Information Retrieval. Anschließend werden die semantischen Technologien "Wissen modellieren - Ontologie" und "Neues Wissen ableiten - Inferenz" vorgestellt. Ein Integrationsansatz wird im Folgenden diskutiert und die entstehenden Mehrwerte präsentiert. Insbesondere ergeben sich Erweiterungen hinsichtlich einer verfeinerten Suchunterstützung und einer kontextbezogenen Navigation sowie die Möglichkeiten der Auswertung von regelbasierten Zusammenhängen und einfache Integration von strukturierten Informationsquellen. Das Whitepaper schließt mit einem Ausblick auf die zukünftige Entwicklung des WWW hin zu einem Semantic Web und die damit verbundenen Implikationen für semantische Technologien.
- Content
- Inhalt: 1. Einführung - 2. Wissensmanagement - 3. Information Retrieval - 3.1. Methoden und Techniken - 3.2. Information Retrieval in der Anwendung - 4. Semantische Ansätze - 4.1. Wissen modellieren - Ontologie - 4.2. Neues Wissen inferieren - 5. Knowledge Retrieval in der Anwendung - 6. Zukunftsaussichten - 7. Fazit