-
Tudhope, D.; Hodge, G.: Terminology registries (2007)
0.01
0.00905488 = product of:
0.03621952 = sum of:
0.03621952 = weight(_text_:und in 1539) [ClassicSimilarity], result of:
0.03621952 = score(doc=1539,freq=2.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.24504554 = fieldWeight in 1539, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1539)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.01
0.00905488 = product of:
0.03621952 = sum of:
0.03621952 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.03621952 = score(doc=729,freq=8.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.25 = coord(1/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
-
Endres-Niggemeyer, B.; Ziegert, C.: SummIt-BMT : (Summarize It in BMT) in Diagnose und Therapie, Abschlussbericht (2002)
0.01
0.00905488 = product of:
0.03621952 = sum of:
0.03621952 = weight(_text_:und in 497) [ClassicSimilarity], result of:
0.03621952 = score(doc=497,freq=8.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.24504554 = fieldWeight in 497, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=497)
0.25 = coord(1/4)
- Abstract
- SummIt-BMT (Summarize It in Bone Marrow Transplantation) - das Zielsystem des Projektes - soll Ärzten in der Knochenmarktransplantation durch kognitiv fundiertes Zusammenfassen (Endres-Niggemeyer, 1998) aus dem WWW eine schnelle Informationsaufnahme ermöglichen. Im bmbffinanzierten Teilprojekt, über das hier zu berichten ist, liegt der Schwerpunkt auf den klinischen Fragestellungen. SummIt-BMT hat als zentrale Komponente eine KMT-Ontologie. Den Systemablauf veranschaulicht Abb. 1: Benutzer geben ihren Informationsbedarf in ein strukturiertes Szenario ein. Sie ziehen dazu Begriffe aus der Ontologie heran. Aus dem Szenario werden Fragen an Suchmaschinen abgeleitet. Die Summit-BMT-Metasuchmaschine stößt Google an und sucht in Medline, der zentralen Literaturdatenbank der Medizin. Das Suchergebnis wird aufbereitet. Dabei werden Links zu Volltexten verfolgt und die Volltexte besorgt. Die beschafften Dokumente werden mit einem Schlüsselwortretrieval auf Passagen untersucht, in denen sich Suchkonzepte aus der Frage / Ontologie häufen. Diese Passagen werden zum Zusammenfassen vorgeschlagen. In ihnen werden die Aussagen syntaktisch analysiert. Die Systemagenten untersuchen sie. Lassen Aussagen sich mit einer semantischen Relation an die Frage anbinden, tragen also zur deren Beantwortung bei, werden sie in die Zusammenfassung aufgenommen, es sei denn, andere Agenten machen Hinderungsgründe geltend, z.B. Redundanz. Das Ergebnis der Zusammenfassung wird in das Frage/Antwort-Szenario integriert. Präsentiert werden Exzerpte aus den Quelldokumenten. Mit einem Link vermitteln sie einen sofortigen Rückgriff auf die Quelle. SummIt-BMT ist zum nächsten Durchgang von Informationssuche und Zusammenfassung bereit, sobald der Benutzer dies wünscht.
-
Angerer, C.: Neuronale Netze : Revolution für die Wissenschaft? (2018)
0.01
0.00905488 = product of:
0.03621952 = sum of:
0.03621952 = weight(_text_:und in 23) [ClassicSimilarity], result of:
0.03621952 = score(doc=23,freq=2.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.24504554 = fieldWeight in 23, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=23)
0.25 = coord(1/4)
- Abstract
- Ein Konzept aus den 1980er Jahren nimmt durch neue Entwicklungen in der Computer-Hardware einen kometenhaften Aufschwung. Vielschichtige, »tiefe« neuronale Netze revolutionieren nicht nur die Bilderkennung und die Datenanalyse, sondern gewinnen inzwischen auch wissenschaftliche Erkenntnisse.
-
Güldner, D.; Wich, M.; Keil, S.: Überblick über aktuelle Programme zur Erschaffung von Ontologien (2006)
0.01
0.008963874 = product of:
0.035855494 = sum of:
0.035855494 = weight(_text_:und in 22) [ClassicSimilarity], result of:
0.035855494 = score(doc=22,freq=4.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.24258271 = fieldWeight in 22, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=22)
0.25 = coord(1/4)
- Abstract
- Im Zuge des zunehmenden Einflusses des Semantic Web und der damit einhergehenden Verknüpfung von Informationen wird die Modellierung von Ontologien immer bedeutsamer. Hiermit verbunden ist natürlich auch deren Erweiterung um Instanzen, wodurch immer größere Wissensbasen entstehen. In den letzten Jahren sind sowohl aus akademischem, als auch aus industriellem Hintergrund Programme entstanden, die Ontologie-Autoren bei ihrer Arbeit unterstützen sollen. Nach einer kleinen allgemeinen Einführung in den Ablauf des Ontologiebaus soll hier ein Überblick über einige Tools gegeben werden, die aktuell zur Verfügung stehen, ohne Anspruch auf Vollständigkeit zu erheben.
- Source
- Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.337-342
-
Ehlen, D.: Semantic Wiki : Konzeption eines Semantic MediaWiki für das Reallexikon zur Deutschen Kunstgeschichte (2010)
0.01
0.008963874 = product of:
0.035855494 = sum of:
0.035855494 = weight(_text_:und in 676) [ClassicSimilarity], result of:
0.035855494 = score(doc=676,freq=4.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.24258271 = fieldWeight in 676, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=676)
0.25 = coord(1/4)
- Abstract
- Wikis sind ein geeignetes Mittel zur Umsetzung von umfangreichen Wissenssammlungen wie Lexika oder Enzyklopädien. Bestes Beispiel dafür bildet die weltweit erfolgreiche freie On-line-Enzyklopadie Wikipedia. Jedoch ist es mit konventionellen Wiki-Umgebungen nicht moglich das Potential der gespeicherten Texte vollends auszuschopfen. Eine neue Möglichkeit bieten semantische Wikis, deren Inhalte mithilfe von maschinenlesbaren Annotationen semantische Bezüge erhalten. Die hier vorliegende Bachelorarbeit greift dies auf und überführt Teile des "Reallexikons zur deutschen Kunstgeschichte" in ein semantisches Wiki. Aufgrund einer Semantic MediaWiki-Installation soll uberpruft werden, inwieweit die neue Technik fur die Erschließung des Lexikons genutzt werden kann. Mit einem Beispiel-Wiki für das RdK auf beigefügter CD.
- Imprint
- Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
-
Seidlmayer, E.: ¬An ontology of digital objects in philosophy : an approach for practical use in research (2018)
0.01
0.008963874 = product of:
0.035855494 = sum of:
0.035855494 = weight(_text_:und in 496) [ClassicSimilarity], result of:
0.035855494 = score(doc=496,freq=4.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.24258271 = fieldWeight in 496, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=496)
0.25 = coord(1/4)
- Footnote
- Master thesis Library and Information Science, Fakultät für Informations- und Kommunikationswissenschaften, Technische Hochschule Köln. Schön auch: Bei Google Scholar unter 'Eva, S.' nachgewiesen.
- Imprint
- Köln : Technische Hochschule / Fakultät für Informations- und Kommunikationswissenschaften
-
Mazzocchi, F.; Plini, P.: Refining thesaurus relational structure : implications and opportunities (2008)
0.01
0.0076833204 = product of:
0.030733282 = sum of:
0.030733282 = weight(_text_:und in 6448) [ClassicSimilarity], result of:
0.030733282 = score(doc=6448,freq=4.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.20792803 = fieldWeight in 6448, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6448)
0.25 = coord(1/4)
- Source
- Kompatibilität, Medien und Ethik in der Wissensorganisation - Compatibility, Media and Ethics in Knowledge Organization: Proceedings der 10. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Wien, 3.-5. Juli 2006 - Proceedings of the 10th Conference of the German Section of the International Society of Knowledge Organization Vienna, 3-5 July 2006. Ed.: H.P. Ohly, S. Netscher u. K. Mitgutsch
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Hohmann, G.: ¬Die Anwendung des CIDOC-CRM für die semantische Wissensrepräsentation in den Kulturwissenschaften (2010)
0.01
0.0076833204 = product of:
0.030733282 = sum of:
0.030733282 = weight(_text_:und in 5011) [ClassicSimilarity], result of:
0.030733282 = score(doc=5011,freq=4.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.20792803 = fieldWeight in 5011, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=5011)
0.25 = coord(1/4)
- Abstract
- Das CIDOC Conceptual Reference Model (CRM) ist eine Ontologie für den Bereich des Kulturellen Erbes, die als ISO 21127 standardisiert ist. Inzwischen liegen auch OWL-DL-Implementationen des CRM vor, die ihren Einsatz auch im Semantic Web ermöglicht. OWL-DL ist eine entscheidbare Untermenge der Web Ontology Language, die vom W3C spezifiziert wurde. Lokale Anwendungsontologien, die ebenfalls in OWL-DL modelliert werden, können über Subklassenbeziehungen mit dem CRM als Referenzontologie verbunden werden. Dadurch wird es automatischen Prozessen ermöglicht, autonom heterogene Daten semantisch zu validieren, zueinander in Bezug zu setzen und Anfragen über verschiedene Datenbestände innerhalb der Wissensdomäne zu verarbeiten und zu beantworten.
-
Köstlbacher, A. (Übers.): OWL Web Ontology Language Überblick (2004)
0.01
0.0076833204 = product of:
0.030733282 = sum of:
0.030733282 = weight(_text_:und in 681) [ClassicSimilarity], result of:
0.030733282 = score(doc=681,freq=4.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.20792803 = fieldWeight in 681, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=681)
0.25 = coord(1/4)
- Abstract
- Die OWL Web Ontology Language wurde entwickelt, um es Anwendungen zu ermöglichen den Inhalt von Informationen zu verarbeiten anstatt die Informationen dem Anwender nur zu präsentieren. OWL erleichtert durch zusätzliches Vokabular in Verbindung mit formaler Semantik stärkere Interpretationsmöglichkeiten von Web Inhalten als dies XML, RDF und RDFS ermöglichen. OWL besteht aus drei Untersprachen mit steigender Ausdrucksmächtigkeit: OWL Lite, OWL DL and OWL Full. Dieses Dokument wurde für Leser erstellt, die einen ersten Eindruck von den Möglichkeiten bekommen möchten, die OWL bietet. Es stellt eine Einführung in OWL anhand der Beschreibung der Merkmale der drei Untersprachen von OWL dar. Kenntnisse von RDF Schema sind hilfreich für das Verständnis, aber nicht unbedingt erforderlich. Nach der Lektüre dieses Dokuments können sich interessierte Leser für detailliertere Beschreibungen und ausführliche Beispiele der Merkmale von OWL dem OWL Guide zuwenden. Die normative formale Definition von OWL findet sich unter OWL Semantics and Abstract Syntax.
-
Börner, K.: Atlas of knowledge : anyone can map (2015)
0.01
0.0076833204 = product of:
0.030733282 = sum of:
0.030733282 = weight(_text_:und in 4355) [ClassicSimilarity], result of:
0.030733282 = score(doc=4355,freq=4.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.20792803 = fieldWeight in 4355, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4355)
0.25 = coord(1/4)
- BK
- 02.10 Wissenschaft und Gesellschaft
- Classification
- 02.10 Wissenschaft und Gesellschaft
-
Helbig, H.: ¬Die semantische Struktur natürlicher Sprache : Wissensrepräsentation mit MultiNet (2001)
0.01
0.007243904 = product of:
0.028975615 = sum of:
0.028975615 = weight(_text_:und in 7071) [ClassicSimilarity], result of:
0.028975615 = score(doc=7071,freq=2.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.19603643 = fieldWeight in 7071, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=7071)
0.25 = coord(1/4)
- Footnote
- 2. Aufl. 2008 u.d.T.: Wissensverarbeitung und die Semantik der natürlichen Sprache
-
Werrmann, J.: Modellierung im Kontext : Ontologie-basiertes Information Retrieval (2011)
0.01
0.007243904 = product of:
0.028975615 = sum of:
0.028975615 = weight(_text_:und in 2141) [ClassicSimilarity], result of:
0.028975615 = score(doc=2141,freq=2.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.19603643 = fieldWeight in 2141, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2141)
0.25 = coord(1/4)
- Abstract
- Heterogene Dokumentenlandschaften in Unternehmen bergen Wissen in Form von Verknüpfungspotentialen zwischen domänenspezifischen Dokumenten verschiedener Dokumentensysteme. Um dieses teils verborgene Wissen ableiten oder generieren zu können, entwickeln wir ein Entwurfsmuster für eine Ontologie, die eine homogene Zugriffsstruktur über einer heterogenen Dokumentenlandschaft etabliert. Weiterhin beschreiben wir ein Advanced Ontology-based Information Retrieval (AIRS) Verfahren, mit dessen Hilfe diese Meta-Ontologie zur Generierung von Anfragestrategien an Dokumentensysteme und für die Dokumentenrecherche in verschiedenen Anwendungskontexten genutzt werden können.
-
Reif, G.: Semantische Annotation (2006)
0.01
0.007243904 = product of:
0.028975615 = sum of:
0.028975615 = weight(_text_:und in 807) [ClassicSimilarity], result of:
0.028975615 = score(doc=807,freq=2.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.19603643 = fieldWeight in 807, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=807)
0.25 = coord(1/4)
- Abstract
- In diesem Kapitel wird zuerst der Begriff Semantische Annotation eingeführt und es werden Techniken besprochen um die Annotationen mit dem ursprünglichen Dokument zu verknüpfen. Weiters wird auf Probleme eingegangen, die sich beim Erstellen der Annotationen ergeben. Im Anschluss daran werden Software Tools vorgestellt, die einen Benutzer beim Annotierungsprozess unterstützen. Zum Abschluss werden Methoden diskutiert, die den Annotierungsvorgang in den Entwicklungsprozess einer Web Applikation integrieren.
-
Hermans, J.: Ontologiebasiertes Information Retrieval für das Wissensmanagement (2008)
0.01
0.007243904 = product of:
0.028975615 = sum of:
0.028975615 = weight(_text_:und in 1506) [ClassicSimilarity], result of:
0.028975615 = score(doc=1506,freq=8.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.19603643 = fieldWeight in 1506, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1506)
0.25 = coord(1/4)
- Abstract
- Unternehmen sehen sich heutzutage regelmäßig der Herausforderung gegenübergestellt, aus umfangreichen Mengen an Dokumenten schnell relevante Informationen zu identifizieren. Dabei zeigt sich jedoch, dass Suchverfahren, die lediglich syntaktische Abgleiche von Informationsbedarfen mit potenziell relevanten Dokumenten durchführen, häufig nicht die an sie gestellten Erwartungen erfüllen. Viel versprechendes Potenzial bietet hier der Einsatz von Ontologien für das Information Retrieval. Beim ontologiebasierten Information Retrieval werden Ontologien eingesetzt, um Wissen in einer Form abzubilden, die durch Informationssysteme verarbeitet werden kann. Eine Berücksichtigung des so explizierten Wissens durch Suchalgorithmen führt dann zu einer optimierten Deckung von Informationsbedarfen. Jan Hermans stellt in seinem Buch ein adaptives Referenzmodell für die Entwicklung von ontologiebasierten Information Retrieval-Systemen vor. Zentrales Element seines Modells ist die einsatzkontextspezifische Adaption des Retrievalprozesses durch bewährte Techniken, die ausgewählte Aspekte des ontologiebasierten Information Retrievals bereits effektiv und effizient unterstützen. Die Anwendung des Referenzmodells wird anhand eines Fallbeispiels illustriert, bei dem ein Information Retrieval-System für die Suche nach Open Source-Komponenten entwickelt wird. Das Buch richtet sich gleichermaßen an Dozenten und Studierende der Wirtschaftsinformatik, Informatik und Betriebswirtschaftslehre sowie an Praktiker, die die Informationssuche im Unternehmen verbessern möchten. Jan Hermans, Jahrgang 1978, studierte Wirtschaftsinformatik an der Westfälischen Wilhelms-Universität in Münster. Seit 2003 war er als Wissenschaftlicher Mitarbeiter am European Research Center for Information Systems der WWU Münster tätig. Seine Forschungsschwerpunkte lagen in den Bereichen Wissensmanagement und Information Retrieval. Im Mai 2008 erfolgte seine Promotion zum Doktor der Wirtschaftswissenschaften.
-
Hodgson, J.P.E.: Knowledge representation and language in AI (1991)
0.01
0.0064027673 = product of:
0.025611069 = sum of:
0.025611069 = weight(_text_:und in 2529) [ClassicSimilarity], result of:
0.025611069 = score(doc=2529,freq=4.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.17327337 = fieldWeight in 2529, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2529)
0.25 = coord(1/4)
- Classification
- ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
- RVK
- ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
-
Peters, I.; Weller. K.: Paradigmatic and syntagmatic relations in knowledge organization systems (2008)
0.01
0.0063384157 = product of:
0.025353663 = sum of:
0.025353663 = weight(_text_:und in 2593) [ClassicSimilarity], result of:
0.025353663 = score(doc=2593,freq=2.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.17153187 = fieldWeight in 2593, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2593)
0.25 = coord(1/4)
- Source
- Information - Wissenschaft und Praxis. 59(2008) H.2, S.100-107
-
Scheir, P.; Pammer, V.; Lindstaedt, S.N.: Information retrieval on the Semantic Web : does it exist? (2007)
0.01
0.0063384157 = product of:
0.025353663 = sum of:
0.025353663 = weight(_text_:und in 329) [ClassicSimilarity], result of:
0.025353663 = score(doc=329,freq=2.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.17153187 = fieldWeight in 329, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=329)
0.25 = coord(1/4)
- Content
- Enthält einen Überblick über Modelle, Systeme und Projekte
-
Assem, M. van; Menken, M.R.; Schreiber, G.; Wielemaker, J.; Wielinga, B.: ¬A method for converting thesauri to RDF/OWL (2004)
0.01
0.0063384157 = product of:
0.025353663 = sum of:
0.025353663 = weight(_text_:und in 644) [ClassicSimilarity], result of:
0.025353663 = score(doc=644,freq=2.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.17153187 = fieldWeight in 644, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=644)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Quick Guide to Publishing a Thesaurus on the Semantic Web (2008)
0.01
0.0063384157 = product of:
0.025353663 = sum of:
0.025353663 = weight(_text_:und in 656) [ClassicSimilarity], result of:
0.025353663 = score(doc=656,freq=2.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.17153187 = fieldWeight in 656, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=656)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus