-
Shiri, A.A.; Revie, C.: Query expansion behavior within a thesaurus-enhanced search environment : a user-centered evaluation (2006)
0.04
0.037989005 = product of:
0.15195602 = sum of:
0.15195602 = weight(_text_:here in 1056) [ClassicSimilarity], result of:
0.15195602 = score(doc=1056,freq=4.0), product of:
0.36196628 = queryWeight, product of:
5.373531 = idf(docFreq=559, maxDocs=44421)
0.067360975 = queryNorm
0.4198071 = fieldWeight in 1056, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.373531 = idf(docFreq=559, maxDocs=44421)
0.0390625 = fieldNorm(doc=1056)
0.25 = coord(1/4)
- Abstract
- The study reported here investigated the query expansion behavior of end-users interacting with a thesaurus-enhanced search system on the Web. Two groups, namely academic staff and postgraduate students, were recruited into this study. Data were collected from 90 searches performed by 30 users using the OVID interface to the CAB abstracts database. Data-gathering techniques included questionnaires, screen capturing software, and interviews. The results presented here relate to issues of search-topic and search-term characteristics, number and types of expanded queries, usefulness of thesaurus terms, and behavioral differences between academic staff and postgraduate students in their interaction. The key conclusions drawn were that (a) academic staff chose more narrow and synonymous terms than did postgraduate students, who generally selected broader and related terms; (b) topic complexity affected users' interaction with the thesaurus in that complex topics required more query expansion and search term selection; (c) users' prior topic-search experience appeared to have a significant effect on their selection and evaluation of thesaurus terms; (d) in 50% of the searches where additional terms were suggested from the thesaurus, users stated that they had not been aware of the terms at the beginning of the search; this observation was particularly noticeable in the case of postgraduate students.
-
Menczer, F.: Lexical and semantic clustering by Web links (2004)
0.03
0.03223474 = product of:
0.12893896 = sum of:
0.12893896 = weight(_text_:here in 4090) [ClassicSimilarity], result of:
0.12893896 = score(doc=4090,freq=2.0), product of:
0.36196628 = queryWeight, product of:
5.373531 = idf(docFreq=559, maxDocs=44421)
0.067360975 = queryNorm
0.35621813 = fieldWeight in 4090, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.373531 = idf(docFreq=559, maxDocs=44421)
0.046875 = fieldNorm(doc=4090)
0.25 = coord(1/4)
- Abstract
- Recent Web-searching and -mining tools are combining text and link analysis to improve ranking and crawling algorithms. The central assumption behind such approaches is that there is a correiation between the graph structure of the Web and the text and meaning of pages. Here I formalize and empirically evaluate two general conjectures drawing connections from link information to lexical and semantic Web content. The link-content conjecture states that a page is similar to the pages that link to it, and the link-cluster conjecture that pages about the same topic are clustered together. These conjectures are offen simply assumed to hold, and Web search tools are built an such assumptions. The present quantitative confirmation sheds light an the connection between the success of the latest Web-mining techniques and the small world topology of the Web, with encouraging implications for the design of better crawling algorithms.
-
Järvelin, K.; Niemi, T.: Deductive information retrieval based on classifications (1993)
0.03
0.03223474 = product of:
0.12893896 = sum of:
0.12893896 = weight(_text_:here in 3229) [ClassicSimilarity], result of:
0.12893896 = score(doc=3229,freq=2.0), product of:
0.36196628 = queryWeight, product of:
5.373531 = idf(docFreq=559, maxDocs=44421)
0.067360975 = queryNorm
0.35621813 = fieldWeight in 3229, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.373531 = idf(docFreq=559, maxDocs=44421)
0.046875 = fieldNorm(doc=3229)
0.25 = coord(1/4)
- Abstract
- Modern fact databses contain abundant data classified through several classifications. Typically, users msut consult these classifications in separate manuals or files, thus making their effective use difficult. Contemporary database systems do little support deductive use of classifications. In this study we show how deductive data management techniques can be applied to the utilization of data value classifications. Computation of transitive class relationships is of primary importance here. We define a representation of classifications which supports transitive computation and present an operation-oriented deductive query language tailored for classification-based deductive information retrieval. The operations of this language are on the same abstraction level as relational algebra operations and can be integrated with these to form a powerful and flexible query language for deductive information retrieval. We define the integration of these operations and demonstrate the usefulness of the language in terms of several sample queries
-
Sanfilippo, M.; Yang, S.; Fichman, P.: Trolling here, there, and everywhere : perceptions of trolling behaviors in context (2017)
0.03
0.03223474 = product of:
0.12893896 = sum of:
0.12893896 = weight(_text_:here in 4823) [ClassicSimilarity], result of:
0.12893896 = score(doc=4823,freq=2.0), product of:
0.36196628 = queryWeight, product of:
5.373531 = idf(docFreq=559, maxDocs=44421)
0.067360975 = queryNorm
0.35621813 = fieldWeight in 4823, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.373531 = idf(docFreq=559, maxDocs=44421)
0.046875 = fieldNorm(doc=4823)
0.25 = coord(1/4)
-
Shiri, A.; Revie, C.: Usability and user perceptions of a thesaurus-enhanced search interface (2005)
0.03
0.026862282 = product of:
0.10744913 = sum of:
0.10744913 = weight(_text_:here in 5331) [ClassicSimilarity], result of:
0.10744913 = score(doc=5331,freq=2.0), product of:
0.36196628 = queryWeight, product of:
5.373531 = idf(docFreq=559, maxDocs=44421)
0.067360975 = queryNorm
0.29684845 = fieldWeight in 5331, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.373531 = idf(docFreq=559, maxDocs=44421)
0.0390625 = fieldNorm(doc=5331)
0.25 = coord(1/4)
- Abstract
- Purpose - This paper seeks to report an investigation into the ways in which end-users perceive a thesaurus-enhanced search interface, in particular thesaurus and search interface usability. Design/methodology/approach - Thirty academic users, split between staff and postgraduate students, carrying out real search requests were observed during this study. Users were asked to comment on a range of thesaurus and interface characteristics including: ease of use, ease of learning, ease of browsing and navigation, problems and difficulties encountered while interacting with the system, and the effect of browsing on search term selection. Findings - The results suggest that interface usability is a factor affecting thesaurus browsing/navigation and other information-searching behaviours. Academic staff viewed the function of a thesaurus as being useful for narrowing down a search and providing alternative search terms, while postgraduates stressed the role of the thesaurus for broadening searches and providing new terms. Originality/value - The paper provides an insight into the ways in which end-users make use of and interact with a thesaurus-enhanced search interface. This area is new since previous research has particularly focused on how professional searchers and librarians make use of thesauri and thesaurus-enhanced search interfaces. The research reported here suggests that end-users with varying levels of domain knowledge are able to use thesauri that are integrated into search interfaces. It also provides design implications for search interface developers as well as information professionals who are involved in teaching online searching.
-
Prasad, A.R.D.; Madalli, D.P.: Faceted infrastructure for semantic digital libraries (2008)
0.03
0.026862282 = product of:
0.10744913 = sum of:
0.10744913 = weight(_text_:here in 2905) [ClassicSimilarity], result of:
0.10744913 = score(doc=2905,freq=2.0), product of:
0.36196628 = queryWeight, product of:
5.373531 = idf(docFreq=559, maxDocs=44421)
0.067360975 = queryNorm
0.29684845 = fieldWeight in 2905, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.373531 = idf(docFreq=559, maxDocs=44421)
0.0390625 = fieldNorm(doc=2905)
0.25 = coord(1/4)
- Abstract
- Purpose - The paper aims to argue that digital library retrieval should be based on semantic representations and propose a semantic infrastructure for digital libraries. Design/methodology/approach - The approach taken is formal model based on subject representation for digital libraries. Findings - Search engines and search techniques have fallen short of user expectations as they do not give context based retrieval. Deploying semantic web technologies would lead to efficient and more precise representation of digital library content and hence better retrieval. Though digital libraries often have metadata of information resources which can be accessed through OAI-PMH, much remains to be accomplished in making digital libraries semantic web compliant. This paper presents a semantic infrastructure for digital libraries, that will go a long way in providing them and web based information services with products highly customised to users needs. Research limitations/implications - Here only a model for semantic infrastructure is proposed. This model is proposed after studying current user-centric, top-down models adopted in digital library service architectures. Originality/value - This paper gives a generic model for building semantic infrastructure for digital libraries. Faceted ontologies for digital libraries is just one approach. But the same may be adopted by groups working with different approaches in building ontologies to realise efficient retrieval in digital libraries.
-
Adhikari, A.; Dutta, B.; Dutta, A.; Mondal, D.; Singh, S.: ¬An intrinsic information content-based semantic similarity measure considering the disjoint common subsumers of concepts of an ontology (2018)
0.03
0.026862282 = product of:
0.10744913 = sum of:
0.10744913 = weight(_text_:here in 372) [ClassicSimilarity], result of:
0.10744913 = score(doc=372,freq=2.0), product of:
0.36196628 = queryWeight, product of:
5.373531 = idf(docFreq=559, maxDocs=44421)
0.067360975 = queryNorm
0.29684845 = fieldWeight in 372, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.373531 = idf(docFreq=559, maxDocs=44421)
0.0390625 = fieldNorm(doc=372)
0.25 = coord(1/4)
- Abstract
- Finding similarity between concepts based on semantics has become a new trend in many applications (e.g., biomedical informatics, natural language processing). Measuring the Semantic Similarity (SS) with higher accuracy is a challenging task. In this context, the Information Content (IC)-based SS measure has gained popularity over the others. The notion of IC evolves from the science of information theory. Information theory has very high potential to characterize the semantics of concepts. Designing an IC-based SS framework comprises (i) an IC calculator, and (ii) an SS calculator. In this article, we propose a generic intrinsic IC-based SS calculator. We also introduce here a new structural aspect of an ontology called DCS (Disjoint Common Subsumers) that plays a significant role in deciding the similarity between two concepts. We evaluated our proposed similarity calculator with the existing intrinsic IC-based similarity calculators, as well as corpora-dependent similarity calculators using several benchmark data sets. The experimental results show that the proposed similarity calculator produces a high correlation with human evaluation over the existing state-of-the-art IC-based similarity calculators.
-
Zhang, J.; Mostafa, J.; Tripathy, H.: Information retrieval by semantic analysis and visualization of the concept space of D-Lib® magazine (2002)
0.02
0.023102794 = product of:
0.092411175 = sum of:
0.092411175 = weight(_text_:java in 2211) [ClassicSimilarity], result of:
0.092411175 = score(doc=2211,freq=2.0), product of:
0.47472697 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.067360975 = queryNorm
0.19466174 = fieldWeight in 2211, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=2211)
0.25 = coord(1/4)
- Content
- The JAVA applet is available at <http://ella.slis.indiana.edu/~junzhang/dlib/IV.html>. A prototype of this interface has been developed and is available at <http://ella.slis.indiana.edu/~junzhang/dlib/IV.html>. The D-Lib search interface is available at <http://www.dlib.org/Architext/AT-dlib2query.html>.
-
Schek, M.: Automatische Klassifizierung und Visualisierung im Archiv der Süddeutschen Zeitung (2005)
0.02
0.019746805 = product of:
0.07898722 = sum of:
0.07898722 = weight(_text_:und in 5884) [ClassicSimilarity], result of:
0.07898722 = score(doc=5884,freq=76.0), product of:
0.14939985 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.067360975 = queryNorm
0.5286968 = fieldWeight in 5884, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5884)
0.25 = coord(1/4)
- Abstract
- Die Süddeutsche Zeitung (SZ) verfügt seit ihrer Gründung 1945 über ein Pressearchiv, das die Texte der eigenen Redakteure und zahlreicher nationaler und internationaler Publikationen dokumentiert und auf Anfrage für Recherchezwecke bereitstellt. Die Einführung der EDV begann Anfang der 90er Jahre mit der digitalen Speicherung zunächst der SZ-Daten. Die technische Weiterentwicklung ab Mitte der 90er Jahre diente zwei Zielen: (1) dem vollständigen Wechsel von der Papierablage zur digitalen Speicherung und (2) dem Wandel von einer verlagsinternen Dokumentations- und Auskunftsstelle zu einem auch auf dem Markt vertretenen Informationsdienstleister. Um die dabei entstehenden Aufwände zu verteilen und gleichzeitig Synergieeffekte zwischen inhaltlich verwandten Archiven zu erschließen, gründeten der Süddeutsche Verlag und der Bayerische Rundfunk im Jahr 1998 die Dokumentations- und Informationszentrum (DIZ) München GmbH, in der die Pressearchive der beiden Gesellschafter und das Bildarchiv des Süddeutschen Verlags zusammengeführt wurden. Die gemeinsam entwickelte Pressedatenbank ermöglichte das standortübergreifende Lektorat, die browserbasierte Recherche für Redakteure und externe Kunden im Intraund Internet und die kundenspezifischen Content Feeds für Verlage, Rundfunkanstalten und Portale. Die DIZPressedatenbank enthält zur Zeit 6,9 Millionen Artikel, die jeweils als HTML oder PDF abrufbar sind. Täglich kommen ca. 3.500 Artikel hinzu, von denen ca. 1.000 lektoriert werden. Das Lektorat erfolgt im DIZ nicht durch die Vergabe von Schlagwörtern am Dokument, sondern durch die Verlinkung der Artikel mit "virtuellen Mappen", den Dossiers. Diese stellen die elektronische Repräsentation einer Papiermappe dar und sind das zentrale Erschließungsobjekt. Im Gegensatz zu statischen Klassifikationssystemen ist die Dossierstruktur dynamisch und aufkommensabhängig, d.h. neue Dossiers werden hauptsächlich anhand der aktuellen Berichterstattung erstellt. Insgesamt enthält die DIZ-Pressedatenbank ca. 90.000 Dossiers, davon sind 68.000 Sachthemen (Topics), Personen und Institutionen. Die Dossiers sind untereinander zum "DIZ-Wissensnetz" verlinkt.
DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Oualitätssicherung der Dossiers auf. Nach der Umstellung auf den komplett digitalisierten Workflow im April 2001 identifizierte DIZ vier Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: 1. (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) 2. Visualisierung des Wissensnetzes (Topic Mapping) 3. (Voll-)Automatische Klassifizierung und Optimierung des Wissensnetzes 4. Neue Retrievalmöglichkeiten (Clustering, Konzeptsuche) Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" starteten zuerst und wurden beschleunigt durch zwei Entwicklungen: - Der Bayerische Rundfunk (BR), ursprünglich Mitbegründer und 50%-Gesellschafter der DIZ München GmbH, entschloss sich aus strategischen Gründen, zum Ende 2003 aus der Kooperation auszusteigen. - Die Medienkrise, hervorgerufen durch den massiven Rückgang der Anzeigenerlöse, erforderte auch im Süddeutschen Verlag massive Einsparungen und die Suche nach neuen Erlösquellen. Beides führte dazu, dass die Kapazitäten im Bereich Pressedokumentation von ursprünglich rund 20 (nur SZ, ohne BR-Anteil) auf rund 13 zum 1. Januar 2004 sanken und gleichzeitig die Aufwände für die Pflege des Wissensnetzes unter verstärkten Rechtfertigungsdruck gerieten. Für die Projekte 1 und 2 ergaben sich daraus drei quantitative und qualitative Ziele: - Produktivitätssteigerung im Lektorat - Konsistenzverbesserung im Lektorat - Bessere Vermarktung und intensivere Nutzung der Dossiers in der Recherche Alle drei genannten Ziele konnten erreicht werden, wobei insbesondere die Produktivität im Lektorat gestiegen ist. Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" sind seit Anfang 2004 erfolgreich abgeschlossen. Die Folgeprojekte 3 und 4 laufen seit Mitte 2004 und sollen bis Mitte 2005 abgeschlossen sein. Im folgenden wird in Abschnitt 2 die Produktauswahl und Arbeitsweise der Automatischen Klassifizierung beschrieben. Abschnitt 3 schildert den Einsatz der Wissensnetz-Visualisierung in Lektorat und Recherche. Abschnitt 4 fasst die Ergebnisse der Projekte 1 und 2 zusammen und gibt einen Ausblick auf die Ziele der Projekte 3 und 4.
-
Hauer, M.: Neue OPACs braucht das Land ... dandelon.com (2006)
0.02
0.019022994 = product of:
0.076091975 = sum of:
0.076091975 = weight(_text_:und in 47) [ClassicSimilarity], result of:
0.076091975 = score(doc=47,freq=24.0), product of:
0.14939985 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.067360975 = queryNorm
0.50931764 = fieldWeight in 47, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=47)
0.25 = coord(1/4)
- Abstract
- In dandelon.com werden im Gegensatz zu den bisherigen Federated Search-Portal-Ansätzen die Titel von Medien neu mittels intelligentCAPTURE dezentral und kollaborativ erschlossen und inhaltlich stark erweitert. intelligentCAPTURE erschließt maschinell bisher Buchinhaltsverzeichnisse, Bücher, Klappentexte, Aufsätze und Websites, übernimmt bibliografische Daten aus Bibliotheken (XML, Z.39.50), von Verlagen (ONIX + Cover Pages), Zeitschriftenagenturen (Swets) und Buchhandel (SOAP) und exportierte maschinelle Indexate und aufbereitete Dokumente an die Bibliothekskataloge (MAB, MARC, XML) oder Dokumentationssysteme, an dandelon.com und teils auch an Fachportale. Die Daten werden durch Scanning und OCR, durch Import von Dateien und Lookup auf Server und durch Web-Spidering/-Crawling gewonnen. Die Qualität der Suche in dandelon.com ist deutlich besser als in bisherigen Bibliothekssystemen. Die semantische, multilinguale Suche mit derzeit 1,2 Millionen Fachbegriffen trägt zu den guten Suchergebnissen stark bei.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Oard, D.W.: Alternative approaches for cross-language text retrieval (1997)
0.02
0.018803596 = product of:
0.075214386 = sum of:
0.075214386 = weight(_text_:here in 2164) [ClassicSimilarity], result of:
0.075214386 = score(doc=2164,freq=2.0), product of:
0.36196628 = queryWeight, product of:
5.373531 = idf(docFreq=559, maxDocs=44421)
0.067360975 = queryNorm
0.2077939 = fieldWeight in 2164, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.373531 = idf(docFreq=559, maxDocs=44421)
0.02734375 = fieldNorm(doc=2164)
0.25 = coord(1/4)
- Abstract
- I will not attempt to draw a sharp distinction between retrieval and filtering in this survey. Although my own work on adaptive cross-language text filtering has led me to make this distinction fairly carefully in other presentations (c.f., (Oard 1997b)), such an proach does little to help understand the fundamental techniques which have been applied or the results that have been obtained in this case. Since it is still common to view filtering (detection of useful documents in dynamic document streams) as a kind of retrieval, will simply adopt that perspective here.
-
Thenmalar, S.; Geetha, T.V.: Enhanced ontology-based indexing and searching (2014)
0.02
0.018803596 = product of:
0.075214386 = sum of:
0.075214386 = weight(_text_:here in 2633) [ClassicSimilarity], result of:
0.075214386 = score(doc=2633,freq=2.0), product of:
0.36196628 = queryWeight, product of:
5.373531 = idf(docFreq=559, maxDocs=44421)
0.067360975 = queryNorm
0.2077939 = fieldWeight in 2633, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.373531 = idf(docFreq=559, maxDocs=44421)
0.02734375 = fieldNorm(doc=2633)
0.25 = coord(1/4)
- Abstract
- Purpose - The purpose of this paper is to improve the conceptual-based search by incorporating structural ontological information such as concepts and relations. Generally, Semantic-based information retrieval aims to identify relevant information based on the meanings of the query terms or on the context of the terms and the performance of semantic information retrieval is carried out through standard measures-precision and recall. Higher precision leads to the (meaningful) relevant documents obtained and lower recall leads to the less coverage of the concepts. Design/methodology/approach - In this paper, the authors enhance the existing ontology-based indexing proposed by Kohler et al., by incorporating sibling information to the index. The index designed by Kohler et al., contains only super and sub-concepts from the ontology. In addition, in our approach, we focus on two tasks; query expansion and ranking of the expanded queries, to improve the efficiency of the ontology-based search. The aforementioned tasks make use of ontological concepts, and relations existing between those concepts so as to obtain semantically more relevant search results for a given query. Findings - The proposed ontology-based indexing technique is investigated by analysing the coverage of concepts that are being populated in the index. Here, we introduce a new measure called index enhancement measure, to estimate the coverage of ontological concepts being indexed. We have evaluated the ontology-based search for the tourism domain with the tourism documents and tourism-specific ontology. The comparison of search results based on the use of ontology "with and without query expansion" is examined to estimate the efficiency of the proposed query expansion task. The ranking is compared with the ORank system to evaluate the performance of our ontology-based search. From these analyses, the ontology-based search results shows better recall when compared to the other concept-based search systems. The mean average precision of the ontology-based search is found to be 0.79 and the recall is found to be 0.65, the ORank system has the mean average precision of 0.62 and the recall is found to be 0.51, while the concept-based search has the mean average precision of 0.56 and the recall is found to be 0.42. Practical implications - When the concept is not present in the domain-specific ontology, the concept cannot be indexed. When the given query term is not available in the ontology then the term-based results are retrieved. Originality/value - In addition to super and sub-concepts, we incorporate the concepts present in same level (siblings) to the ontological index. The structural information from the ontology is determined for the query expansion. The ranking of the documents depends on the type of the query (single concept query, multiple concept queries and concept with relation queries) and the ontological relations that exists in the query and the documents. With this ontological structural information, the search results showed us better coverage of concepts with respect to the query.
-
Schmitz-Esser, W.: EXPO-INFO 2000 : Visuelles Besucherinformationssystem für Weltausstellungen (2000)
0.02
0.016499799 = product of:
0.065999195 = sum of:
0.065999195 = weight(_text_:und in 2404) [ClassicSimilarity], result of:
0.065999195 = score(doc=2404,freq=26.0), product of:
0.14939985 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.067360975 = queryNorm
0.44176215 = fieldWeight in 2404, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2404)
0.25 = coord(1/4)
- Abstract
- Das aktuelle Wissen der Welt im Spiegel einer Weltausstellung: Wie stellt man das dar und wie macht man es Interessierten zugänglich - in der Ausstellung, in Publikationen, im Funk und über das Internet? Was man alles auf einer Weltausstellung an der Schwelle zum dritten Jahrtausend sehen und erfahren kann, sprengt in Fülle und Vielfalt jeden individuell faßbaren Rahmen. Schmitz-Esser zeigt in seinem Buch, wie der Besucher wahlweise in vier Sprachen die Weltausstellung erleben und die Quintessenz davon mitnehmen kann. Ermöglicht wird dies durch das Konzept des virtuellen "Wissens in der Kapsel", das so aufbereitet ist, daß es in allen gängigen medialen Formen und für unterschiedlichste Wege der Aneignung eingesetzt werden kann. Die Lösung ist nicht nur eine Sache der Informatik und Informationstechnologie, sondern vielmehr auch eine Herausforderung an Informationswissenschaft und Computerlinguistik. Das Buch stellt Ziel, Ansatz, Komponenten und Voraussetzungen dafür dar.
- Content
- Willkommene Anregung schon am Eingang.- Vertiefung des Wissens während der Ausstellung.- Alles für das Wohlbefinden.- Die Systemstruktur und ihre einzelnen Elemente.- Wovon alles ausgeht.- Den Stoff als Topics und Subtopics strukturieren.- Die Nutshells.- Der Proxy-Text.Der Thesaurus.- Gedankenraumreisen.- Und zurück in die reale Welt.- Weitergehende Produkte.- Das EXPO-Infosystem auf einen Blick.- Register.- Literaturverzeichnis.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Rahmstorf, G.: Integriertes Management inhaltlicher Datenarten (2001)
0.02
0.016474394 = product of:
0.06589758 = sum of:
0.06589758 = weight(_text_:und in 6856) [ClassicSimilarity], result of:
0.06589758 = score(doc=6856,freq=18.0), product of:
0.14939985 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.067360975 = queryNorm
0.44108194 = fieldWeight in 6856, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6856)
0.25 = coord(1/4)
- Abstract
- Inhaltliche Daten sind im Unterschied zu Messdaten, Zahlen, Analogsignalen und anderen Informationen solche Daten, die sich auch sprachlich interpretieren lassen. Sie transportieren Inhalte, die sich benennen lassen. Zu inhaltlichen Daten gehören z. B. Auftragsdaten, Werbetexte, Produktbezeichnungen und Patentklassifikationen. Die meisten Daten, die im Internet kommuniziert werden, sind inhaltliche Daten. Man kann inhaltliche Daten in vier Klassen einordnen: * Wissensdaten - formatierte Daten (Fakten u. a. Daten in strukturierter Form), - nichtformatierte Daten (vorwiegend Texte); * Zugriffsdaten - Benennungsdaten (Wortschatz, Terminologie, Themen u. a.), - Begriffsdaten (Ordnungs- und Bedeutungsstrukturen). In der Wissensorganisation geht es hauptsächlich darum, die unüberschaubare Fülle des Wissens zu ordnen und wiederauffindbar zu machen. Daher befasst sich das Fach nicht nur mit dem Wissen selbst, selbst sondern auch mit den Mitteln, die dazu verwendet werden, das Wissen zu ordnen und auffindbar zu machen
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005)
0.02
0.015693167 = product of:
0.06277267 = sum of:
0.06277267 = weight(_text_:und in 2852) [ClassicSimilarity], result of:
0.06277267 = score(doc=2852,freq=12.0), product of:
0.14939985 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.067360975 = queryNorm
0.42016557 = fieldWeight in 2852, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2852)
0.25 = coord(1/4)
- Abstract
- Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
- Source
- Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.281-290
-
Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005)
0.02
0.015693167 = product of:
0.06277267 = sum of:
0.06277267 = weight(_text_:und in 324) [ClassicSimilarity], result of:
0.06277267 = score(doc=324,freq=12.0), product of:
0.14939985 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.067360975 = queryNorm
0.42016557 = fieldWeight in 324, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=324)
0.25 = coord(1/4)
- Abstract
- Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
-
Boteram, F.: Typisierung semantischer Relationen in integrierten Systemen der Wissensorganisation (2013)
0.02
0.0151776085 = product of:
0.060710434 = sum of:
0.060710434 = weight(_text_:und in 1919) [ClassicSimilarity], result of:
0.060710434 = score(doc=1919,freq=22.0), product of:
0.14939985 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.067360975 = queryNorm
0.4063621 = fieldWeight in 1919, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1919)
0.25 = coord(1/4)
- Abstract
- Die, differenzierte Typisierung semantischer Relationen hinsichtlich ihrer bedeutungstragenden inhaltlichen und formallogischen Eigenschaften in Systemen der Wissensorganisation ist eine Voraussetzung für leistungsstarke und benutzerfreundliche Modelle des information Retrieval und der Wissensexploration. Systeme, die mehrere Dokumentationssprachen miteinander verknüpfen und funktional integrieren, erfordern besondere Ansätze für die Typisierung der verwendeten oder benötigten Relationen. Aufbauend auf vorangegangenen Überlegungen zu Modellen der semantischen Interoperabilität in verteilten Systemen, welche durch ein zentrales Kernsystem miteinander verbunden und so in den übergeordneten Funktionszusammenhang der Wissensorganisation gestellt werden, werden differenzierte und funktionale Strategien zur Typisierung und stratifizierten Definition der unterschiedlichen Relationen in diesem System entwickelt. Um die von fortschrittlichen Retrievalparadigmen erforderten Funktionalitäten im Kontext vernetzter Systeme zur Wissensorganisation unterstützen zu können, werden die formallogischen, typologischen und strukturellen Eigenschaften sowie der eigentliche semantische Gehalt aller Relationstypen definiert, die zur Darstellung von Begriffsbeziehungen verwendet werden. Um die Vielzahl unterschiedlicher aber im Funktionszusammenhang des Gesamtsystems auf einander bezogenen Relationstypen präzise und effizient ordnen zu können, wird eine mehrfach gegliederte Struktur benötigt, welche die angestrebten Inventare in einer Ear den Nutzer übersichtlichen und intuitiv handhabbaren Form präsentieren und somit für eine Verwendung in explorativen Systemen vorhalten kann.
-
Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018)
0.02
0.0151776085 = product of:
0.060710434 = sum of:
0.060710434 = weight(_text_:und in 599) [ClassicSimilarity], result of:
0.060710434 = score(doc=599,freq=22.0), product of:
0.14939985 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.067360975 = queryNorm
0.4063621 = fieldWeight in 599, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=599)
0.25 = coord(1/4)
- Abstract
- Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.
-
Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015)
0.02
0.015038998 = product of:
0.06015599 = sum of:
0.06015599 = weight(_text_:und in 3133) [ClassicSimilarity], result of:
0.06015599 = score(doc=3133,freq=60.0), product of:
0.14939985 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.067360975 = queryNorm
0.40265095 = fieldWeight in 3133, product of:
7.745967 = tf(freq=60.0), with freq of:
60.0 = termFreq=60.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3133)
0.25 = coord(1/4)
- Abstract
- Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
- Content
- "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
Unabhängiges Durchsuchen und Analysieren grosser Datenmengen Damit können investigativ arbeitende Journalisten selbstständig und auf eigener Hardware datenschutzfreundlich hunderte, tausende, hunderttausende oder gar Millionen von Dokumenten oder hunderte Megabyte, Gigabytes oder gar einige Terabytes an Daten mit Volltextsuche durchsuchbar machen. Automatische Datenanreicherung und Erschliessung mittels Hintergrundwissen Zudem wird anhand von konfigurierbaren Hintergrundwissen automatisch eine interaktive Navigation zu in Dokumenten enthaltenen Namen von Bundestagsabgeordneten oder Orten in Deutschland generiert oder anhand Textmustern strukturierte Informationen wie Geldbeträge extrahiert. Mittels Named Entities Manager für Personen, Organisationen, Begriffe und Orte können eigene Rechercheschwerpunkte konfiguriert werden, aus denen dann automatisch eine interaktive Navigation (Facettensuche) und aggregierte Übersichten generiert werden. Automatische Datenvisualisierung Diese lassen sich auch visualisieren: So z.B. die zeitliche Verteilung von Suchergebnissen als Trand Diagramm oder durch gleichzeitige Nennung in Dokumenten abgeleitete Verbindungen als Netzwerk bzw. Graph.
Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
- Source
- http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
-
Gödert, W.: Navigation und Konzepte für ein interaktives Retrieval im OPAC : Oder: Von der Informationserschließung zur Wissenserkundung (2004)
0.01
0.014643907 = product of:
0.058575626 = sum of:
0.058575626 = weight(_text_:und in 3491) [ClassicSimilarity], result of:
0.058575626 = score(doc=3491,freq=8.0), product of:
0.14939985 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.067360975 = queryNorm
0.39207286 = fieldWeight in 3491, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3491)
0.25 = coord(1/4)
- Abstract
- In diesem Beitrag werden nach einem kurzen historischen Abriss der OPAC-Entwicklung die Prinzipien und Möglichkeiten zur Gestaltung von Interaktionsvorgängen zur inhaltlichen Suche diskutiert. Es wird dabei ein Plädoyer abgegeben, die OPACs nicht allein als Findeinstrumente für bibliografische Daten sondern auch als Systeme zur Wissenserkundung zu begreifen und die Interaktionsvorgänge darauf abzustimmen
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 57(2004) H.1, S.70-80