-
Sihvonen, A.; Vakkari, P.: Subject knowledge improves interactive query expansion assisted by a thesaurus (2004)
0.04
0.039615385 = product of:
0.07923077 = sum of:
0.019097915 = weight(_text_:und in 5417) [ClassicSimilarity], result of:
0.019097915 = score(doc=5417,freq=2.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.12252277 = fieldWeight in 5417, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=5417)
0.060132854 = weight(_text_:how in 5417) [ClassicSimilarity], result of:
0.060132854 = score(doc=5417,freq=4.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.25854564 = fieldWeight in 5417, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0390625 = fieldNorm(doc=5417)
0.5 = coord(2/4)
- Abstract
- This study explores how experts and novices in pedagogics expanded queries supported by the ERIC thesaurus, and how this was connected to the search effectiveness in an easy and a difficult search task. The expert group consisted of 15 undergraduates in pedagogy and the novice group of 15 students with no previous studies in this field. Their search logs were recorded and a pre- and post-search interview was conducted. The results show that the number and type of terms selected from the thesaurus for expansion by experts improved search effectiveness, whereas there were no connections between the use of thesaurus and improvement of effectiveness among novices. The effectiveness of expansions varied between the facets of the queries. Thus, a vital condition for benefiting from a thesaurus in query expansion to improve search results is sufficient familiarity with the search topic. The results suggest also that it is not in the first place the number of terms used in expansion, but their type and quality that are crucial for search success.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Shiri, A.A.; Revie, C.; Chowdhury, G.: Thesaurus-assisted search term selection and query expansion : a review of user-centred studies (2002)
0.04
0.036970958 = product of:
0.073941916 = sum of:
0.022917496 = weight(_text_:und in 2330) [ClassicSimilarity], result of:
0.022917496 = score(doc=2330,freq=2.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.14702731 = fieldWeight in 2330, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2330)
0.051024422 = weight(_text_:how in 2330) [ClassicSimilarity], result of:
0.051024422 = score(doc=2330,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.21938327 = fieldWeight in 2330, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.046875 = fieldNorm(doc=2330)
0.5 = coord(2/4)
- Abstract
- This paper provides a review of the literature related to the application of domain-specific thesauri in the search and retrieval process. Focusing an studies that adopt a user-centred approach, the review presents a survey of the methodologies and results from empirical studies undertaken an the use of thesauri as sources of term selection for query formulation and expansion during the search process. It summarises the ways in which domain-specific thesauri from different disciplines have been used by various types of users and how these tools aid users in the selection of search terms. The review consists of two main sections: first, studies an thesaurus-aided search term selection; and second, studies dealing with query expansion using thesauri. Both sections are illustrated with case studies that have adopted a user-centred approach.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Spiteri, L.F.: ¬The essential elements of faceted thesauri (1999)
0.04
0.036970958 = product of:
0.073941916 = sum of:
0.022917496 = weight(_text_:und in 362) [ClassicSimilarity], result of:
0.022917496 = score(doc=362,freq=2.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.14702731 = fieldWeight in 362, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=362)
0.051024422 = weight(_text_:how in 362) [ClassicSimilarity], result of:
0.051024422 = score(doc=362,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.21938327 = fieldWeight in 362, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.046875 = fieldNorm(doc=362)
0.5 = coord(2/4)
- Abstract
- The goal of this study is to evaluate, compare, and contrast how facet analysis is used to construct the systematic or faceted displays of a selection of information retrieval thesauri. More specifically, the study seeks to examine which principles of facet analysis are used in the thesauri, and the extent to which different thesauri apply these principles in the same way. A measuring instrument was designed for the purpose of evaluating the structure of faceted thesauri. This instrument was applied to fourteen faceted information retrieval thesauri. The study reveals that the thesauri do not share a common definition of what constitutes a facet. In some cases, the thesauri apply both enumerative-style classification and facet analysis to arrange their indexing terms. A number of the facets used in the thesauri are not homogeneous or mutually exclusive. The principle of synthesis is used in only 50% of the thesauri, and no one citation order is used consistently by the thesauri.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
ALA / Subcommittee on Subject Relationships/Reference Structures: Final Report to the ALCTS/CCS Subject Analysis Committee (1997)
0.04
0.036448516 = product of:
0.07289703 = sum of:
0.01336854 = weight(_text_:und in 2800) [ClassicSimilarity], result of:
0.01336854 = score(doc=2800,freq=2.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.085765935 = fieldWeight in 2800, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2800)
0.059528492 = weight(_text_:how in 2800) [ClassicSimilarity], result of:
0.059528492 = score(doc=2800,freq=8.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.25594714 = fieldWeight in 2800, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.02734375 = fieldNorm(doc=2800)
0.5 = coord(2/4)
- Abstract
- The SAC Subcommittee on Subject Relationships/Reference Structures was authorized at the 1995 Midwinter Meeting and appointed shortly before Annual Conference. Its creation was one result of a discussion of how (and why) to promote the display and use of broader-term subject heading references, and its charge reads as follows: To investigate: (1) the kinds of relationships that exist between subjects, the display of which are likely to be useful to catalog users; (2) how these relationships are or could be recorded in authorities and classification formats; (3) options for how these relationships should be presented to users of online and print catalogs, indexes, lists, etc. By the summer 1996 Annual Conference, make some recommendations to SAC about how to disseminate the information and/or implement changes. At that time assess the need for additional time to investigate these issues. The Subcommittee's work on each of the imperatives in the charge was summarized in a report issued at the 1996 Annual Conference (Appendix A). Highlights of this work included the development of a taxonomy of 165 subject relationships; a demonstration that, using existing MARC coding, catalog systems could be programmed to generate references they do not currently support; and an examination of reference displays in several CD-ROM database products. Since that time, work has continued on identifying term relationships and display options; on tracking research, discussion, and implementation of subject relationships in information systems; and on compiling a list of further research needs.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Shiri, A.: Topic familiarity and its effects on term selection and browsing in a thesaurus-enhanced search environment (2005)
0.03
0.030809134 = product of:
0.06161827 = sum of:
0.019097915 = weight(_text_:und in 738) [ClassicSimilarity], result of:
0.019097915 = score(doc=738,freq=2.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.12252277 = fieldWeight in 738, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=738)
0.04252035 = weight(_text_:how in 738) [ClassicSimilarity], result of:
0.04252035 = score(doc=738,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.18281938 = fieldWeight in 738, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0390625 = fieldNorm(doc=738)
0.5 = coord(2/4)
- Abstract
- Purpose - To evaluate the extent to which familiarity with search topics affects the ways in which users select and browse search terms in a thesaurus-enhanced search setting. Design/methodology/approach - An experimental methodology was adopted to study users' search behaviour in an operational information retrieval environment. Findings - Topic familiarity and subject knowledge influence some search and interaction behaviours. Searches involving moderately and very familiar topics were associated with browsing around twice as many thesaurus terms as was the case for unfamiliar topics. Research limitations/implications - Some search behaviours such as thesaurus browsing and term selection could be used as an indication of user levels of topic familiarity. Practical implications - The results of this study provide design implications as to how to develop personalized search interfaces where users with varying levels of familiarity with search topics can carry out searches. Originality/value - This paper establishes the importance of topic familiarity characteristics and the effects of those characteristics on users' interaction with search interfaces enhanced with semantic tools such as thesauri.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Tudhope, D.; Alani, H.; Jones, C.: Augmenting thesaurus relationships : possibilities for retrieval (2001)
0.03
0.030809134 = product of:
0.06161827 = sum of:
0.019097915 = weight(_text_:und in 2520) [ClassicSimilarity], result of:
0.019097915 = score(doc=2520,freq=2.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.12252277 = fieldWeight in 2520, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2520)
0.04252035 = weight(_text_:how in 2520) [ClassicSimilarity], result of:
0.04252035 = score(doc=2520,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.18281938 = fieldWeight in 2520, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0390625 = fieldNorm(doc=2520)
0.5 = coord(2/4)
- Abstract
- This paper discusses issues concerning the augmentation of thesaurus relationships, in light of new application possibilities for retrieval. We first discuss a case study that explored the retrieval potential of an augmented set of thesaurus relationships by specialising standard relationships into richer subtypes, in particular hierarchical geographical containment and the associative relationship. We then locate this work in a broader context by reviewing various attempts to build taxonomies of thesaurus relationships, and conclude by discussing the feasibility of hierarchically augmenting the core set of thesaurus relationships, particularly the associative relationship. We discuss the possibility of enriching the specification and semantics of Related Term (RT relationships), while maintaining compatibility with traditional thesauri via a limited hierarchical extension of the associative (and hierarchical) relationships. This would be facilitated by distinguishing the type of term from the (sub)type of relationship and explicitly specifying semantic categories for terms following a faceted approach. We first illustrate how hierarchical spatial relationships can be used to provide more flexible retrieval for queries incorporating place names in applications employing online gazetteers and geographical thesauri. We then employ a set of experimental scenarios to investigate key issues affecting use of the associative (RT) thesaurus relationships in semantic distance measures. Previous work has noted the potential of RTs in thesaurus search aids but also the problem of uncontrolled expansion of query term sets. Results presented in this paper suggest the potential for taking account of the hierarchical context of an RT link and specialisations of the RT relationship
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Zhang, J.; Mostafa, J.; Tripathy, H.: Information retrieval by semantic analysis and visualization of the concept space of D-Lib® magazine (2002)
0.02
0.02410369 = product of:
0.09641476 = sum of:
0.09641476 = weight(_text_:java in 2211) [ClassicSimilarity], result of:
0.09641476 = score(doc=2211,freq=2.0), product of:
0.49529383 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.07027929 = queryNorm
0.19466174 = fieldWeight in 2211, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=2211)
0.25 = coord(1/4)
- Content
- The JAVA applet is available at <http://ella.slis.indiana.edu/~junzhang/dlib/IV.html>. A prototype of this interface has been developed and is available at <http://ella.slis.indiana.edu/~junzhang/dlib/IV.html>. The D-Lib search interface is available at <http://www.dlib.org/Architext/AT-dlib2query.html>.
-
Schek, M.: Automatische Klassifizierung und Visualisierung im Archiv der Süddeutschen Zeitung (2005)
0.02
0.020602306 = product of:
0.082409225 = sum of:
0.082409225 = weight(_text_:und in 5884) [ClassicSimilarity], result of:
0.082409225 = score(doc=5884,freq=76.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.5286968 = fieldWeight in 5884, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5884)
0.25 = coord(1/4)
- Abstract
- Die Süddeutsche Zeitung (SZ) verfügt seit ihrer Gründung 1945 über ein Pressearchiv, das die Texte der eigenen Redakteure und zahlreicher nationaler und internationaler Publikationen dokumentiert und auf Anfrage für Recherchezwecke bereitstellt. Die Einführung der EDV begann Anfang der 90er Jahre mit der digitalen Speicherung zunächst der SZ-Daten. Die technische Weiterentwicklung ab Mitte der 90er Jahre diente zwei Zielen: (1) dem vollständigen Wechsel von der Papierablage zur digitalen Speicherung und (2) dem Wandel von einer verlagsinternen Dokumentations- und Auskunftsstelle zu einem auch auf dem Markt vertretenen Informationsdienstleister. Um die dabei entstehenden Aufwände zu verteilen und gleichzeitig Synergieeffekte zwischen inhaltlich verwandten Archiven zu erschließen, gründeten der Süddeutsche Verlag und der Bayerische Rundfunk im Jahr 1998 die Dokumentations- und Informationszentrum (DIZ) München GmbH, in der die Pressearchive der beiden Gesellschafter und das Bildarchiv des Süddeutschen Verlags zusammengeführt wurden. Die gemeinsam entwickelte Pressedatenbank ermöglichte das standortübergreifende Lektorat, die browserbasierte Recherche für Redakteure und externe Kunden im Intraund Internet und die kundenspezifischen Content Feeds für Verlage, Rundfunkanstalten und Portale. Die DIZPressedatenbank enthält zur Zeit 6,9 Millionen Artikel, die jeweils als HTML oder PDF abrufbar sind. Täglich kommen ca. 3.500 Artikel hinzu, von denen ca. 1.000 lektoriert werden. Das Lektorat erfolgt im DIZ nicht durch die Vergabe von Schlagwörtern am Dokument, sondern durch die Verlinkung der Artikel mit "virtuellen Mappen", den Dossiers. Diese stellen die elektronische Repräsentation einer Papiermappe dar und sind das zentrale Erschließungsobjekt. Im Gegensatz zu statischen Klassifikationssystemen ist die Dossierstruktur dynamisch und aufkommensabhängig, d.h. neue Dossiers werden hauptsächlich anhand der aktuellen Berichterstattung erstellt. Insgesamt enthält die DIZ-Pressedatenbank ca. 90.000 Dossiers, davon sind 68.000 Sachthemen (Topics), Personen und Institutionen. Die Dossiers sind untereinander zum "DIZ-Wissensnetz" verlinkt.
DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Oualitätssicherung der Dossiers auf. Nach der Umstellung auf den komplett digitalisierten Workflow im April 2001 identifizierte DIZ vier Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: 1. (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) 2. Visualisierung des Wissensnetzes (Topic Mapping) 3. (Voll-)Automatische Klassifizierung und Optimierung des Wissensnetzes 4. Neue Retrievalmöglichkeiten (Clustering, Konzeptsuche) Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" starteten zuerst und wurden beschleunigt durch zwei Entwicklungen: - Der Bayerische Rundfunk (BR), ursprünglich Mitbegründer und 50%-Gesellschafter der DIZ München GmbH, entschloss sich aus strategischen Gründen, zum Ende 2003 aus der Kooperation auszusteigen. - Die Medienkrise, hervorgerufen durch den massiven Rückgang der Anzeigenerlöse, erforderte auch im Süddeutschen Verlag massive Einsparungen und die Suche nach neuen Erlösquellen. Beides führte dazu, dass die Kapazitäten im Bereich Pressedokumentation von ursprünglich rund 20 (nur SZ, ohne BR-Anteil) auf rund 13 zum 1. Januar 2004 sanken und gleichzeitig die Aufwände für die Pflege des Wissensnetzes unter verstärkten Rechtfertigungsdruck gerieten. Für die Projekte 1 und 2 ergaben sich daraus drei quantitative und qualitative Ziele: - Produktivitätssteigerung im Lektorat - Konsistenzverbesserung im Lektorat - Bessere Vermarktung und intensivere Nutzung der Dossiers in der Recherche Alle drei genannten Ziele konnten erreicht werden, wobei insbesondere die Produktivität im Lektorat gestiegen ist. Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" sind seit Anfang 2004 erfolgreich abgeschlossen. Die Folgeprojekte 3 und 4 laufen seit Mitte 2004 und sollen bis Mitte 2005 abgeschlossen sein. Im folgenden wird in Abschnitt 2 die Produktauswahl und Arbeitsweise der Automatischen Klassifizierung beschrieben. Abschnitt 3 schildert den Einsatz der Wissensnetz-Visualisierung in Lektorat und Recherche. Abschnitt 4 fasst die Ergebnisse der Projekte 1 und 2 zusammen und gibt einen Ausblick auf die Ziele der Projekte 3 und 4.
-
Hauer, M.: Neue OPACs braucht das Land ... dandelon.com (2006)
0.02
0.019847138 = product of:
0.07938855 = sum of:
0.07938855 = weight(_text_:und in 47) [ClassicSimilarity], result of:
0.07938855 = score(doc=47,freq=24.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.50931764 = fieldWeight in 47, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=47)
0.25 = coord(1/4)
- Abstract
- In dandelon.com werden im Gegensatz zu den bisherigen Federated Search-Portal-Ansätzen die Titel von Medien neu mittels intelligentCAPTURE dezentral und kollaborativ erschlossen und inhaltlich stark erweitert. intelligentCAPTURE erschließt maschinell bisher Buchinhaltsverzeichnisse, Bücher, Klappentexte, Aufsätze und Websites, übernimmt bibliografische Daten aus Bibliotheken (XML, Z.39.50), von Verlagen (ONIX + Cover Pages), Zeitschriftenagenturen (Swets) und Buchhandel (SOAP) und exportierte maschinelle Indexate und aufbereitete Dokumente an die Bibliothekskataloge (MAB, MARC, XML) oder Dokumentationssysteme, an dandelon.com und teils auch an Fachportale. Die Daten werden durch Scanning und OCR, durch Import von Dateien und Lookup auf Server und durch Web-Spidering/-Crawling gewonnen. Die Qualität der Suche in dandelon.com ist deutlich besser als in bisherigen Bibliothekssystemen. Die semantische, multilinguale Suche mit derzeit 1,2 Millionen Fachbegriffen trägt zu den guten Suchergebnissen stark bei.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Smith, D.A.; Shadbolt, N.R.: FacetOntology : expressive descriptions of facets in the Semantic Web (2012)
0.02
0.018411852 = product of:
0.07364741 = sum of:
0.07364741 = weight(_text_:how in 3208) [ClassicSimilarity], result of:
0.07364741 = score(doc=3208,freq=6.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.31665248 = fieldWeight in 3208, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0390625 = fieldNorm(doc=3208)
0.25 = coord(1/4)
- Abstract
- The formal structure of the information on the Semantic Web lends itself to faceted browsing, an information retrieval method where users can filter results based on the values of properties ("facets"). Numerous faceted browsers have been created to browse RDF and Linked Data, but these systems use their own ontologies for defining how data is queried to populate their facets. Since the source data is the same format across these systems (specifically, RDF), we can unify the different methods of describing how to quer the underlying data, to enable compatibility across systems, and provide an extensible base ontology for future systems. To this end, we present FacetOntology, an ontology that defines how to query data to form a faceted browser, and a number of transformations and filters that can be applied to data before it is shown to users. FacetOntology overcomes limitations in the expressivity of existing work, by enabling the full expressivity of SPARQL when selecting data for facets. By applying a FacetOntology definition to data, a set of facets are specified, each with queries and filters to source RDF data, which enables faceted browsing systems to be created using that RDF data.
-
Nagao, M.: Knowledge and inference (1990)
0.02
0.018411852 = product of:
0.07364741 = sum of:
0.07364741 = weight(_text_:how in 4304) [ClassicSimilarity], result of:
0.07364741 = score(doc=4304,freq=6.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.31665248 = fieldWeight in 4304, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0390625 = fieldNorm(doc=4304)
0.25 = coord(1/4)
- Abstract
- Knowledge and Inference discusses an important problem for software systems: How do we treat knowledge and ideas on a computer and how do we use inference to solve problems on a computer? The book talks about the problems of knowledge and inference for the purpose of merging artificial intelligence and library science. The book begins by clarifying the concept of ""knowledge"" from many points of view, followed by a chapter on the current state of library science and the place of artificial intelligence in library science. Subsequent chapters cover central topics in the artificial intelligence: search and problem solving, methods of making proofs, and the use of knowledge in looking for a proof. There is also a discussion of how to use the knowledge system. The final chapter describes a popular expert system. It describes tools for building expert systems using an example based on Expert Systems-A Practical Introduction by P. Sell (Macmillian, 1985). This type of software is called an ""expert system shell."" This book was written as a textbook for undergraduate students covering only the basics but explaining as much detail as possible.
-
Cool, C.; Spink, A.: Issues of context in information retrieval (IR) : an introduction to the special issue (2002)
0.02
0.018039858 = product of:
0.07215943 = sum of:
0.07215943 = weight(_text_:how in 3587) [ClassicSimilarity], result of:
0.07215943 = score(doc=3587,freq=4.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.31025478 = fieldWeight in 3587, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.046875 = fieldNorm(doc=3587)
0.25 = coord(1/4)
- Abstract
- The subject of context has received a great deal of attention in the information retrieval (IR) literature over the past decade, primarily in studies of information seeking and IR interactions. Recently, attention to context in IR has expanded to address new problems in new environments. In this paper we outline five overlapping dimensions of context which we believe to be important constituent elements and we discuss how they are related to different issues in IR research. The papers in this special issue are summarized with respect to how they represent work that is being conducted within these dimensions of context. We conclude with future areas of research which are needed in order to fully understand the multidimensional nature of context in IR.
-
Sanfilippo, M.; Yang, S.; Fichman, P.: Trolling here, there, and everywhere : perceptions of trolling behaviors in context (2017)
0.02
0.018039858 = product of:
0.07215943 = sum of:
0.07215943 = weight(_text_:how in 4823) [ClassicSimilarity], result of:
0.07215943 = score(doc=4823,freq=4.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.31025478 = fieldWeight in 4823, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.046875 = fieldNorm(doc=4823)
0.25 = coord(1/4)
- Abstract
- Online trolling has become increasingly prevalent and visible in online communities. Perceptions of and reactions to trolling behaviors varies significantly from one community to another, as trolling behaviors are contextual and vary across platforms and communities. Through an examination of seven trolling scenarios, this article intends to answer the following questions: how do trolling behaviors differ across contexts; how do perceptions of trolling differ from case to case; and what aspects of context of trolling are perceived to be important by the public? Based on focus groups and interview data, we discuss the ways in which community norms and demographics, technological features of platforms, and community boundaries are perceived to impact trolling behaviors. Two major contributions of the study include a codebook to support future analysis of trolling and formal concept analysis surrounding contextual perceptions of trolling.
-
Schmitz-Esser, W.: EXPO-INFO 2000 : Visuelles Besucherinformationssystem für Weltausstellungen (2000)
0.02
0.017214628 = product of:
0.06885851 = sum of:
0.06885851 = weight(_text_:und in 2404) [ClassicSimilarity], result of:
0.06885851 = score(doc=2404,freq=26.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.44176215 = fieldWeight in 2404, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2404)
0.25 = coord(1/4)
- Abstract
- Das aktuelle Wissen der Welt im Spiegel einer Weltausstellung: Wie stellt man das dar und wie macht man es Interessierten zugänglich - in der Ausstellung, in Publikationen, im Funk und über das Internet? Was man alles auf einer Weltausstellung an der Schwelle zum dritten Jahrtausend sehen und erfahren kann, sprengt in Fülle und Vielfalt jeden individuell faßbaren Rahmen. Schmitz-Esser zeigt in seinem Buch, wie der Besucher wahlweise in vier Sprachen die Weltausstellung erleben und die Quintessenz davon mitnehmen kann. Ermöglicht wird dies durch das Konzept des virtuellen "Wissens in der Kapsel", das so aufbereitet ist, daß es in allen gängigen medialen Formen und für unterschiedlichste Wege der Aneignung eingesetzt werden kann. Die Lösung ist nicht nur eine Sache der Informatik und Informationstechnologie, sondern vielmehr auch eine Herausforderung an Informationswissenschaft und Computerlinguistik. Das Buch stellt Ziel, Ansatz, Komponenten und Voraussetzungen dafür dar.
- Content
- Willkommene Anregung schon am Eingang.- Vertiefung des Wissens während der Ausstellung.- Alles für das Wohlbefinden.- Die Systemstruktur und ihre einzelnen Elemente.- Wovon alles ausgeht.- Den Stoff als Topics und Subtopics strukturieren.- Die Nutshells.- Der Proxy-Text.Der Thesaurus.- Gedankenraumreisen.- Und zurück in die reale Welt.- Weitergehende Produkte.- Das EXPO-Infosystem auf einen Blick.- Register.- Literaturverzeichnis.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Rahmstorf, G.: Integriertes Management inhaltlicher Datenarten (2001)
0.02
0.017188122 = product of:
0.06875249 = sum of:
0.06875249 = weight(_text_:und in 6856) [ClassicSimilarity], result of:
0.06875249 = score(doc=6856,freq=18.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.44108194 = fieldWeight in 6856, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6856)
0.25 = coord(1/4)
- Abstract
- Inhaltliche Daten sind im Unterschied zu Messdaten, Zahlen, Analogsignalen und anderen Informationen solche Daten, die sich auch sprachlich interpretieren lassen. Sie transportieren Inhalte, die sich benennen lassen. Zu inhaltlichen Daten gehören z. B. Auftragsdaten, Werbetexte, Produktbezeichnungen und Patentklassifikationen. Die meisten Daten, die im Internet kommuniziert werden, sind inhaltliche Daten. Man kann inhaltliche Daten in vier Klassen einordnen: * Wissensdaten - formatierte Daten (Fakten u. a. Daten in strukturierter Form), - nichtformatierte Daten (vorwiegend Texte); * Zugriffsdaten - Benennungsdaten (Wortschatz, Terminologie, Themen u. a.), - Begriffsdaten (Ordnungs- und Bedeutungsstrukturen). In der Wissensorganisation geht es hauptsächlich darum, die unüberschaubare Fülle des Wissens zu ordnen und wiederauffindbar zu machen. Daher befasst sich das Fach nicht nur mit dem Wissen selbst, selbst sondern auch mit den Mitteln, die dazu verwendet werden, das Wissen zu ordnen und auffindbar zu machen
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Efthimiadis, E.N.: End-users' understanding of thesaural knowledge structures in interactive query expansion (1994)
0.02
0.01700814 = product of:
0.06803256 = sum of:
0.06803256 = weight(_text_:how in 6693) [ClassicSimilarity], result of:
0.06803256 = score(doc=6693,freq=2.0), product of:
0.2325812 = queryWeight, product of:
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.07027929 = queryNorm
0.29251102 = fieldWeight in 6693, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
3.3093843 = idf(docFreq=4411, maxDocs=44421)
0.0625 = fieldNorm(doc=6693)
0.25 = coord(1/4)
- Abstract
- The process of term selection for query expansion by end-users is discussed within the context of a study of interactive query expansion in a relevance feedback environment. This user study focuses on how users' perceive and understand term relationships, such as hierarchical and associative relationships, in their searches
-
Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005)
0.02
0.016373051 = product of:
0.065492205 = sum of:
0.065492205 = weight(_text_:und in 2852) [ClassicSimilarity], result of:
0.065492205 = score(doc=2852,freq=12.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.42016557 = fieldWeight in 2852, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2852)
0.25 = coord(1/4)
- Abstract
- Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
- Source
- Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.281-290
-
Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie : Ontologie-basiertes Information-Filtering und -Retrieval mit relationalen Datenbanken (2005)
0.02
0.016373051 = product of:
0.065492205 = sum of:
0.065492205 = weight(_text_:und in 324) [ClassicSimilarity], result of:
0.065492205 = score(doc=324,freq=12.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.42016557 = fieldWeight in 324, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=324)
0.25 = coord(1/4)
- Abstract
- Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
-
Boteram, F.: Typisierung semantischer Relationen in integrierten Systemen der Wissensorganisation (2013)
0.02
0.015835157 = product of:
0.06334063 = sum of:
0.06334063 = weight(_text_:und in 1919) [ClassicSimilarity], result of:
0.06334063 = score(doc=1919,freq=22.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.4063621 = fieldWeight in 1919, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1919)
0.25 = coord(1/4)
- Abstract
- Die, differenzierte Typisierung semantischer Relationen hinsichtlich ihrer bedeutungstragenden inhaltlichen und formallogischen Eigenschaften in Systemen der Wissensorganisation ist eine Voraussetzung für leistungsstarke und benutzerfreundliche Modelle des information Retrieval und der Wissensexploration. Systeme, die mehrere Dokumentationssprachen miteinander verknüpfen und funktional integrieren, erfordern besondere Ansätze für die Typisierung der verwendeten oder benötigten Relationen. Aufbauend auf vorangegangenen Überlegungen zu Modellen der semantischen Interoperabilität in verteilten Systemen, welche durch ein zentrales Kernsystem miteinander verbunden und so in den übergeordneten Funktionszusammenhang der Wissensorganisation gestellt werden, werden differenzierte und funktionale Strategien zur Typisierung und stratifizierten Definition der unterschiedlichen Relationen in diesem System entwickelt. Um die von fortschrittlichen Retrievalparadigmen erforderten Funktionalitäten im Kontext vernetzter Systeme zur Wissensorganisation unterstützen zu können, werden die formallogischen, typologischen und strukturellen Eigenschaften sowie der eigentliche semantische Gehalt aller Relationstypen definiert, die zur Darstellung von Begriffsbeziehungen verwendet werden. Um die Vielzahl unterschiedlicher aber im Funktionszusammenhang des Gesamtsystems auf einander bezogenen Relationstypen präzise und effizient ordnen zu können, wird eine mehrfach gegliederte Struktur benötigt, welche die angestrebten Inventare in einer Ear den Nutzer übersichtlichen und intuitiv handhabbaren Form präsentieren und somit für eine Verwendung in explorativen Systemen vorhalten kann.
-
Kasprzik, A.; Kett, J.: Vorschläge für eine Weiterentwicklung der Sacherschließung und Schritte zur fortgesetzten strukturellen Aufwertung der GND (2018)
0.02
0.015835157 = product of:
0.06334063 = sum of:
0.06334063 = weight(_text_:und in 599) [ClassicSimilarity], result of:
0.06334063 = score(doc=599,freq=22.0), product of:
0.15587237 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07027929 = queryNorm
0.4063621 = fieldWeight in 599, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=599)
0.25 = coord(1/4)
- Abstract
- Aufgrund der fortgesetzten Publikationsflut stellt sich immer dringender die Frage, wie die Schwellen für die Titel- und Normdatenpflege gesenkt werden können - sowohl für die intellektuelle als auch die automatisierte Sacherschließung. Zu einer Verbesserung der Daten- und Arbeitsqualität in der Sacherschließung kann beigetragen werden a) durch eine flexible Visualisierung der Gemeinsamen Normdatei (GND) und anderer Wissensorganisationssysteme, so dass deren Graphstruktur intuitiv erfassbar wird, und b) durch eine investigative Analyse ihrer aktuellen Struktur und die Entwicklung angepasster automatisierter Methoden zur Ermittlung und Korrektur fehlerhafter Muster. Die Deutsche Nationalbibliothek (DNB) prüft im Rahmen des GND-Entwicklungsprogramms 2017-2021, welche Bedingungen für eine fruchtbare community-getriebene Open-Source-Entwicklung entsprechender Werkzeuge gegeben sein müssen. Weiteres Potential steckt in einem langfristigen Übergang zu einer Darstellung von Titel- und Normdaten in Beschreibungssprachen im Sinne des Semantic Web (RDF; OWL, SKOS). So profitiert die GND von der Interoperabilität mit anderen kontrollierten Vokabularen und von einer erleichterten Interaktion mit anderen Fach-Communities und kann umgekehrt auch außerhalb des Bibliothekswesens zu einem noch attraktiveren Wissensorganisationssystem werden. Darüber hinaus bieten die Ansätze aus dem Semantic Web die Möglichkeit, stärker formalisierte, strukturierende Satellitenvokabulare rund um die GND zu entwickeln. Daraus ergeben sich nicht zuletzt auch neue Perspektiven für die automatisierte Sacherschließung. Es wäre lohnend, näher auszuloten, wie und inwieweit semantisch-logische Verfahren den bestehenden Methodenmix bereichern können.