Search (108 results, page 1 of 6)

  • × theme_ss:"Semantisches Umfeld in Indexierung u. Retrieval"
  1. Michel, D.: Taxonomy of Subject Relationships (1997) 0.07
    0.074199304 = product of:
      0.14839861 = sum of:
        0.038285572 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.038285572 = score(doc=346,freq=2.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.24504554 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=346)
        0.11011303 = weight(_text_:http in 346) [ClassicSimilarity], result of:
          0.11011303 = score(doc=346,freq=4.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.49420384 = fieldWeight in 346, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.078125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    Teil von: Final Report to the ALCTS/CCS Subject Analysis Committee. June 1997 (http://web2.ala.org/ala/alctscontent/CCS/committees/subjectanalysis/subjectrelations/finalreport.cfm).
    Source
    http://web2.ala.org/ala/alctscontent/CCS/committees/subjectanalysis/subjectrelations/msrscu2.pdf
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Zhang, J.; Mostafa, J.; Tripathy, H.: Information retrieval by semantic analysis and visualization of the concept space of D-Lib® magazine (2002) 0.07
    0.06778606 = product of:
      0.13557212 = sum of:
        0.09664128 = weight(_text_:java in 2211) [ClassicSimilarity], result of:
          0.09664128 = score(doc=2211,freq=2.0), product of:
            0.49645752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.07044441 = queryNorm
            0.19466174 = fieldWeight in 2211, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2211)
        0.038930837 = weight(_text_:http in 2211) [ClassicSimilarity], result of:
          0.038930837 = score(doc=2211,freq=8.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.17472744 = fieldWeight in 2211, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2211)
      0.5 = coord(2/4)
    
    Content
    The JAVA applet is available at <http://ella.slis.indiana.edu/~junzhang/dlib/IV.html>. A prototype of this interface has been developed and is available at <http://ella.slis.indiana.edu/~junzhang/dlib/IV.html>. The D-Lib search interface is available at <http://www.dlib.org/Architext/AT-dlib2query.html>.
    Footnote
    Vgl.: http://dlib.ukoln.ac.uk/dlib/october02/zhang/10zhang.html.
  3. Hoppe, T.: Semantische Filterung : ein Werkzeug zur Steigerung der Effizienz im Wissensmanagement (2013) 0.06
    0.05766969 = product of:
      0.11533938 = sum of:
        0.053050045 = weight(_text_:und in 3245) [ClassicSimilarity], result of:
          0.053050045 = score(doc=3245,freq=6.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.33954507 = fieldWeight in 3245, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3245)
        0.06228934 = weight(_text_:http in 3245) [ClassicSimilarity], result of:
          0.06228934 = score(doc=3245,freq=2.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.2795639 = fieldWeight in 3245, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.0625 = fieldNorm(doc=3245)
      0.5 = coord(2/4)
    
    Abstract
    Dieser Artikel adressiert einen Randbereich des Wissensmanagements: die Schnittstelle zwischen Unternehmens-externen Informationen im Internet und den Leistungsprozessen eines Unternehmens. Diese Schnittstelle ist besonders für Unternehmen von Interesse, deren Leistungsprozesse von externen Informationen abhängen und die auf diese Prozesse angewiesen sind. Wir zeigen an zwei Fallbeispielen, dass die inhaltliche Filterung von Informationen beim Eintritt ins Unternehmen ein wichtiges Werkzeug darstellt, um daran anschließende Wissens- und Informationsmanagementprozesse effizient zu gestalten.
    Source
    Open journal of knowledge management. 2013, Ausgabe VII = http://www.community-of-knowledge.de/beitrag/semantische-filterung-ein-werkzeug-zur-steigerung-der-effizienz-im-wissensmanagement/
  4. Heinz, S.: Realisierung und Evaluierung eines virtuellen Bibliotheksregals für die Informationswissenschaft an der Universitätsbibliothek Hildesheim (2003) 0.05
    0.05046098 = product of:
      0.10092196 = sum of:
        0.046418793 = weight(_text_:und in 982) [ClassicSimilarity], result of:
          0.046418793 = score(doc=982,freq=6.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.29710194 = fieldWeight in 982, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=982)
        0.05450317 = weight(_text_:http in 982) [ClassicSimilarity], result of:
          0.05450317 = score(doc=982,freq=2.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.24461842 = fieldWeight in 982, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.0546875 = fieldNorm(doc=982)
      0.5 = coord(2/4)
    
    Content
    [Magisterarbeit im Studiengang Internationales Informationsmanagement am Fachbereich Informations- und Kommunikationswissenschaften der Universität Hildesheim]
    Footnote
    Vgl. unter: http://web1.bib.uni-hildesheim.de/edocs/2003/363197524/meta/.
    Imprint
    Hildesheim] : Fachbereich Informations- und Kommunikationswissenschaften
  5. Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015) 0.05
    0.047971763 = product of:
      0.095943525 = sum of:
        0.06290962 = weight(_text_:und in 3133) [ClassicSimilarity], result of:
          0.06290962 = score(doc=3133,freq=60.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.40265095 = fieldWeight in 3133, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3133)
        0.033033907 = weight(_text_:http in 3133) [ClassicSimilarity], result of:
          0.033033907 = score(doc=3133,freq=4.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.14826114 = fieldWeight in 3133, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3133)
      0.5 = coord(2/4)
    
    Abstract
    Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
    Content
    "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
    Unabhängiges Durchsuchen und Analysieren grosser Datenmengen Damit können investigativ arbeitende Journalisten selbstständig und auf eigener Hardware datenschutzfreundlich hunderte, tausende, hunderttausende oder gar Millionen von Dokumenten oder hunderte Megabyte, Gigabytes oder gar einige Terabytes an Daten mit Volltextsuche durchsuchbar machen. Automatische Datenanreicherung und Erschliessung mittels Hintergrundwissen Zudem wird anhand von konfigurierbaren Hintergrundwissen automatisch eine interaktive Navigation zu in Dokumenten enthaltenen Namen von Bundestagsabgeordneten oder Orten in Deutschland generiert oder anhand Textmustern strukturierte Informationen wie Geldbeträge extrahiert. Mittels Named Entities Manager für Personen, Organisationen, Begriffe und Orte können eigene Rechercheschwerpunkte konfiguriert werden, aus denen dann automatisch eine interaktive Navigation (Facettensuche) und aggregierte Übersichten generiert werden. Automatische Datenvisualisierung Diese lassen sich auch visualisieren: So z.B. die zeitliche Verteilung von Suchergebnissen als Trand Diagramm oder durch gleichzeitige Nennung in Dokumenten abgeleitete Verbindungen als Netzwerk bzw. Graph.
    Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
    Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
    Footnote
    Vgl. auch: http://www.opensemanticsearch.org/de/.
    Source
    http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
  6. Tudhope, D.; Alani, H.; Jones, C.: Augmenting thesaurus relationships : possibilities for retrieval (2001) 0.04
    0.043286484 = product of:
      0.08657297 = sum of:
        0.019142786 = weight(_text_:und in 2520) [ClassicSimilarity], result of:
          0.019142786 = score(doc=2520,freq=2.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.12252277 = fieldWeight in 2520, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2520)
        0.06743018 = weight(_text_:http in 2520) [ClassicSimilarity], result of:
          0.06743018 = score(doc=2520,freq=6.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.3026368 = fieldWeight in 2520, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2520)
      0.5 = coord(2/4)
    
    Footnote
    Vgl.: http://journals.tdl.org/jodi/index.php/jodi/article/view/181. Vgl. auch: http://journals.tdl.org/jodi/index.php/jodi/article/viewArticle/181/160. Vgl. auch: http://oro.open.ac.uk/20065/1/Tudhope_JoDI.pdf.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  7. Gillitzer, B.: Yewno (2017) 0.04
    0.043180455 = product of:
      0.08636091 = sum of:
        0.055216238 = weight(_text_:und in 4447) [ClassicSimilarity], result of:
          0.055216238 = score(doc=4447,freq=26.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.3534097 = fieldWeight in 4447, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4447)
        0.03114467 = weight(_text_:http in 4447) [ClassicSimilarity], result of:
          0.03114467 = score(doc=4447,freq=2.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.13978195 = fieldWeight in 4447, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.03125 = fieldNorm(doc=4447)
      0.5 = coord(2/4)
    
    Abstract
    Yewno findet Themen und Konzepte (Suchbegriffe und ihre Abstraktionen) in englischsprachigen digitalen Texten mit Methoden des maschinellen Lernens und der künstlichen Intelligenz. Als Ergebnis Ihrer Suchanfrage werden die Konzepte, die Ihre Anfrage betreffen, in vielfältigen sachlichen Beziehungen als graphisches Netzwerk präsentiert, über das Sie einfach navigieren können. Auch versteckte thematische Beziehungen werden hier sichtbar gemacht, die vom Bekannten zu neuen Entdeckungen führen. Im Rahmen einer Pilotphase können Sie über einen interdisziplinären Ausschnitt aus aktuellen englischsprachigen Fachzeitschriften verschiedenster Fachgebiete recherchieren. Die zu den Themen gehörigen Artikel werden in Ausschnitten unmittelbar angezeigt und können in den meisten Fällen direkt als Volltext aufgerufen werden.
    "Die Bayerische Staatsbibliothek testet den semantischen "Discovery Service" Yewno als zusätzliche thematische Suchmaschine für digitale Volltexte. Der Service ist unter folgendem Link erreichbar: https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/. Das Identifizieren von Themen, um die es in einem Text geht, basiert bei Yewno alleine auf Methoden der künstlichen Intelligenz und des maschinellen Lernens. Dabei werden sie nicht - wie bei klassischen Katalogsystemen - einem Text als Ganzem zugeordnet, sondern der jeweiligen Textstelle. Die Eingabe eines Suchwortes bzw. Themas, bei Yewno "Konzept" genannt, führt umgehend zu einer grafischen Darstellung eines semantischen Netzwerks relevanter Konzepte und ihrer inhaltlichen Zusammenhänge. So ist ein Navigieren über thematische Beziehungen bis hin zu den Fundstellen im Text möglich, die dann in sogenannten Snippets angezeigt werden. In der Test-Anwendung der Bayerischen Staatsbibliothek durchsucht Yewno aktuell 40 Millionen englischsprachige Dokumente aus Publikationen namhafter Wissenschaftsverlage wie Cambridge University Press, Oxford University Press, Wiley, Sage und Springer, sowie Dokumente, die im Open Access verfügbar sind. Nach der dreimonatigen Testphase werden zunächst die Rückmeldungen der Nutzer ausgewertet. Ob und wann dann der Schritt von der klassischen Suchmaschine zum semantischen "Discovery Service" kommt und welche Bedeutung Anwendungen wie Yewno in diesem Zusammenhang einnehmen werden, ist heute noch nicht abzusehen. Die Software Yewno wurde vom gleichnamigen Startup in Zusammenarbeit mit der Stanford University entwickelt, mit der auch die Bayerische Staatsbibliothek eng kooperiert. [Inetbib-Posting vom 22.02.2017].
    Content
    Vgl.: https://yewno-1com-1yewno.emedia1.bsb-muenchen.de/. Vgl. auch: http://yewno.com/about/.
    Source
    https://www.bsb-muenchen.de/recherche-und-service/suchen-und-finden/yewno/
  8. Shapiro, C.D.; Yan, P.-F.: Generous tools : thesauri in digital libraries (1996) 0.04
    0.040651534 = product of:
      0.08130307 = sum of:
        0.026799899 = weight(_text_:und in 3200) [ClassicSimilarity], result of:
          0.026799899 = score(doc=3200,freq=2.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.17153187 = fieldWeight in 3200, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3200)
        0.05450317 = weight(_text_:http in 3200) [ClassicSimilarity], result of:
          0.05450317 = score(doc=3200,freq=2.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.24461842 = fieldWeight in 3200, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3200)
      0.5 = coord(2/4)
    
    Footnote
    Vgl.: http://vangogh.mitre.org/cgi-bin/elvis/search_page.pl
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  9. Rudolph, S.; Hemmje, M.: Visualisierung von Thesauri zur interaktiven Unterstüzung von visuellen Anfragen an Textdatenbanken (1994) 0.04
    0.03604356 = product of:
      0.07208712 = sum of:
        0.03315628 = weight(_text_:und in 3382) [ClassicSimilarity], result of:
          0.03315628 = score(doc=3382,freq=6.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.21221566 = fieldWeight in 3382, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3382)
        0.038930837 = weight(_text_:http in 3382) [ClassicSimilarity], result of:
          0.038930837 = score(doc=3382,freq=2.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.17472744 = fieldWeight in 3382, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3382)
      0.5 = coord(2/4)
    
    Abstract
    In der folgenden Studie wird eine Komponente für eine visuelle Benutzerschnittstelle zu Textdatenbanken entworfen. Mit Hilfe einer Terminologievisualisierung wird dem Benutzer eine Hilfestellung bei der Relevanzbewertung von Dokumenten und bei der Erweiterung seiner visuellen Anfrage an das Retrieval-System gegeben. Dazu werden zuerst die grundlegenden Information-Retrieval-Modelle eingehender vorgestellt, d.h., generelle Retrieval-Modelle, Retrievaloperationen und spezielle Retrieval-Modelle wie Text-Retrieval werden erläutert. Die Funktionalität eines Text-Retrieval-Systems wird vorgestellt. Darüber hinaus werden bereits existierende Implementierungen visueller Information-Retrieval-Benutzerschnittstellen vorgestellt. Im weiteren Verlauf der Arbeit werden mögliche Visualisierungen der mit Hilfe eines Text-Retrieval-Systems gefundenen Dokumente aufgezeigt. Es werden mehrere Vorschläge zur Visualisierung von Thesauri diskutiert. Es wird gezeigt, wie neuronale Netze zur Kartierung eines Eingabebereiches benutzt werden können. Klassifikationsebenen einer objekt-orientierten Annäherung eines Information-Retrieval-Systems werden vorgestellt. In diesem Zusammenhang werden auch die Eigenschaften von Thesauri sowie die Architektur und Funktion eines Parsersystems erläutert. Mit diesen Voraussetzung wird die Implementierung einer visuellen Terminologierunterstützung realisiert. Abschließend wird ein Fazit zur vorgestellten Realisierung basierend auf einem Drei-Schichten-Modell von [Agosti et al. 1990] gezogen.
    Content
    Vgl.: http://core.ac.uk/download/pdf/11558535.pdf.
  10. Sihvonen, A.; Vakkari, P.: Subject knowledge improves interactive query expansion assisted by a thesaurus (2004) 0.03
    0.029036812 = product of:
      0.058073625 = sum of:
        0.019142786 = weight(_text_:und in 5417) [ClassicSimilarity], result of:
          0.019142786 = score(doc=5417,freq=2.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.12252277 = fieldWeight in 5417, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5417)
        0.038930837 = weight(_text_:http in 5417) [ClassicSimilarity], result of:
          0.038930837 = score(doc=5417,freq=2.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.17472744 = fieldWeight in 5417, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5417)
      0.5 = coord(2/4)
    
    Footnote
    Vgl. auch unter: http://www.emeraldinsight.com/10.1108/00220410410568151
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  11. Shiri, A.: Topic familiarity and its effects on term selection and browsing in a thesaurus-enhanced search environment (2005) 0.03
    0.029036812 = product of:
      0.058073625 = sum of:
        0.019142786 = weight(_text_:und in 738) [ClassicSimilarity], result of:
          0.019142786 = score(doc=738,freq=2.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.12252277 = fieldWeight in 738, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=738)
        0.038930837 = weight(_text_:http in 738) [ClassicSimilarity], result of:
          0.038930837 = score(doc=738,freq=2.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.17472744 = fieldWeight in 738, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.0390625 = fieldNorm(doc=738)
      0.5 = coord(2/4)
    
    Content
    Vgl. auch unter: http://www.emeraldinsight.com/10.1108/00242530510629524.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  12. ALA / Subcommittee on Subject Relationships/Reference Structures: Final Report to the ALCTS/CCS Subject Analysis Committee (1997) 0.03
    0.025969755 = product of:
      0.05193951 = sum of:
        0.013399949 = weight(_text_:und in 2800) [ClassicSimilarity], result of:
          0.013399949 = score(doc=2800,freq=2.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.085765935 = fieldWeight in 2800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2800)
        0.038539562 = weight(_text_:http in 2800) [ClassicSimilarity], result of:
          0.038539562 = score(doc=2800,freq=4.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.17297134 = fieldWeight in 2800, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2800)
      0.5 = coord(2/4)
    
    Content
    Enthält: Appendix A: Subcommittee on Subject Relationships/Reference Structures - REPORT TO THE ALCTS/CCS SUBJECT ANALYSIS COMMITTEE - July 1996 Appendix B (part 1): Taxonomy of Subject Relationships. Compiled by Dee Michel with the assistance of Pat Kuhr - June 1996 draft (alphabetical display) (Separat in: http://web2.ala.org/ala/alctscontent/CCS/committees/subjectanalysis/subjectrelations/msrscu2.pdf) Appendix B (part 2): Taxonomy of Subject Relationships. Compiled by Dee Michel with the assistance of Pat Kuhr - June 1996 draft (hierarchical display) Appendix C: Checklist of Candidate Subject Relationships for Information Retrieval. Compiled by Dee Michel, Pat Kuhr, and Jane Greenberg; edited by Greg Wool - June 1997 Appendix D: Review of Reference Displays in Selected CD-ROM Abstracts and Indexes by Harriette Hemmasi and Steven Riel Appendix E: Analysis of Relationships in Six LC Subject Authority Records by Harriette Hemmasi and Gary Strawn Appendix F: Report of a Preliminary Survey of Subject Referencing in OPACs by Gregory Wool Appendix G: LC Subject Referencing in OPACs--Why Bother? by Gregory Wool Appendix H: Research Needs on Subject Relationships and Reference Structures in Information Access compiled by Jane Greenberg and Steven Riel with contributions from Dee Michel and others edited by Gregory Wool Appendix I: Bibliography on Subject Relationships compiled mostly by Dee Michel with additional contributions from Jane Greenberg, Steven Riel, and Gregory Wool
    Source
    http://web2.ala.org/ala/alctscontent/CCS/committees/subjectanalysis/subjectrelations/finalreport.cfm
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  13. Neumann. M.: HAL: Hyperspace Analogue to Language (2012) 0.02
    0.023358501 = product of:
      0.093434006 = sum of:
        0.093434006 = weight(_text_:http in 965) [ClassicSimilarity], result of:
          0.093434006 = score(doc=965,freq=2.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.41934586 = fieldWeight in 965, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.09375 = fieldNorm(doc=965)
      0.25 = coord(1/4)
    
    Source
    http://spinfowiki.uni-koeln.de/lehre/images/1/15/Referat_HAL.pdf
  14. Schek, M.: Automatische Klassifizierung und Visualisierung im Archiv der Süddeutschen Zeitung (2005) 0.02
    0.02065071 = product of:
      0.08260284 = sum of:
        0.08260284 = weight(_text_:und in 5884) [ClassicSimilarity], result of:
          0.08260284 = score(doc=5884,freq=76.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.5286968 = fieldWeight in 5884, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5884)
      0.25 = coord(1/4)
    
    Abstract
    Die Süddeutsche Zeitung (SZ) verfügt seit ihrer Gründung 1945 über ein Pressearchiv, das die Texte der eigenen Redakteure und zahlreicher nationaler und internationaler Publikationen dokumentiert und auf Anfrage für Recherchezwecke bereitstellt. Die Einführung der EDV begann Anfang der 90er Jahre mit der digitalen Speicherung zunächst der SZ-Daten. Die technische Weiterentwicklung ab Mitte der 90er Jahre diente zwei Zielen: (1) dem vollständigen Wechsel von der Papierablage zur digitalen Speicherung und (2) dem Wandel von einer verlagsinternen Dokumentations- und Auskunftsstelle zu einem auch auf dem Markt vertretenen Informationsdienstleister. Um die dabei entstehenden Aufwände zu verteilen und gleichzeitig Synergieeffekte zwischen inhaltlich verwandten Archiven zu erschließen, gründeten der Süddeutsche Verlag und der Bayerische Rundfunk im Jahr 1998 die Dokumentations- und Informationszentrum (DIZ) München GmbH, in der die Pressearchive der beiden Gesellschafter und das Bildarchiv des Süddeutschen Verlags zusammengeführt wurden. Die gemeinsam entwickelte Pressedatenbank ermöglichte das standortübergreifende Lektorat, die browserbasierte Recherche für Redakteure und externe Kunden im Intraund Internet und die kundenspezifischen Content Feeds für Verlage, Rundfunkanstalten und Portale. Die DIZPressedatenbank enthält zur Zeit 6,9 Millionen Artikel, die jeweils als HTML oder PDF abrufbar sind. Täglich kommen ca. 3.500 Artikel hinzu, von denen ca. 1.000 lektoriert werden. Das Lektorat erfolgt im DIZ nicht durch die Vergabe von Schlagwörtern am Dokument, sondern durch die Verlinkung der Artikel mit "virtuellen Mappen", den Dossiers. Diese stellen die elektronische Repräsentation einer Papiermappe dar und sind das zentrale Erschließungsobjekt. Im Gegensatz zu statischen Klassifikationssystemen ist die Dossierstruktur dynamisch und aufkommensabhängig, d.h. neue Dossiers werden hauptsächlich anhand der aktuellen Berichterstattung erstellt. Insgesamt enthält die DIZ-Pressedatenbank ca. 90.000 Dossiers, davon sind 68.000 Sachthemen (Topics), Personen und Institutionen. Die Dossiers sind untereinander zum "DIZ-Wissensnetz" verlinkt.
    DIZ definiert das Wissensnetz als Alleinstellungsmerkmal und wendet beträchtliche personelle Ressourcen für die Aktualisierung und Oualitätssicherung der Dossiers auf. Nach der Umstellung auf den komplett digitalisierten Workflow im April 2001 identifizierte DIZ vier Ansatzpunkte, wie die Aufwände auf der Inputseite (Lektorat) zu optimieren sind und gleichzeitig auf der Outputseite (Recherche) das Wissensnetz besser zu vermarkten ist: 1. (Teil-)Automatische Klassifizierung von Pressetexten (Vorschlagwesen) 2. Visualisierung des Wissensnetzes (Topic Mapping) 3. (Voll-)Automatische Klassifizierung und Optimierung des Wissensnetzes 4. Neue Retrievalmöglichkeiten (Clustering, Konzeptsuche) Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" starteten zuerst und wurden beschleunigt durch zwei Entwicklungen: - Der Bayerische Rundfunk (BR), ursprünglich Mitbegründer und 50%-Gesellschafter der DIZ München GmbH, entschloss sich aus strategischen Gründen, zum Ende 2003 aus der Kooperation auszusteigen. - Die Medienkrise, hervorgerufen durch den massiven Rückgang der Anzeigenerlöse, erforderte auch im Süddeutschen Verlag massive Einsparungen und die Suche nach neuen Erlösquellen. Beides führte dazu, dass die Kapazitäten im Bereich Pressedokumentation von ursprünglich rund 20 (nur SZ, ohne BR-Anteil) auf rund 13 zum 1. Januar 2004 sanken und gleichzeitig die Aufwände für die Pflege des Wissensnetzes unter verstärkten Rechtfertigungsdruck gerieten. Für die Projekte 1 und 2 ergaben sich daraus drei quantitative und qualitative Ziele: - Produktivitätssteigerung im Lektorat - Konsistenzverbesserung im Lektorat - Bessere Vermarktung und intensivere Nutzung der Dossiers in der Recherche Alle drei genannten Ziele konnten erreicht werden, wobei insbesondere die Produktivität im Lektorat gestiegen ist. Die Projekte 1 und 2 "Automatische Klassifizierung und Visualisierung" sind seit Anfang 2004 erfolgreich abgeschlossen. Die Folgeprojekte 3 und 4 laufen seit Mitte 2004 und sollen bis Mitte 2005 abgeschlossen sein. Im folgenden wird in Abschnitt 2 die Produktauswahl und Arbeitsweise der Automatischen Klassifizierung beschrieben. Abschnitt 3 schildert den Einsatz der Wissensnetz-Visualisierung in Lektorat und Recherche. Abschnitt 4 fasst die Ergebnisse der Projekte 1 und 2 zusammen und gibt einen Ausblick auf die Ziele der Projekte 3 und 4.
  15. Hauer, M.: Neue OPACs braucht das Land ... dandelon.com (2006) 0.02
    0.01989377 = product of:
      0.07957508 = sum of:
        0.07957508 = weight(_text_:und in 47) [ClassicSimilarity], result of:
          0.07957508 = score(doc=47,freq=24.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.50931764 = fieldWeight in 47, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=47)
      0.25 = coord(1/4)
    
    Abstract
    In dandelon.com werden im Gegensatz zu den bisherigen Federated Search-Portal-Ansätzen die Titel von Medien neu mittels intelligentCAPTURE dezentral und kollaborativ erschlossen und inhaltlich stark erweitert. intelligentCAPTURE erschließt maschinell bisher Buchinhaltsverzeichnisse, Bücher, Klappentexte, Aufsätze und Websites, übernimmt bibliografische Daten aus Bibliotheken (XML, Z.39.50), von Verlagen (ONIX + Cover Pages), Zeitschriftenagenturen (Swets) und Buchhandel (SOAP) und exportierte maschinelle Indexate und aufbereitete Dokumente an die Bibliothekskataloge (MAB, MARC, XML) oder Dokumentationssysteme, an dandelon.com und teils auch an Fachportale. Die Daten werden durch Scanning und OCR, durch Import von Dateien und Lookup auf Server und durch Web-Spidering/-Crawling gewonnen. Die Qualität der Suche in dandelon.com ist deutlich besser als in bisherigen Bibliothekssystemen. Die semantische, multilinguale Suche mit derzeit 1,2 Millionen Fachbegriffen trägt zu den guten Suchergebnissen stark bei.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  16. Schmitz-Esser, W.: EXPO-INFO 2000 : Visuelles Besucherinformationssystem für Weltausstellungen (2000) 0.02
    0.017255075 = product of:
      0.0690203 = sum of:
        0.0690203 = weight(_text_:und in 2404) [ClassicSimilarity], result of:
          0.0690203 = score(doc=2404,freq=26.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.44176215 = fieldWeight in 2404, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2404)
      0.25 = coord(1/4)
    
    Abstract
    Das aktuelle Wissen der Welt im Spiegel einer Weltausstellung: Wie stellt man das dar und wie macht man es Interessierten zugänglich - in der Ausstellung, in Publikationen, im Funk und über das Internet? Was man alles auf einer Weltausstellung an der Schwelle zum dritten Jahrtausend sehen und erfahren kann, sprengt in Fülle und Vielfalt jeden individuell faßbaren Rahmen. Schmitz-Esser zeigt in seinem Buch, wie der Besucher wahlweise in vier Sprachen die Weltausstellung erleben und die Quintessenz davon mitnehmen kann. Ermöglicht wird dies durch das Konzept des virtuellen "Wissens in der Kapsel", das so aufbereitet ist, daß es in allen gängigen medialen Formen und für unterschiedlichste Wege der Aneignung eingesetzt werden kann. Die Lösung ist nicht nur eine Sache der Informatik und Informationstechnologie, sondern vielmehr auch eine Herausforderung an Informationswissenschaft und Computerlinguistik. Das Buch stellt Ziel, Ansatz, Komponenten und Voraussetzungen dafür dar.
    Content
    Willkommene Anregung schon am Eingang.- Vertiefung des Wissens während der Ausstellung.- Alles für das Wohlbefinden.- Die Systemstruktur und ihre einzelnen Elemente.- Wovon alles ausgeht.- Den Stoff als Topics und Subtopics strukturieren.- Die Nutshells.- Der Proxy-Text.Der Thesaurus.- Gedankenraumreisen.- Und zurück in die reale Welt.- Weitergehende Produkte.- Das EXPO-Infosystem auf einen Blick.- Register.- Literaturverzeichnis.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  17. Rahmstorf, G.: Integriertes Management inhaltlicher Datenarten (2001) 0.02
    0.017228507 = product of:
      0.068914026 = sum of:
        0.068914026 = weight(_text_:und in 6856) [ClassicSimilarity], result of:
          0.068914026 = score(doc=6856,freq=18.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.44108194 = fieldWeight in 6856, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6856)
      0.25 = coord(1/4)
    
    Abstract
    Inhaltliche Daten sind im Unterschied zu Messdaten, Zahlen, Analogsignalen und anderen Informationen solche Daten, die sich auch sprachlich interpretieren lassen. Sie transportieren Inhalte, die sich benennen lassen. Zu inhaltlichen Daten gehören z. B. Auftragsdaten, Werbetexte, Produktbezeichnungen und Patentklassifikationen. Die meisten Daten, die im Internet kommuniziert werden, sind inhaltliche Daten. Man kann inhaltliche Daten in vier Klassen einordnen: * Wissensdaten - formatierte Daten (Fakten u. a. Daten in strukturierter Form), - nichtformatierte Daten (vorwiegend Texte); * Zugriffsdaten - Benennungsdaten (Wortschatz, Terminologie, Themen u. a.), - Begriffsdaten (Ordnungs- und Bedeutungsstrukturen). In der Wissensorganisation geht es hauptsächlich darum, die unüberschaubare Fülle des Wissens zu ordnen und wiederauffindbar zu machen. Daher befasst sich das Fach nicht nur mit dem Wissen selbst, selbst sondern auch mit den Mitteln, die dazu verwendet werden, das Wissen zu ordnen und auffindbar zu machen
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  18. Tudhope, D.; Binding, C.; Blocks, D.; Cunliffe, D.: Compound descriptors in context : a matching function for classifications and thesauri (2002) 0.02
    0.016857546 = product of:
      0.06743018 = sum of:
        0.06743018 = weight(_text_:http in 4179) [ClassicSimilarity], result of:
          0.06743018 = score(doc=4179,freq=6.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.3026368 = fieldWeight in 4179, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4179)
      0.25 = coord(1/4)
    
    Footnote
    Auch unter: http://www.glam.ac.uk/soc/research/hypermedia/publications/jcdl02.pdf http://delivery.acm.org/10.1145/550000/544235/p84-tudhope.pdf; http://portal.acm.org/citation.cfm?id=544235;
  19. Gnoli, C.; Pusterla, L.; Bendiscioli, A.; Recinella, C.: Classification for collections mapping and query expansion (2016) 0.02
    0.016516954 = product of:
      0.066067815 = sum of:
        0.066067815 = weight(_text_:http in 4102) [ClassicSimilarity], result of:
          0.066067815 = score(doc=4102,freq=4.0), product of:
            0.22280894 = queryWeight, product of:
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.07044441 = queryNorm
            0.2965223 = fieldWeight in 4102, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.1629045 = idf(docFreq=5107, maxDocs=44421)
              0.046875 = fieldNorm(doc=4102)
      0.25 = coord(1/4)
    
    Content
    Vgl.: http://ceur-ws.org/Vol-1676/paper3.pdf. Other workshop material incl. presentations are available on the website < https://at-web1.comp.glam.ac.uk/pages/research/hypermedia/nkos/nkos2016/programme.html>.
    Source
    Proceedings of the 15th European Networked Knowledge Organization Systems Workshop (NKOS 2016) co-located with the 20th International Conference on Theory and Practice of Digital Libraries 2016 (TPDL 2016), Hannover, Germany, September 9, 2016. Edi. by Philipp Mayr et al. [http://ceur-ws.org/Vol-1676/=urn:nbn:de:0074-1676-5]
  20. Knorz, G.; Rein, B.: Semantische Suche in einer Hochschulontologie (2005) 0.02
    0.01641152 = product of:
      0.06564608 = sum of:
        0.06564608 = weight(_text_:und in 2852) [ClassicSimilarity], result of:
          0.06564608 = score(doc=2852,freq=12.0), product of:
            0.1562386 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07044441 = queryNorm
            0.42016557 = fieldWeight in 2852, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2852)
      0.25 = coord(1/4)
    
    Abstract
    Ontologien werden eingesetzt, um durch semantische Fundierung insbesondere für das Dokumentenretrieval eine grundlegend bessere Basis zu haben, als dies gegenwärtiger Stand der Technik ist. Vorgestellt wird eine an der FH Darmstadt entwickelte und eingesetzte Ontologie, die den Gegenstandsbereich Hochschule sowohl breit abdecken und gleichzeitig differenziert semantisch beschreiben soll. Das Problem der semantischen Suche besteht nun darin, dass sie für Informationssuchende so einfach wie bei gängigen Suchmaschinen zu nutzen sein soll, und gleichzeitig auf der Grundlage des aufwendigen Informationsmodells hochwertige Ergebnisse liefern muss. Es wird beschrieben, welche Möglichkeiten die verwendete Software K-Infinity bereitstellt und mit welchem Konzept diese Möglichkeiten für eine semantische Suche nach Dokumenten und anderen Informationseinheiten (Personen, Veranstaltungen, Projekte etc.) eingesetzt werden.
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.281-290

Languages

  • e 70
  • d 37

Types

  • a 90
  • el 23
  • m 7
  • r 5
  • x 2
  • s 1
  • More… Less…