-
Scheufen, J.-H.: RECOIN: Modell offener Schnittstellen für Information-Retrieval-Systeme und -Komponenten (2006)
0.15
0.14749056 = product of:
0.29498112 = sum of:
0.07441136 = weight(_text_:und in 5901) [ClassicSimilarity], result of:
0.07441136 = score(doc=5901,freq=18.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.5145956 = fieldWeight in 5901, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=5901)
0.22056974 = weight(_text_:hacker in 5901) [ClassicSimilarity], result of:
0.22056974 = score(doc=5901,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 5901, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=5901)
0.5 = coord(2/4)
- Abstract
- Erfahrungen im Cross Language Evaluation Forum (CLEF) und die Beschäftigung mit Fragestellungen zum MIMOR-Modell haben den Bedarf für ein Framework zur Integration heterogener Retrieval-Komponenten aufgezeigt, mit dein sich einzelne Schritte des Retrieval-Prozesses individuell konfigurieren, untersuchen und optimieren lassen. RECOIN stellt ein Meta-Framework zur Verfügung, das den Programmieraufwand für die Integration neuer oder bereits existierender Retrieval-Bausteine minimiert und außerdem die Steuerung und Protokollierung verwendeter Objekte, Methoden und Parameter des Retrieval-Prozesses ermöglicht.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Mayr, P.; Mutschke, P.; Petras, V.; Schaer, P.; Sure, Y.: Applying science models for search (2010)
0.15
0.14608434 = product of:
0.29216868 = sum of:
0.040088978 = weight(_text_:und in 663) [ClassicSimilarity], result of:
0.040088978 = score(doc=663,freq=4.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.2772374 = fieldWeight in 663, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=663)
0.2520797 = weight(_text_:hacker in 663) [ClassicSimilarity], result of:
0.2520797 = score(doc=663,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5845891 = fieldWeight in 663, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0625 = fieldNorm(doc=663)
0.5 = coord(2/4)
- Source
- Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
-
Golinski, M.: Use, but verify : composite indices for measuring the information society (2010)
0.15
0.14608434 = product of:
0.29216868 = sum of:
0.040088978 = weight(_text_:und in 677) [ClassicSimilarity], result of:
0.040088978 = score(doc=677,freq=4.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.2772374 = fieldWeight in 677, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=677)
0.2520797 = weight(_text_:hacker in 677) [ClassicSimilarity], result of:
0.2520797 = score(doc=677,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5845891 = fieldWeight in 677, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0625 = fieldNorm(doc=677)
0.5 = coord(2/4)
- Source
- Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
-
Döring, N.: Computervermittelte Kommunikation (2023)
0.15
0.14608434 = product of:
0.29216868 = sum of:
0.040088978 = weight(_text_:und in 1808) [ClassicSimilarity], result of:
0.040088978 = score(doc=1808,freq=4.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.2772374 = fieldWeight in 1808, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1808)
0.2520797 = weight(_text_:hacker in 1808) [ClassicSimilarity], result of:
0.2520797 = score(doc=1808,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5845891 = fieldWeight in 1808, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0625 = fieldNorm(doc=1808)
0.5 = coord(2/4)
- Abstract
- Der vorliegende Beitrag erklärt, wie computervermittelte Kommunikation definiert ist (Abschnitt 2) und wo sie eingesetzt wird (Abschnitt 3). Anschließend wird der aktuelle Forschungsstand umrissen (Abschnitt 4). Der Schwerpunkt des Beitrags liegt auf der Darstellung zentraler Theorien der computervermittelten Kommunikation (Abschnitt 5).
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Botte, A.; Rittberger, M.; Schindler, C.: Virtuelle Forschungsumgebungen : Wissenschaftspolitische Erwartungen, informationswissenschaftliche Forschungsfelder und Herausforderungen (2010)
0.15
0.14536273 = product of:
0.29072547 = sum of:
0.07015571 = weight(_text_:und in 678) [ClassicSimilarity], result of:
0.07015571 = score(doc=678,freq=16.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.48516542 = fieldWeight in 678, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=678)
0.22056974 = weight(_text_:hacker in 678) [ClassicSimilarity], result of:
0.22056974 = score(doc=678,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 678, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=678)
0.5 = coord(2/4)
- Abstract
- Auf die Herausforderung, Forschung stärker kommunikativ, transdisziplinär, kollaborativ und international zu organisieren sowie die Potenziale der Informationstechnologien zu nutzen, reagiert die nationale und europäische Forschungspolitik mit der Förderung von virtuellen Anwendungen zur Unterstützung der Forschungsprozesse. Aber nicht jede dezentral kooperierende Forschungsgruppe gewinnt automatisch an Effizienz, wenn sie den Aufwand des Einsatzes einer umfangreichen Virtuellen Forschungsumgebung wagt. Die Implementierung von Virtuellen Forschungsumgebungen auf breiter Basis bedarf der strategischen Planung und vorausgehender und begleitender informationswissenschaftlicher Forschung. Der Beitrag unternimmt es, vor dem Hintergrund bisheriger Programme und Erfahrungen ein Szenario für informationswissenschaftliche Forschungsfelder zu entwickeln.
- Source
- Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
-
Peters, I.: Folksonomies & Social Tagging (2023)
0.15
0.14536273 = product of:
0.29072547 = sum of:
0.07015571 = weight(_text_:und in 1797) [ClassicSimilarity], result of:
0.07015571 = score(doc=1797,freq=16.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.48516542 = fieldWeight in 1797, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1797)
0.22056974 = weight(_text_:hacker in 1797) [ClassicSimilarity], result of:
0.22056974 = score(doc=1797,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 1797, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=1797)
0.5 = coord(2/4)
- Abstract
- Die Erforschung und der Einsatz von Folksonomies und Social Tagging als nutzerzentrierte Formen der Inhaltserschließung und Wissensrepräsentation haben in den 10 Jahren ab ca. 2005 ihren Höhenpunkt erfahren. Motiviert wurde dies durch die Entwicklung und Verbreitung des Social Web und der wachsenden Nutzung von Social-Media-Plattformen (s. Kapitel E 8 Social Media und Social Web). Beides führte zu einem rasanten Anstieg der im oder über das World Wide Web auffindbaren Menge an potenzieller Information und generierte eine große Nachfrage nach skalierbaren Methoden der Inhaltserschließung.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Womser-Hacker, C.: Informationswissenschaftliche Perspektiven des Information Retrieval (2023)
0.14
0.14334431 = product of:
0.28668863 = sum of:
0.06387953 = weight(_text_:und in 1799) [ClassicSimilarity], result of:
0.06387953 = score(doc=1799,freq=26.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.44176215 = fieldWeight in 1799, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1799)
0.22280909 = weight(_text_:hacker in 1799) [ClassicSimilarity], result of:
0.22280909 = score(doc=1799,freq=4.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5167087 = fieldWeight in 1799, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0390625 = fieldNorm(doc=1799)
0.5 = coord(2/4)
- Abstract
- Mit Information Retrieval (IR) sind in Forschung und Entwicklung in unterschiedlicher Breite und aus verschiedenen Perspektiven mehrere Disziplinen befasst. Die verschiedenen Ausrichtungen sind wichtig, da nur in ihrer Verknüpfung eine Gesamtschau des IR vermittelt werden kann. Die Informatik verfolgt einen stärker systemgetriebenen, technologischen Ansatz des IR und stellt Algorithmen und Implementationen in den Vordergrund, während für die Informationswissenschaft die Benutzer*innen in ihren vielschichtigen Kontexten den Schwerpunkt bilden. Deren Eigenschaften (fachlicher Hintergrund, Domänenzugehörigkeit, Expertise etc.) und Zielsetzungen, die durch das IR verfolgt werden, spielen im Interaktionsprozess zwischen Mensch und System eine zentrale Rolle. Auch wird intensiv der Frage nachgegangen, wie sich Benutzer*innen in diesen Prozessen verhalten und aus welchen Gründen sie verschiedene Systeme in Anspruch nehmen. Da ein Großteil des heutigen Wissens nach wie vor in Texten repräsentiert ist, ist eine weitere Disziplin - nämlich die Computerlinguistik/Sprachtechnologie für das IR von Bedeutung. Zusätzlich kommen aber auch visuelle und auditive Wissensobjekte immer stärker zum Tragen und werden aufgrund ihrer anwachsenden Menge immer wichtiger für das IR. Ein neues Fachgebiet ist die Data Science, die auf altbekannten Konzepten aus Statistik und Wahrscheinlichkeitsrechnung aufsetzt, auf den Daten operiert und auch traditionelles IR-Wissen für die Zusammenführung von strukturierten Fakten und unstrukturierten Texten nutzt. Hier soll die informationswissenschaftliche Perspektive im Vordergrund stehen.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Fisher, Y.: Better CGI scripts (i.V.)
0.14
0.14310919 = product of:
0.57243675 = sum of:
0.57243675 = weight(_text_:java in 6015) [ClassicSimilarity], result of:
0.57243675 = score(doc=6015,freq=2.0), product of:
0.45948038 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06519757 = queryNorm
1.2458351 = fieldWeight in 6015, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.125 = fieldNorm(doc=6015)
0.25 = coord(1/4)
- Object
- JAVA
-
Blake, P.; Nelson, M.: Ovid unveils Java search client (1996)
0.14
0.14310919 = product of:
0.57243675 = sum of:
0.57243675 = weight(_text_:java in 45) [ClassicSimilarity], result of:
0.57243675 = score(doc=45,freq=8.0), product of:
0.45948038 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06519757 = queryNorm
1.2458351 = fieldWeight in 45, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=45)
0.25 = coord(1/4)
- Abstract
- Ovid Technologies is launching its Java search client to enable users to access Ovid's scientific databases on the Web with full search capabilities irrespective of the type of computer used. Explains the differences between Java and HTML. The Java client increases search speed by several orders of magnitude. The Ovid client does not need to wait for individual pages to load and incorporates multi-tasking. The interface includes tree displays; thesauri; mapping; explode/implode; search fields and context sensitive help. Display; save; and e-mail are available from the client
-
Rittberger, M.; Köhne, B.; Graumann, S.; Högermeyer, C.; Lankenau, I.; Womser-Hacker, C.: ¬Das Projekt DECIDoc in Deutschland : Anpassung des Handbuchs und erste Evaluierung des Zertifizierungsverfahrens (2000)
0.14
0.14309719 = product of:
0.28619438 = sum of:
0.065624654 = weight(_text_:und in 5725) [ClassicSimilarity], result of:
0.065624654 = score(doc=5725,freq=14.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.4538307 = fieldWeight in 5725, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=5725)
0.22056974 = weight(_text_:hacker in 5725) [ClassicSimilarity], result of:
0.22056974 = score(doc=5725,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 5725, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=5725)
0.5 = coord(2/4)
- Abstract
- Das Projekt DECIDoc hat die Zertifizierung von Informationspezialisten in einem europaweiten Rahmen zum Ziel. In Deutschland hat die DGI die Projektleitung und -kooridination für DECIDoc. Nach der Diskussion der Argumente für eine Zertifizierung wird das Zertifizierungshandbuch vorgestellt und die Überarbeitungsschritte, die in Deutschland vorgenommen wurden, dargestellt. Dabei wird im einzelnen auf die Änderungen der Kompetenzniveaus, der Kompetenzbereiche und der Kompetenzgruppen eingegangen. Zur Validierung der Veränderungen wurde ein Zertifizierungsverfahren erarbeitet und anhand zweier Testzertifizierungen überprüft. Das Zulassungs- und Bewerbungsverfahren, die Zusammensetzung der zertifizierungskommission, das Fachgespräch, die Bewertung sowie die Erfahrungen aus den Testzertifizierungen werden detailliert besprochen
- Source
- nfd Information - Wissenschaft und Praxis. 51(2000) H.3, S.147-156
-
Kleineberg, M.: Klassifikation (2023)
0.14
0.14309719 = product of:
0.28619438 = sum of:
0.065624654 = weight(_text_:und in 1784) [ClassicSimilarity], result of:
0.065624654 = score(doc=1784,freq=14.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.4538307 = fieldWeight in 1784, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1784)
0.22056974 = weight(_text_:hacker in 1784) [ClassicSimilarity], result of:
0.22056974 = score(doc=1784,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 1784, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=1784)
0.5 = coord(2/4)
- Abstract
- Dieser Beitrag nimmt eine informationswissenschaftliche Perspektive ein und betrachtet das Phänomen der Klassifikation als Methode und System der Wissensorganisation. Ein Klassifikationssystem wird dabei als Wissensorganisationssystem (engl. knowledge organization system) verstanden, das vor allem im Bereich der Information und Dokumentation zum Einsatz kommt, um dokumentarische Bezugseinheiten (DBE) mit einem kontrollierten Vokabular zu beschreiben (s. Kapitel B 1 Einführung Wissensorganisation). Als eine solche Dokumentationssprache zeichnet sich ein Klassifikationssystem typischerweise durch seine systematische Ordnung aus und dient der inhaltlichen Groberschließung, eignet sich aber auch als Aufstellungssystematik und Hilfsmittel bei der Recherche wie etwa als systematischer Sucheinstieg oder thematischer Filter für Treffermengen. Beim Information Retrieval liegt die Stärke der klassifikatorischen Erschließung durch das hohe Abstraktionsniveau in Überblicks- und Vollständigkeitsrecherchen.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Barkey, R.; Hinrichs, E.; Hoppermann, C.; Trippel, T.; Zinn, C.: Komponenten-basierte Metadatenschemata und Facetten-basierte Suche : ein flexibler und universeller Ansatz (2010)
0.14
0.14066318 = product of:
0.28132635 = sum of:
0.060756624 = weight(_text_:und in 666) [ClassicSimilarity], result of:
0.060756624 = score(doc=666,freq=12.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.42016557 = fieldWeight in 666, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=666)
0.22056974 = weight(_text_:hacker in 666) [ClassicSimilarity], result of:
0.22056974 = score(doc=666,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 666, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=666)
0.5 = coord(2/4)
- Abstract
- Wenn man verschiedenartige Forschungsdaten über Metadaten inhaltlich beschreiben möchte, sind bibliografische Angaben allein nicht ausreichend. Vielmehr benötigt man zusätzliche Beschreibungsmittel, die der Natur und Komplexität gegebener Forschungsressourcen Rechnung tragen. Verschiedene Arten von Forschungsdaten bedürfen verschiedener Metadatenprofile, die über gemeinsame Komponenten definiert werden. Solche Forschungsdaten können gesammelt (z.B. über OAI-PMH-Harvesting) und mittels Facetten-basierter Suche über eine einheitliche Schnittstelle exploriert werden. Der beschriebene Anwendungskontext kann über sprachwissenschaftliche Daten hinaus verallgemeinert werden.
- Source
- Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
-
Mandl, T.: Text Mining und Data Mining (2023)
0.14
0.14066318 = product of:
0.28132635 = sum of:
0.060756624 = weight(_text_:und in 1775) [ClassicSimilarity], result of:
0.060756624 = score(doc=1775,freq=12.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.42016557 = fieldWeight in 1775, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1775)
0.22056974 = weight(_text_:hacker in 1775) [ClassicSimilarity], result of:
0.22056974 = score(doc=1775,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 1775, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=1775)
0.5 = coord(2/4)
- Abstract
- Text und Data Mining sind ein Bündel von Technologien, die eng mit den Themenfeldern Statistik, Maschinelles Lernen und dem Erkennen von Mustern verbunden sind. Die üblichen Definitionen beziehen eine Vielzahl von verschiedenen Verfahren mit ein, ohne eine exakte Grenze zu ziehen. Data Mining bezeichnet die Suche nach Mustern, Regelmäßigkeiten oder Auffälligkeiten in stark strukturierten und vor allem numerischen Daten. "Any algorithm that enumerates patterns from, or fits models to, data is a data mining algorithm." Numerische Daten und Datenbankinhalte werden als strukturierte Daten bezeichnet. Dagegen gelten Textdokumente in natürlicher Sprache als unstrukturierte Daten.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Siegel, M.: Maschinelle Übersetzung (2023)
0.14
0.14021344 = product of:
0.2804269 = sum of:
0.028347187 = weight(_text_:und in 1793) [ClassicSimilarity], result of:
0.028347187 = score(doc=1793,freq=2.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.19603643 = fieldWeight in 1793, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1793)
0.2520797 = weight(_text_:hacker in 1793) [ClassicSimilarity], result of:
0.2520797 = score(doc=1793,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5845891 = fieldWeight in 1793, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0625 = fieldNorm(doc=1793)
0.5 = coord(2/4)
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Tartakovski, O.; Shramko, M.: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2006)
0.14
0.13801636 = product of:
0.27603272 = sum of:
0.05546296 = weight(_text_:und in 978) [ClassicSimilarity], result of:
0.05546296 = score(doc=978,freq=10.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.38355696 = fieldWeight in 978, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=978)
0.22056974 = weight(_text_:hacker in 978) [ClassicSimilarity], result of:
0.22056974 = score(doc=978,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 978, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=978)
0.5 = coord(2/4)
- Abstract
- Die Identifikation der Sprache bzw. der Sprachen in Textdokumenten ist einer der wichtigsten Schritte maschineller Textverarbeitung für das Information Retrieval. Der vorliegende Artikel stellt Langldent vor, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Ritter, M.; Eibl, M.: ¬Ein erweiterbares Tool zur Annotation von Videos (2010)
0.14
0.13801636 = product of:
0.27603272 = sum of:
0.05546296 = weight(_text_:und in 669) [ClassicSimilarity], result of:
0.05546296 = score(doc=669,freq=10.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.38355696 = fieldWeight in 669, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=669)
0.22056974 = weight(_text_:hacker in 669) [ClassicSimilarity], result of:
0.22056974 = score(doc=669,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 669, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=669)
0.5 = coord(2/4)
- Abstract
- Die Beschreibung audiovisueller Medien durch Metadaten bedarf aufgrund der Masse der Daten einer Unterstützung für die manuelle Annotation sowie eine möglichst weitgreifende automatische Annotation. Das vorgestellte Werkzeug unterstützt Markierung, interaktive Vorsegmentierung und Objekterkennung und -verfolgung. Mithilfe der integrierten Shot Detection kann ein Video strukturell zerlegt werden, um beispielsweise die halbautomatische Objektverfolgung über Szenengrenzen hinweg zu unterbinden. Die Anbindung des Forschungsframeworks AMOPA gestattet dem Nutzer beliebige Ketten von Operationen zur Bild- und Videoverarbeitung zu erstellen. Der Datenexport erfolgt über MPEG-7-DAVP.
- Source
- Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
-
Sperber, W.; Wegner, B.: Content Analysis in der Mathematik : Erschließung und Retrieval mathematischer Publikationen (2010)
0.14
0.13801636 = product of:
0.27603272 = sum of:
0.05546296 = weight(_text_:und in 189) [ClassicSimilarity], result of:
0.05546296 = score(doc=189,freq=10.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.38355696 = fieldWeight in 189, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=189)
0.22056974 = weight(_text_:hacker in 189) [ClassicSimilarity], result of:
0.22056974 = score(doc=189,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 189, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=189)
0.5 = coord(2/4)
- Abstract
- Die traditionellen Informationsdienste in den Wissenschaften stehen angesichts der Publikationsflut und der Entwicklung der elektronischen Medien gerade auch in der Mathematik vor großen Herausforderungen. Es müssen neue Konzepte für eine erweiterte qualitativ hochwertige Erschließung entwickelt werden, die weitgehend automatisierbar sind. In dem Beitrag werden die Konzepte zur Texterschließung in der Mathematik analysiert und Methoden entwickelt, die neue Möglichkeiten für das Retrieval eröffnen. Der Beitrag schließt mit einem Ausblick auf die Möglichkeiten zur Formel-Analyse.
- Source
- Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
-
Hubert, M.; Griesbaum, J.; Womser-Hacker, C.: Usability von Browsererweiterungen zum Schutz vor Tracking (2020)
0.14
0.13801636 = product of:
0.27603272 = sum of:
0.05546296 = weight(_text_:und in 866) [ClassicSimilarity], result of:
0.05546296 = score(doc=866,freq=10.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.38355696 = fieldWeight in 866, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=866)
0.22056974 = weight(_text_:hacker in 866) [ClassicSimilarity], result of:
0.22056974 = score(doc=866,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 866, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=866)
0.5 = coord(2/4)
- Abstract
- Browsererweiterungen zum Schutz vor Tracking stellen beliebte Werkzeuge zum Schutz der Privatsphäre von Nutzerinnen und Nutzern dar. Ihre tatsächliche Effektivität ist in hohem Maße von ihrer Usability abhängig, da diese bestimmt, in welchem Ausmaß diese Werkzeuge effektiv, effizient und zufriedenstellend genutzt werden können. Die vorliegende Untersuchung prüft die Gebrauchstauglichkeit vier solcher Browsererweiterungen mit Hilfe von Benutzertests. Die Ergebnisse zeigen, dass die Add-ons auch heutzutage noch eine Vielzahl an Usability-Mängeln aufweisen. Kernprobleme stellen insbesondere die mangelnde Verständlichkeit und die fehlende Führung und Unterstützung der Nutzenden dar.
- Source
- Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.95-106
-
Eibl, M.; Haupt, J.; Kahl, S.; Taubert, S.; Wilhelm-Stein, T.: Audio- und Musik-Retrieval (2023)
0.14
0.13801636 = product of:
0.27603272 = sum of:
0.05546296 = weight(_text_:und in 1803) [ClassicSimilarity], result of:
0.05546296 = score(doc=1803,freq=10.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.38355696 = fieldWeight in 1803, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1803)
0.22056974 = weight(_text_:hacker in 1803) [ClassicSimilarity], result of:
0.22056974 = score(doc=1803,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 1803, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=1803)
0.5 = coord(2/4)
- Abstract
- Das Gebiet Audio-Retrieval kann grob in drei Bereiche unterteilt werden: Musik-Retrieval, Retrieval gesprochener Sprache und Retrieval akustischer Ereignisse. Alle drei Bereiche gehen i. d. R. vom Audiosignal als Quelle aus, welches über eine Signalanalyse, meist eine Spektralanalyse über eine Fouriertransformation, weiterverarbeitet und in eine für das Retrieval geeignete Beschreibung gebracht wird. Dabei gibt es auch alternative Ansätze, wie z. B. die Nutzung der hier nicht diskutierten MIDI-Codierung im Musik-Retrieval, die ohne ein akustisches Signal auskommt und bereits eine für das Retrieval geeignete Form der Kodierung als Grundlage hat.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Brettschneider, P.: Urheberrecht (2023)
0.14
0.13801636 = product of:
0.27603272 = sum of:
0.05546296 = weight(_text_:und in 1823) [ClassicSimilarity], result of:
0.05546296 = score(doc=1823,freq=10.0), product of:
0.14460163 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06519757 = queryNorm
0.38355696 = fieldWeight in 1823, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1823)
0.22056974 = weight(_text_:hacker in 1823) [ClassicSimilarity], result of:
0.22056974 = score(doc=1823,freq=2.0), product of:
0.43120834 = queryWeight, product of:
6.613871 = idf(docFreq=161, maxDocs=44421)
0.06519757 = queryNorm
0.5115155 = fieldWeight in 1823, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.613871 = idf(docFreq=161, maxDocs=44421)
0.0546875 = fieldNorm(doc=1823)
0.5 = coord(2/4)
- Abstract
- In einer digitalen Wissensgesellschaft kommt dem Urheberrecht eine herausragende Bedeutung zu. Es ist - wie auch das Datenschutzrecht (s. Kapitel F 4 Informationelle Selbstbestimmung und Informationsfreiheit) - Kernbestandteil eines Kommunikationsrechts, das die Weitergabe und Nutzung von Informationen regelt. Daher mag es paradox klingen, dass das Urheberrecht Informationen - wie auch Ideen oder (wissenschaftliche) Theorien - überhaupt nicht schützt.1 Vielmehr greift sein Schutz erst, wenn sich Information z. B. in Form eines gedruckten oder digitalen Textes oder auch einer Rede manifestiert. Dieser richtet sich dann aber nicht auf den Informationsgehalt an sich, sondern seine Verkörperung in Form eines originellen und individuellen Werkes (s. Abschnitt 2 und 3).
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg