-
Winiwarter, W.: Bewältigung der Informationsflut : Stand der Computerlinguistik (1996)
0.01
0.009109731 = product of:
0.036438923 = sum of:
0.036438923 = weight(_text_:und in 4167) [ClassicSimilarity], result of:
0.036438923 = score(doc=4167,freq=4.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.24258271 = fieldWeight in 4167, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=4167)
0.25 = coord(1/4)
- Abstract
- In vielen Bereichen der Computerlinguistik kann die Situation konstatiert werden, daß eine anfängliche euphorische Aufbruchsstimmung einer resignativen Stagnationsphase gewichen ist. In gleichem Maße wurde damit aber auch Raum für eine realistischere Sicht der Dinge geschaffen, welche von 'Toy Systems' Abschied nimmt und sich praktischen Fragestellungen widmet. Als eines der dringlichsten Probleme ist hier die effiziente Bewältigung der von Tag zu Tag größer werdenden Informationsflut anzusehen. Die vorliegende Arbeit gibt einen aktuellen Überblick über die derzeit zur Verfügung stehenden Techniken. Der Schwerpunkt wird hierbei auf Information Extraction Systeme gelegt, die auf der Grundlage internationaler Evaluierungsprogramme und allgemein verfügbarer linguistischer Ressourcen bereits beachtliche Erfolge erzielen konnten
-
RWI/PH: Auf der Suche nach dem entscheidenden Wort : die Häufung bestimmter Wörter innerhalb eines Textes macht diese zu Schlüsselwörtern (2012)
0.01
0.00872999 = product of:
0.03491996 = sum of:
0.03491996 = weight(_text_:und in 1331) [ClassicSimilarity], result of:
0.03491996 = score(doc=1331,freq=20.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.2324706 = fieldWeight in 1331, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1331)
0.25 = coord(1/4)
- Abstract
- Der Mensch kann komplexe Sachverhalte in eine eindimensionale Abfolge von Buchstaben umwandeln und niederschreiben. Dabei dienen Schlüsselwörter dazu, den Inhalt des Textes zu vermitteln. Wie Buchstaben und Wörtern mit dem Thema eines Textes zusammenhängen, haben Eduardo Altmann und seine Kollegen vom Max-Planck-Institut für die Physik komplexer Systeme und der Universität Bologna mit Hilfe von statistischen Methoden untersucht. Dabei haben sie herausgefunden, dass Schlüsselwörter nicht dadurch gekennzeichnet sind, dass sie im ganzen Text besonders häufig vorkommen, sondern nur an bestimmten Stellen vermehrt zu finden sind. Außerdem gibt es Beziehungen zwischen weit entfernten Textabschnitten, in der Form, dass dieselben Wörter und Buchstaben bevorzugt verwendet werden.
- Content
- "Die Dresdner Wissenschaftler haben die semantischen Eigenschaften von Texten mathematisch untersucht, indem sie zehn verschiedene englische Texte in unterschiedlichen Formen kodierten. Dazu zählt unter anderem die englische Ausgabe von Leo Tolstois "Krieg und Frieden". Beispielsweise übersetzten die Forscher Buchstaben innerhalb eines Textes in eine Binär-Sequenz. Dazu ersetzten sie alle Vokale durch eine Eins und alle Konsonanten durch eine Null. Mit Hilfe weiterer mathematischer Funktionen beleuchteten die Wissenschaftler dabei verschiedene Ebenen des Textes, also sowohl einzelne Vokale, Buchstaben als auch ganze Wörter, die in verschiedenen Formen kodiert wurden. Innerhalb des ganzen Textes lassen sich so wiederkehrende Muster finden. Diesen Zusammenhang innerhalb des Textes bezeichnet man als Langzeitkorrelation. Diese gibt an, ob zwei Buchstaben an beliebig weit voneinander entfernten Textstellen miteinander in Verbindung stehen - beispielsweise gibt es wenn wir an einer Stelle einen Buchstaben "K" finden, eine messbare höhere Wahrscheinlichkeit den Buchstaben "K" einige Seiten später nochmal zu finden. "Es ist zu erwarten, dass wenn es in einem Buch an einer Stelle um Krieg geht, die Wahrscheinlichkeit hoch ist das Wort Krieg auch einige Seiten später zu finden. Überraschend ist es, dass wir die hohe Wahrscheinlichkeit auch auf der Buchstabenebene finden", so Altmann.
Schlüsselwörter häufen sich in einzelnen Textpassagen Dabei haben sie die Langzeitkorrelation sowohl zwischen einzelnen Buchstaben, als auch innerhalb höherer sprachlicher Ebenen wie Wörtern gefunden. Innerhalb einzelner Ebenen bleibt die Korrelation dabei erhalten, wenn man verschiedene Texte betrachtet. "Viel interessanter ist es für uns zu überprüfen, wie die Korrelation sich zwischen den Ebenen ändert", sagt Altmann. Die Langzeitkorrelation erlaubt Rückschlüsse, inwieweit einzelne Wörter mit einem Thema in Verbindungen stehen. "Auch die Verbindung zwischen einem Wort und den Buchstaben, aus denen es sich zusammensetzt, lässt sich so analysieren", so Altmann. Darüber hinaus untersuchten die Wissenschaftler auch die sogenannte "Burstiness", die beschreibt, ob ein Zeichenmuster in einer Textpassage vermehrt zu finden ist. Sie zeigt also beispielsweise an, ob ein Wort in einem bestimmten Abschnitt gehäuft vorkommt. Je häufiger ein bestimmtes Wort in einer Passage verwendet wird, desto wahrscheinlicher ist es, dass diese repräsentativ für ein bestimmtes Thema ist. Die Wissenschaftler zeigten, dass bestimmte Wörter zwar im ganzen Text immer wieder vorkommen, aber nicht in einem bestimmten Abschnitt verstärkt zu finden sind. Diese Wörter weisen zwar eine Langzeitkorrelation auf, stehen aber nicht in einer engen Verbindung mit dem Thema. "Das beste Beispiel dafür sind Artikel. Sie kommen in jedem Text sehr oft vor, sind aber nicht entscheidend um ein bestimmtes Thema zu vermitteln", so Altmann.
Die statistische Textanalyse funktioniert unabhängig von der Sprache Während sowohl Buchstaben als auch Wörter Langzeit-korreliert sind, kommen Buchstaben nur selten an bestimmten Stellen eines Textes gehäuft vor. "Ein Buchstabe ist eben nur sehr selten so eng mit einem Thema verknüpft wie das Wort zu dem er einen Teil beiträgt. Buchstaben sind sozusagen flexibler einsetzbar", sagt Altmann. Ein "a" beispielsweise kann zu einer ganzen Reihe von Wörtern beitragen, die nicht mit demselben Thema in Verbindung stehen. Mit Hilfe der statistischen Analyse von Texten ist es den Forschern gelungen, die prägenden Wörter eines Textes auf einfache Weise zu ermitteln. "Dabei ist es vollkommen egal, in welcher Sprache ein Text geschrieben ist. Es geht nur noch um die Geschichte und nicht um sprachspezifische Regeln", sagt Altmann. Die Ergebnisse könnten zukünftig zur Verbesserung von Internetsuchmaschinen beitragen, aber auch bei Textanalysen und der Suche nach Plagiaten helfen."
-
Natural language processing and speech technology : Results of the 3rd KONVENS Conference, Bielefeld, October 1996 (1996)
0.01
0.0078083402 = product of:
0.031233361 = sum of:
0.031233361 = weight(_text_:und in 360) [ClassicSimilarity], result of:
0.031233361 = score(doc=360,freq=4.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.20792803 = fieldWeight in 360, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=360)
0.25 = coord(1/4)
- Content
- Enthält u.a. die Beiträge: HILDEBRANDT, B. u.a.: Kognitive Modellierung von Sprach- und Bildverstehen; KELLER, F.: How do humans deal with ungrammatical input? Experimental evidence and computational modelling; MARX, J:: Die 'Computer-Talk-These' in der Sprachgenerierung: Hinweise zur Gestaltung natürlichsprachlicher Zustandsanzeigen in multimodalen Informationssystemen; SCHULTZ, T. u. H. SOLTAU: Automatische Identifizierung spontan gesprochener Sprachen mit neuronalen Netzen; WAUSCHKUHN, O.: Ein Werkzeug zur partiellen syntaktischen Analyse deutscher Textkorpora; LEZIUS, W., R. RAPP u. M. WETTLER: A morphology-system and part-of-speech tagger for German; KONRAD, K. u.a.: CLEARS: ein Werkzeug für Ausbildung und Forschung in der Computerlinguistik
-
Ruge, G.; Goeser, S.: Information Retrieval ohne Linguistik (1998)
0.01
0.0078083402 = product of:
0.031233361 = sum of:
0.031233361 = weight(_text_:und in 3528) [ClassicSimilarity], result of:
0.031233361 = score(doc=3528,freq=4.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.20792803 = fieldWeight in 3528, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3528)
0.25 = coord(1/4)
- Abstract
- Natürlicherweise sollte man erwarten, daß linguistische Textanalyseverfahren die Effektivität und Benutzerfreundlichkeit von Information Retrieval Systemen verbessern, da sowohl Dokumente als auch Suchanfragen die interessierenden Inhalte linguistisch enkodieren. Ein Retrievalabgleich auf der Ebene der linguistischen Inhaltsdarstellung müßte demzufolge zu besseren Retrievalsystemen führen als ein Abgleich auf Wort- oder gar Zeichenebene. Tatsächlich aber ist immer noch weitgehend unklar, inwieweit linguistische Textanalyseverfahren Retrievalsysteme verbessern können. Evaluationen von Retrievalsystemen mit linguistischen Komponenten führen nach wie vor zu unterschiedlichen, teils gegenläufigen Ergebnissen, obwohl die dazu erforderliche Computerlinguistik große Fortschritte gemacht hat. Wir gehen der Frage nach, wie es zu diesen kontraintuitiven Ergenissen kommt. Dazu wird der Stand der Kunst im linguistischen IR zusammengefaßt, so daß die Ergebnisse anhand des Vergleich verschiedener Evaluierungen diskutiert werden können.
- Source
- nfd Information - Wissenschaft und Praxis. 49(1998) H.6, S.361-369
-
Manning, C.D.; Schütze, H.: Foundations of statistical natural language processing (2000)
0.01
0.0078083402 = product of:
0.031233361 = sum of:
0.031233361 = weight(_text_:und in 2603) [ClassicSimilarity], result of:
0.031233361 = score(doc=2603,freq=4.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.20792803 = fieldWeight in 2603, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2603)
0.25 = coord(1/4)
- BK
- 18.00 (Einzelne Sprachen und Literaturen allgemein)
- Classification
- 18.00 (Einzelne Sprachen und Literaturen allgemein)
-
Dietze, J.; Völkel, H.: Verifikation einer Methode der lexikalischen Semantik : zur computergestützten Bestimmung der semantischen Konsistenz und des semantischen Abstands (1992)
0.01
0.007361774 = product of:
0.029447095 = sum of:
0.029447095 = weight(_text_:und in 6679) [ClassicSimilarity], result of:
0.029447095 = score(doc=6679,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.19603643 = fieldWeight in 6679, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6679)
0.25 = coord(1/4)
-
Helbig, H.: ¬Die semantische Struktur natürlicher Sprache : Wissensrepräsentation mit MultiNet (2001)
0.01
0.007361774 = product of:
0.029447095 = sum of:
0.029447095 = weight(_text_:und in 7071) [ClassicSimilarity], result of:
0.029447095 = score(doc=7071,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.19603643 = fieldWeight in 7071, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=7071)
0.25 = coord(1/4)
- Footnote
- 2. Aufl. 2008 u.d.T.: Wissensverarbeitung und die Semantik der natürlichen Sprache
-
Nie wieder nachschlagen? : Hexaglot Blitz Translator (2000)
0.01
0.007361774 = product of:
0.029447095 = sum of:
0.029447095 = weight(_text_:und in 7441) [ClassicSimilarity], result of:
0.029447095 = score(doc=7441,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.19603643 = fieldWeight in 7441, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=7441)
0.25 = coord(1/4)
- Abstract
- Noch leidet die komplette Übersetzungs-Software an diversen Kinderkrankheiten. Doch reichen schon einzelne Fragmente einer Fremdsprache aus, um einen Text verstehen zu können, ohne viel Zeit in dicken Wörterbüchern aufzuwenden. Voraussetzung dafür ist, dass man einerseits vom bedruckten Papier Abstand nimmt und seine Texte vom Bildschirm liest, and andererseits die Verwendung des Hexaglot Blitztranslators
-
Wittek, B.R.: Schöne neue Abfragewelt : Datenbank-Zugangssysteme auf der Basis natürlicher Sprache (1994)
0.01
0.007361774 = product of:
0.029447095 = sum of:
0.029447095 = weight(_text_:und in 405) [ClassicSimilarity], result of:
0.029447095 = score(doc=405,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.19603643 = fieldWeight in 405, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=405)
0.25 = coord(1/4)
- Abstract
- Kann die deutsche Sprache als Datenbankabfragesprache eingesetzt werden? Seit Jahrzehnten wurde diese Frage verneint, weil klare Kriterien für die Formalisierung natürlicher Sprache und Werkzeuge für eine kostengünstige Durchführung fehlten. Allerdings darf diese Frage wieder gestellt werden, seitdem Techniken für deren Formalisierung zunehmend zur Verfügung stehen. Dieser Artikel beschreibt, was auf dem Gebiet der natürlichen Sprache als Basis für die Datenbankabfrage heute schon möglich ist
-
Ruge, G.; Schwarz, C.: ¬Die Leistungsfähigkeit von linguistischen Verfahren in der Massentextverarbeitung (1989)
0.01
0.007361774 = product of:
0.029447095 = sum of:
0.029447095 = weight(_text_:und in 38) [ClassicSimilarity], result of:
0.029447095 = score(doc=38,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.19603643 = fieldWeight in 38, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=38)
0.25 = coord(1/4)
- Source
- Klassifikation und Ordnung. Tagungsband 12. Jahrestagung der Gesellschaft für Klassifikation, Darmstadt 17.-19.3.1988. Hrsg.: R. Wille
-
Lehrndorfer, A.: Kontrolliertes Deutsch : Linguistische und sprachpsychologische Leitlinien für eine (maschinell) kontrollierte Sprache in der Technischen Dokumentation (1996)
0.01
0.007361774 = product of:
0.029447095 = sum of:
0.029447095 = weight(_text_:und in 3039) [ClassicSimilarity], result of:
0.029447095 = score(doc=3039,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.19603643 = fieldWeight in 3039, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3039)
0.25 = coord(1/4)
-
Zhang, X: Rough set theory based automatic text categorization (2005)
0.01
0.007361774 = product of:
0.029447095 = sum of:
0.029447095 = weight(_text_:und in 3822) [ClassicSimilarity], result of:
0.029447095 = score(doc=3822,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.19603643 = fieldWeight in 3822, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3822)
0.25 = coord(1/4)
- Abstract
- Der Forschungsbericht "Rough Set Theory Based Automatic Text Categorization and the Handling of Semantic Heterogeneity" von Xueying Zhang ist in Buchform auf Englisch erschienen. Zhang hat in ihrer Arbeit ein Verfahren basierend auf der Rough Set Theory entwickelt, das Beziehungen zwischen Schlagwörtern verschiedener Vokabulare herstellt. Sie war von 2003 bis 2005 Mitarbeiterin des IZ und ist seit Oktober 2005 Associate Professor an der Nanjing University of Science and Technology.
-
Hausser, R.: Grundlagen der Computerlinguistik : Mensch-Maschine-Kommunikation in natürlicher Sprache; mit 772 Übungen (2000)
0.01
0.007361774 = product of:
0.029447095 = sum of:
0.029447095 = weight(_text_:und in 352) [ClassicSimilarity], result of:
0.029447095 = score(doc=352,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.19603643 = fieldWeight in 352, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=352)
0.25 = coord(1/4)
- Abstract
- Die zentrale Aufgabe einer zukunftsorientierten Computerlinguistik ist die Entwicklung kognitiver Maschinen, mit denen Menschen in ihrer jeweiligen Sprache frei reden können. Für die natürlichsprachliche Kommunikation wird nicht nur Sprachverarbeitung, sondern auch nichtsprachliche Wahrnehmung und Handlung benötigt. Deshalb ist der Inhalt dieses Lehrbuchs als Sprachtheorie für die Konstruktion sprechender Roboter organisiert.
-
Kurz, C.: Womit sich Strafverfolger bald befassen müssen : ChatGPT (2023)
0.01
0.007361774 = product of:
0.029447095 = sum of:
0.029447095 = weight(_text_:und in 1204) [ClassicSimilarity], result of:
0.029447095 = score(doc=1204,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.19603643 = fieldWeight in 1204, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1204)
0.25 = coord(1/4)
- Abstract
- Ein Europol-Bericht widmet sich den Folgen von ChatGPT, wenn Kriminelle die Fähigkeiten des Chatbots für sich ausnutzen: Es drohe vermehrt Phishing und noch mehr Desinformation. Ein Problem für die Strafverfolgung könne auch automatisiert erzeugter bösartiger Quellcode sein.
-
Siegel, M.: Maschinelle Übersetzung (2023)
0.01
0.007361774 = product of:
0.029447095 = sum of:
0.029447095 = weight(_text_:und in 1793) [ClassicSimilarity], result of:
0.029447095 = score(doc=1793,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.19603643 = fieldWeight in 1793, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1793)
0.25 = coord(1/4)
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Bager, J.: ¬Die Text-KI ChatGPT schreibt Fachtexte, Prosa, Gedichte und Programmcode (2023)
0.01
0.007361774 = product of:
0.029447095 = sum of:
0.029447095 = weight(_text_:und in 1836) [ClassicSimilarity], result of:
0.029447095 = score(doc=1836,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.19603643 = fieldWeight in 1836, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1836)
0.25 = coord(1/4)
-
Hodgson, J.P.E.: Knowledge representation and language in AI (1991)
0.01
0.0065069506 = product of:
0.026027802 = sum of:
0.026027802 = weight(_text_:und in 2529) [ClassicSimilarity], result of:
0.026027802 = score(doc=2529,freq=4.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.17327337 = fieldWeight in 2529, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2529)
0.25 = coord(1/4)
- Classification
- ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
- RVK
- ST 285 Informatik / Monographien / Software und -entwicklung / Computer supported cooperative work (CSCW), Groupware
-
Jurafsky, D.; Martin, J.H.: Speech and language processing : ani ntroduction to natural language processing, computational linguistics and speech recognition (2009)
0.01
0.0065069506 = product of:
0.026027802 = sum of:
0.026027802 = weight(_text_:und in 2081) [ClassicSimilarity], result of:
0.026027802 = score(doc=2081,freq=4.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.17327337 = fieldWeight in 2081, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2081)
0.25 = coord(1/4)
- BK
- 18.00 Einzelne Sprachen und Literaturen allgemein
- Classification
- 18.00 Einzelne Sprachen und Literaturen allgemein
-
Schneider, J.W.; Borlund, P.: ¬A bibliometric-based semiautomatic approach to identification of candidate thesaurus terms : parsing and filtering of noun phrases from citation contexts (2005)
0.01
0.0064415517 = product of:
0.025766207 = sum of:
0.025766207 = weight(_text_:und in 1156) [ClassicSimilarity], result of:
0.025766207 = score(doc=1156,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.17153187 = fieldWeight in 1156, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1156)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Kuhlen, R.: Experimentelle Morphologie in der Informationswissenschaft (1977)
0.01
0.0064415517 = product of:
0.025766207 = sum of:
0.025766207 = weight(_text_:und in 253) [ClassicSimilarity], result of:
0.025766207 = score(doc=253,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.17153187 = fieldWeight in 253, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=253)
0.25 = coord(1/4)
- Content
- Zugl.: Regensburg, Univ., Diss. u.d.T.: Kuhlen, Rainer: Flexine und Derivative in der maschinellen Verarbeitung englischer Texte