-
Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016)
0.07
0.07401001 = product of:
0.14802001 = sum of:
0.05702853 = weight(_text_:und in 4206) [ClassicSimilarity], result of:
0.05702853 = score(doc=4206,freq=18.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.36756828 = fieldWeight in 4206, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4206)
0.09099149 = weight(_text_:headings in 4206) [ClassicSimilarity], result of:
0.09099149 = score(doc=4206,freq=2.0), product of:
0.33944473 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06995397 = queryNorm
0.26805982 = fieldWeight in 4206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=4206)
0.5 = coord(2/4)
- Abstract
- Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
- Content
- Editorial zu einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl-: http://0277.ch/ojs/index.php/cdrs_0277/article/view/159/349.
-
Riloff, E.: ¬An empirical study of automated dictionary construction for information extraction in three domains (1996)
0.06
0.06022524 = product of:
0.24090096 = sum of:
0.24090096 = weight(_text_:joint in 6820) [ClassicSimilarity], result of:
0.24090096 = score(doc=6820,freq=2.0), product of:
0.43664446 = queryWeight, product of:
6.2418823 = idf(docFreq=234, maxDocs=44421)
0.06995397 = queryNorm
0.55170965 = fieldWeight in 6820, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2418823 = idf(docFreq=234, maxDocs=44421)
0.0625 = fieldNorm(doc=6820)
0.25 = coord(1/4)
- Abstract
- AutoSlog is a system that addresses the knowledge engineering bottleneck for information extraction. AutoSlog automatically creates domain specific dictionaries for information extraction, given an appropriate training corpus. Describes experiments with AutoSlog in terrorism, joint ventures and microelectronics domains. Compares the performance of AutoSlog across the 3 domains, discusses the lessons learned and presents results from 2 experiments which demonstrate that novice users can generate effective dictionaries using AutoSlog
-
Toutanova, K.; Manning, C.D.: Enriching the knowledge sources used in a maximum entropy Part-of-Speech Tagger (2000)
0.05
0.052697085 = product of:
0.21078834 = sum of:
0.21078834 = weight(_text_:joint in 2060) [ClassicSimilarity], result of:
0.21078834 = score(doc=2060,freq=2.0), product of:
0.43664446 = queryWeight, product of:
6.2418823 = idf(docFreq=234, maxDocs=44421)
0.06995397 = queryNorm
0.48274595 = fieldWeight in 2060, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2418823 = idf(docFreq=234, maxDocs=44421)
0.0546875 = fieldNorm(doc=2060)
0.25 = coord(1/4)
- Source
- Proceedings of the Joint SIGDAT Conference on Empirical Methods in Natural Language Processing and Very Large Corpora (EMNLP/VLC-2000)
-
Spitkovsky, V.I.; Chang, A.X.: ¬A cross-lingual dictionary for english Wikipedia concepts (2012)
0.05
0.045168933 = product of:
0.18067573 = sum of:
0.18067573 = weight(_text_:joint in 1336) [ClassicSimilarity], result of:
0.18067573 = score(doc=1336,freq=2.0), product of:
0.43664446 = queryWeight, product of:
6.2418823 = idf(docFreq=234, maxDocs=44421)
0.06995397 = queryNorm
0.41378224 = fieldWeight in 1336, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2418823 = idf(docFreq=234, maxDocs=44421)
0.046875 = fieldNorm(doc=1336)
0.25 = coord(1/4)
- Abstract
- We present a resource for automatically associating strings of text with English Wikipedia concepts. Our machinery is bi-directional, in the sense that it uses the same fundamental probabilistic methods to map strings to empirical distributions over Wikipedia articles as it does to map article URLs to distributions over short, language-independent strings of natural language text. For maximal interoperability, we release our resource as a set of ?at line-based text ?les, lexicographically sorted and encoded with UTF-8. These files capture joint probability distributions underlying concepts (we use the terms article, concept and Wikipedia URL interchangeably) and associated snippets of text, as well as other features that can come in handy when working with Wikipedia articles and related information.
-
Trajanoska, M.; Stojanov, R.; Trajanov, D.: Enhancing knowledge graph construction using Large Language Models (2023)
0.05
0.045168933 = product of:
0.18067573 = sum of:
0.18067573 = weight(_text_:joint in 2334) [ClassicSimilarity], result of:
0.18067573 = score(doc=2334,freq=2.0), product of:
0.43664446 = queryWeight, product of:
6.2418823 = idf(docFreq=234, maxDocs=44421)
0.06995397 = queryNorm
0.41378224 = fieldWeight in 2334, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2418823 = idf(docFreq=234, maxDocs=44421)
0.046875 = fieldNorm(doc=2334)
0.25 = coord(1/4)
- Abstract
- The growing trend of Large Language Models (LLM) development has attracted significant attention, with models for various applications emerging consistently. However, the combined application of Large Language Models with semantic technologies for reasoning and inference is still a challenging task. This paper analyzes how the current advances in foundational LLM, like ChatGPT, can be compared with the specialized pretrained models, like REBEL, for joint entity and relation extraction. To evaluate this approach, we conducted several experiments using sustainability-related text as our use case. We created pipelines for the automatic creation of Knowledge Graphs from raw texts, and our findings indicate that using advanced LLM models can improve the accuracy of the process of creating these graphs from unstructured text. Furthermore, we explored the potential of automatic ontology creation using foundation LLM models, which resulted in even more relevant and accurate knowledge graphs.
-
Carrillo-de-Albornoz, J.; Plaza, L.: ¬An emotion-based model of negation, intensifiers, and modality for polarity and intensity classification (2013)
0.04
0.037640776 = product of:
0.1505631 = sum of:
0.1505631 = weight(_text_:joint in 2005) [ClassicSimilarity], result of:
0.1505631 = score(doc=2005,freq=2.0), product of:
0.43664446 = queryWeight, product of:
6.2418823 = idf(docFreq=234, maxDocs=44421)
0.06995397 = queryNorm
0.34481853 = fieldWeight in 2005, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2418823 = idf(docFreq=234, maxDocs=44421)
0.0390625 = fieldNorm(doc=2005)
0.25 = coord(1/4)
- Abstract
- Negation, intensifiers, and modality are common linguistic constructions that may modify the emotional meaning of the text and therefore need to be taken into consideration in sentiment analysis. Negation is usually considered as a polarity shifter, whereas intensifiers are regarded as amplifiers or diminishers of the strength of such polarity. Modality, in turn, has only been addressed in a very naïve fashion, so that modal forms are treated as polarity blockers. However, processing these constructions as mere polarity modifiers may be adequate for polarity classification, but it is not enough for more complex tasks (e.g., intensity classification), for which a more fine-grained model based on emotions is needed. In this work, we study the effect of modifiers on the emotions affected by them and propose a model of negation, intensifiers, and modality especially conceived for sentiment analysis tasks. We compare our emotion-based strategy with two traditional approaches based on polar expressions and find that representing the text as a set of emotions increases accuracy in different classification tasks and that this representation allows for a more accurate modeling of modifiers that results in further classification improvements. We also study the most common uses of modifiers in opinionated texts and quantify their impact in polarity and intensity classification. Finally, we analyze the joint effect of emotional modifiers and find that interesting synergies exist between them.
-
Zhang, Y.; Zhang, C.; Li, J.: Joint modeling of characters, words, and conversation contexts for microblog keyphrase extraction (2020)
0.04
0.037640776 = product of:
0.1505631 = sum of:
0.1505631 = weight(_text_:joint in 816) [ClassicSimilarity], result of:
0.1505631 = score(doc=816,freq=2.0), product of:
0.43664446 = queryWeight, product of:
6.2418823 = idf(docFreq=234, maxDocs=44421)
0.06995397 = queryNorm
0.34481853 = fieldWeight in 816, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2418823 = idf(docFreq=234, maxDocs=44421)
0.0390625 = fieldNorm(doc=816)
0.25 = coord(1/4)
-
Chou, C.; Chu, T.: ¬An analysis of BERT (NLP) for assisted subject indexing for Project Gutenberg (2022)
0.03
0.031847022 = product of:
0.12738809 = sum of:
0.12738809 = weight(_text_:headings in 2141) [ClassicSimilarity], result of:
0.12738809 = score(doc=2141,freq=2.0), product of:
0.33944473 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06995397 = queryNorm
0.37528375 = fieldWeight in 2141, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0546875 = fieldNorm(doc=2141)
0.25 = coord(1/4)
- Abstract
- In light of AI (Artificial Intelligence) and NLP (Natural language processing) technologies, this article examines the feasibility of using AI/NLP models to enhance the subject indexing of digital resources. While BERT (Bidirectional Encoder Representations from Transformers) models are widely used in scholarly communities, the authors assess whether BERT models can be used in machine-assisted indexing in the Project Gutenberg collection, through suggesting Library of Congress subject headings filtered by certain Library of Congress Classification subclass labels. The findings of this study are informative for further research on BERT models to assist with automatic subject indexing for digital library collections.
-
Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996)
0.03
0.029295627 = product of:
0.11718251 = sum of:
0.11718251 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
0.11718251 = score(doc=1190,freq=76.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.75528115 = fieldWeight in 1190, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1190)
0.25 = coord(1/4)
- BK
- 18.00 Einzelne Sprachen und Literaturen allgemein
- Classification
- ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
18.00 Einzelne Sprachen und Literaturen allgemein
- RVK
- ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
- Series
- Sprache und Information ; 33
-
Schank, R.C.: Computer, elementare Aktionen und linguistische Theorien (1977)
0.03
0.026613316 = product of:
0.10645326 = sum of:
0.10645326 = weight(_text_:und in 6141) [ClassicSimilarity], result of:
0.10645326 = score(doc=6141,freq=8.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.6861275 = fieldWeight in 6141, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=6141)
0.25 = coord(1/4)
- Series
- Grundlagen der Kommunikation und Kognition
- Source
- Semantik und künstliche Intelligenz: Beiträge zur automatischen Sprachbearbeitung II. Hrsg. und eingeleitet von P. Eisenberg
-
Weber, N.: ¬Die Semantik von Bedeutungsexplikationen (1999)
0.03
0.026133759 = product of:
0.104535036 = sum of:
0.104535036 = weight(_text_:und in 2399) [ClassicSimilarity], result of:
0.104535036 = score(doc=2399,freq=42.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.6737639 = fieldWeight in 2399, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2399)
0.25 = coord(1/4)
- BK
- 18.00 Einzelne Sprachen und Literaturen allgemein
- Classification
- ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
18.00 Einzelne Sprachen und Literaturen allgemein
- RVK
- ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
- Series
- Sprache, Sprechen und Computer ; 3
-
Seelbach, D.: Computerlinguistik und Dokumentation : keyphrases in Dokumentationsprozessen (1975)
0.02
0.024858162 = product of:
0.09943265 = sum of:
0.09943265 = weight(_text_:und in 1299) [ClassicSimilarity], result of:
0.09943265 = score(doc=1299,freq=38.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.64087725 = fieldWeight in 1299, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1299)
0.25 = coord(1/4)
- Classification
- ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
ES 955 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Referatherstellung, linguistische Dokumentation und Information
- RVK
- ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
ES 955 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Referatherstellung, linguistische Dokumentation und Information
-
Neumann, H.: Inszenierung und Metabotschaften eines periodisch getakteten Fernsehauftritts : Die Neujahrsansprachen der Bundeskanzler Helmut Kohl und Gerhard Schröder im Vergleich (2003)
0.02
0.022066597 = product of:
0.08826639 = sum of:
0.08826639 = weight(_text_:und in 2632) [ClassicSimilarity], result of:
0.08826639 = score(doc=2632,freq=22.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.5689069 = fieldWeight in 2632, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2632)
0.25 = coord(1/4)
- Abstract
- Herstellen der gleichen Wellenlänge zwischen Sender und Empfänger entscheidet über den kommunikativen Erfolg -gerade auch im politischen Bereich. Unter politikwissenschaftlicher als auch unter kommunikationswissenschaftlicher Fragestellung werden in der vorliegenden Arbeit acht Neujahrsansprachen von 1994 bis 2001 der Bundeskanzler Helmut Kohl und Gerhard Schröder einer systematischen Analyse unterzogen. Es findet eine Untersuchung der Sach- und Beziehungsebene statt. Verbale und visuelle Rhetorik beider Bundeskanzler werden miteinander verglichen und decodiert. Die Arbeit gibt zum einen Aufschluss über die Metabotschaften und das Corporate Design beider Bundeskanzler und diskutiert zum anderen Vor- und Nachteile der Kommunikationsstrategien zweier Kommunikationstypen, die unterschiedlicher nicht sein können.
- Source
- Information - Wissenschaft und Praxis. 54(2003) H.5, S.261-272
-
Semantik und künstliche Intelligenz : Beiträge zur automatischen Sprachbearbeitung II (1977)
0.02
0.021506807 = product of:
0.08602723 = sum of:
0.08602723 = weight(_text_:und in 6129) [ClassicSimilarity], result of:
0.08602723 = score(doc=6129,freq=4.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.5544748 = fieldWeight in 6129, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.125 = fieldNorm(doc=6129)
0.25 = coord(1/4)
- Series
- Grundlagen der Kommunikation und Kognition
-
Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992)
0.02
0.021338122 = product of:
0.08535249 = sum of:
0.08535249 = weight(_text_:und in 72) [ClassicSimilarity], result of:
0.08535249 = score(doc=72,freq=28.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.55012584 = fieldWeight in 72, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=72)
0.25 = coord(1/4)
- Content
- Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
-
Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989)
0.02
0.021253278 = product of:
0.085013114 = sum of:
0.085013114 = weight(_text_:und in 399) [ClassicSimilarity], result of:
0.085013114 = score(doc=399,freq=10.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.54793847 = fieldWeight in 399, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=399)
0.25 = coord(1/4)
- Abstract
- Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
-
Leighton, T.: ChatGPT und Künstliche Intelligenz : Utopie oder Dystopie? (2023)
0.02
0.021253278 = product of:
0.085013114 = sum of:
0.085013114 = weight(_text_:und in 1909) [ClassicSimilarity], result of:
0.085013114 = score(doc=1909,freq=10.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.54793847 = fieldWeight in 1909, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1909)
0.25 = coord(1/4)
- Abstract
- Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?
- Series
- Telepolis / Kultur und Medien
- Source
- https://www.heise.de/tp/features/ChatGPT-und-Kuenstliche-Intelligenz-Utopie-oder-Dystopie-7445181.html?view=print
-
Computerlinguistik und Sprachtechnologie : Eine Einführung (2001)
0.02
0.02056193 = product of:
0.08224772 = sum of:
0.08224772 = weight(_text_:und in 2749) [ClassicSimilarity], result of:
0.08224772 = score(doc=2749,freq=26.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.53011453 = fieldWeight in 2749, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2749)
0.25 = coord(1/4)
- Abstract
- Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen und statistischen Verfahren ausführlich und beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Der letzte Teil des Buchs gibt einen Überblick über die sprachtechnologischen Anwendungen in der Praxis und zeigt anhand einer Vielzahl konkreter Fragestellungen - von Spracherkennung über Sprachsynthese, Information Retrieval bis hin zu Dialogsystemen und automatischer Übersetzung - das Zusammenwirken der einzelnen Methoden auf. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand" [Manfred Pinkal]
-
Kunze, C.: Lexikalisch-semantische Wortnetze in Sprachwissenschaft und Sprachtechnologie (2006)
0.02
0.020117776 = product of:
0.080471106 = sum of:
0.080471106 = weight(_text_:und in 23) [ClassicSimilarity], result of:
0.080471106 = score(doc=23,freq=14.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.51866364 = fieldWeight in 23, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=23)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag beschreibt die Strukturierungsprinzipien und Anwendungskontexte lexikalisch-semantischer Wortnetze, insbesondere des deutschen Wortnetzes GermaNet. Wortnetze sind zurzeit besonders populäre elektronische Lexikonressourcen, die große Abdeckungen semantisch strukturierter Datenfür verschiedene Sprachen und Sprachverbünde enthalten. In Wortnetzen sind die häufigsten und wichtigsten Konzepte einer Sprache mit ihren elementaren Bedeutungsrelationen repräsentiert. Zentrale Anwendungen für Wortnetze sind u.a. die Lesartendisambiguierung und die Informationserschließung. Der Artikel skizziert die neusten Szenarien, in denen GermaNet eingesetzt wird: die Semantische Informationserschließung und die Integration allgemeinsprachlicher Wortnetze mit terminologischen Ressourcen vordem Hintergrund der Datenkonvertierung in OWL.
- Source
- Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.309-314
-
Heid, U.: Computerlinguistik zwischen Informationswissenschaft und multilingualer Kommunikation (2010)
0.02
0.020117776 = product of:
0.080471106 = sum of:
0.080471106 = weight(_text_:und in 18) [ClassicSimilarity], result of:
0.080471106 = score(doc=18,freq=14.0), product of:
0.15515085 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06995397 = queryNorm
0.51866364 = fieldWeight in 18, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=18)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag widmet sich den Möglichkeiten der Interaktion zwischen Informationswissenschaft und Computerlinguistik. Dazu werden relevante Aspekte computerlinguistischer Forschung präsentiert, und ihr Potential für die Interaktion mit informationswissenschaftlichen Fragestellungen und Produkten wird erläutert. Im dritten Teil werden anhand der spezifischen Hildesheimer Situation Vorschläge für eine solche Interaktion diskutiert, und zwar im Dreieck: Informationswissenschaft, Computerlinguistik und Multilinguale Kommunikation.
- Source
- Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.361-366