-
Lee, Y.-H.; Evens, M.W.: Natural language interface for an expert system (1998)
0.05
0.054065447 = product of:
0.21626179 = sum of:
0.21626179 = weight(_text_:handle in 6108) [ClassicSimilarity], result of:
0.21626179 = score(doc=6108,freq=2.0), product of:
0.42740422 = queryWeight, product of:
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.06532823 = queryNorm
0.5059889 = fieldWeight in 6108, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.0546875 = fieldNorm(doc=6108)
0.25 = coord(1/4)
- Abstract
- Presents a complete analysis of the underlying principles of natural language interfaces from the screen manager to the parser / understander. The main focus is on the design and development of a subsystem for understanding natural language input in an expert system. Considers that fast response time and user friendliness are the most important considerations in the design. The screen manager provides an easy editing capability for users and the spelling correction system can detect most spelling errors and correct them automatically, quickly and effectively. The Lexical Functional Grammar (LFG) parser and the understander are designed to handle most types of simple sentences, fragments, and ellipses
-
Bedathur, S.; Narang, A.: Mind your language : effects of spoken query formulation on retrieval effectiveness (2013)
0.05
0.054065447 = product of:
0.21626179 = sum of:
0.21626179 = weight(_text_:handle in 2150) [ClassicSimilarity], result of:
0.21626179 = score(doc=2150,freq=2.0), product of:
0.42740422 = queryWeight, product of:
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.06532823 = queryNorm
0.5059889 = fieldWeight in 2150, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.0546875 = fieldNorm(doc=2150)
0.25 = coord(1/4)
- Abstract
- Voice search is becoming a popular mode for interacting with search engines. As a result, research has gone into building better voice transcription engines, interfaces, and search engines that better handle inherent verbosity of queries. However, when one considers its use by non- native speakers of English, another aspect that becomes important is the formulation of the query by users. In this paper, we present the results of a preliminary study that we conducted with non-native English speakers who formulate queries for given retrieval tasks. Our results show that the current search engines are sensitive in their rankings to the query formulation, and thus highlights the need for developing more robust ranking methods.
-
Ferret, O.; Grau, B.; Hurault-Plantet, M.; Illouz, G.; Jacquemin, C.; Monceaux, L.; Robba, I.; Vilnat, A.: How NLP can improve question answering (2002)
0.05
0.04634181 = product of:
0.18536724 = sum of:
0.18536724 = weight(_text_:handle in 2850) [ClassicSimilarity], result of:
0.18536724 = score(doc=2850,freq=2.0), product of:
0.42740422 = queryWeight, product of:
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.06532823 = queryNorm
0.43370473 = fieldWeight in 2850, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.046875 = fieldNorm(doc=2850)
0.25 = coord(1/4)
- Abstract
- Answering open-domain factual questions requires Natural Language processing for refining document selection and answer identification. With our system QALC, we have participated in the Question Answering track of the TREC8, TREC9 and TREC10 evaluations. QALC performs an analysis of documents relying an multiword term searches and their linguistic variation both to minimize the number of documents selected and to provide additional clues when comparing question and sentence representations. This comparison process also makes use of the results of a syntactic parsing of the questions and Named Entity recognition functionalities. Answer extraction relies an the application of syntactic patterns chosen according to the kind of information that is sought, and categorized depending an the syntactic form of the question. These patterns allow QALC to handle nicely linguistic variations at the answer level.
-
Khoo, C.S.G.; Dai, D.; Loh, T.E.: Using statistical and contextual information to identify two- and three-character words in Chinese text (2002)
0.04
0.038618177 = product of:
0.15447271 = sum of:
0.15447271 = weight(_text_:handle in 206) [ClassicSimilarity], result of:
0.15447271 = score(doc=206,freq=2.0), product of:
0.42740422 = queryWeight, product of:
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.06532823 = queryNorm
0.36142063 = fieldWeight in 206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.0390625 = fieldNorm(doc=206)
0.25 = coord(1/4)
- Abstract
- Khoo, Dai, and Loh examine new statistical methods for the identification of two and three character words in Chinese text. Some meaningful Chinese words are simple (independent units of one or more characters in a sentence that have independent meaning) but others are compounds of two or more simple words. In their segmentation they utilize the Modern Chinese Word Segmentation for Application of Information Processing, with some modifications to focus on meaningful words to do manual segmentation. About 37% of meaningful words are longer than 2 characters indicating a need to handle three and four character words. Four hundred sentences from news articles were manually broken into overlapping bi-grams and tri-grams. Using logistic regression, the log of the odds that such bi/tri-grams were meaningful words was calculated. Variables like relative frequency, document frequency, local frequency, and contextual and positional information, were incorporated in the model only if the concordance measure improved by at least 2% with their addition. For two- and three-character words relative frequency of adjacent characters and document frequency of overlapping bi-grams were found to be significant. Using measures of recall and precision where correct automatic segmentation is normalized either by manual segmentation or by automatic segmentation, the contextual information formula for 2 character words provides significantly better results than previous formulations and using both the 2 and 3 character formulations in combination significantly improves the 2 character results.
-
Multi-source, multilingual information extraction and summarization (2013)
0.04
0.038618177 = product of:
0.15447271 = sum of:
0.15447271 = weight(_text_:handle in 1978) [ClassicSimilarity], result of:
0.15447271 = score(doc=1978,freq=2.0), product of:
0.42740422 = queryWeight, product of:
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.06532823 = queryNorm
0.36142063 = fieldWeight in 1978, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.0390625 = fieldNorm(doc=1978)
0.25 = coord(1/4)
- Abstract
- Information extraction (IE) and text summarization (TS) are powerful technologies for finding relevant pieces of information in text and presenting them to the user in condensed form. The ongoing information explosion makes IE and TS critical for successful functioning within the information society. These technologies face particular challenges due to the inherent multi-source nature of the information explosion. The technologies must now handle not isolated texts or individual narratives, but rather large-scale repositories and streams---in general, in multiple languages---containing a multiplicity of perspectives, opinions, or commentaries on particular topics, entities or events. There is thus a need to adapt existing techniques and develop new ones to deal with these challenges. This volume contains a selection of papers that present a variety of methodologies for content identification and extraction, as well as for content fusion and regeneration. The chapters cover various aspects of the challenges, depending on the nature of the information sought---names vs. events,--- and the nature of the sources---news streams vs. image captions vs. scientific research papers, etc. This volume aims to offer a broad and representative sample of studies from this very active research field.
-
Ghali, M.-K.; Farrag, A.; Won, D.; Jin, Y.: Enhancing knowledge retrieval with in-context learning and semantic search through Generative AI (2024)
0.04
0.038618177 = product of:
0.15447271 = sum of:
0.15447271 = weight(_text_:handle in 2367) [ClassicSimilarity], result of:
0.15447271 = score(doc=2367,freq=2.0), product of:
0.42740422 = queryWeight, product of:
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.06532823 = queryNorm
0.36142063 = fieldWeight in 2367, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.0390625 = fieldNorm(doc=2367)
0.25 = coord(1/4)
- Abstract
- Retrieving and extracting knowledge from extensive research documents and large databases presents significant challenges for researchers, students, and professionals in today's information-rich era. Existing retrieval systems, which rely on general-purpose Large Language Models (LLMs), often fail to provide accurate responses to domain-specific inquiries. Additionally, the high cost of pretraining or fine-tuning LLMs for specific domains limits their widespread adoption. To address these limitations, we propose a novel methodology that combines the generative capabilities of LLMs with the fast and accurate retrieval capabilities of vector databases. This advanced retrieval system can efficiently handle both tabular and non-tabular data, understand natural language user queries, and retrieve relevant information without fine-tuning. The developed model, Generative Text Retrieval (GTR), is adaptable to both unstructured and structured data with minor refinement. GTR was evaluated on both manually annotated and public datasets, achieving over 90% accuracy and delivering truthful outputs in 87% of cases. Our model achieved state-of-the-art performance with a Rouge-L F1 score of 0.98 on the MSMARCO dataset. The refined model, Generative Tabular Text Retrieval (GTR-T), demonstrated its efficiency in large database querying, achieving an Execution Accuracy (EX) of 0.82 and an Exact-Set-Match (EM) accuracy of 0.60 on the Spider dataset, using an open-source LLM. These efforts leverage Generative AI and In-Context Learning to enhance human-text interaction and make advanced AI capabilities more accessible. By integrating robust retrieval systems with powerful LLMs, our approach aims to democratize access to sophisticated AI tools, improving the efficiency, accuracy, and scalability of AI-driven information retrieval and database querying.
-
Hou, Y.; Pascale, A.; Carnerero-Cano, J.; Sattigeri, P.; Tchrakian, T.; Marinescu, R.; Daly, E.; Padhi, I.: WikiContradict : a benchmark for evaluating LLMs on real-world knowledge conflicts from Wikipedia (2024)
0.04
0.038618177 = product of:
0.15447271 = sum of:
0.15447271 = weight(_text_:handle in 2368) [ClassicSimilarity], result of:
0.15447271 = score(doc=2368,freq=2.0), product of:
0.42740422 = queryWeight, product of:
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.06532823 = queryNorm
0.36142063 = fieldWeight in 2368, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.5424123 = idf(docFreq=173, maxDocs=44421)
0.0390625 = fieldNorm(doc=2368)
0.25 = coord(1/4)
- Abstract
- Retrieval-augmented generation (RAG) has emerged as a promising solution to mitigate the limitations of large language models (LLMs), such as hallucinations and outdated information. However, it remains unclear how LLMs handle knowledge conflicts arising from different augmented retrieved passages, especially when these passages originate from the same source and have equal trustworthiness. In this work, we conduct a comprehensive evaluation of LLM-generated answers to questions that have varying answers based on contradictory passages from Wikipedia, a dataset widely regarded as a high-quality pre-training resource for most LLMs. Specifically, we introduce WikiContradict, a benchmark consisting of 253 high-quality, human-annotated instances designed to assess LLM performance when augmented with retrieved passages containing real-world knowledge conflicts. We benchmark a diverse range of both closed and open-source LLMs under different QA scenarios, including RAG with a single passage, and RAG with 2 contradictory passages. Through rigorous human evaluations on a subset of WikiContradict instances involving 5 LLMs and over 3,500 judgements, we shed light on the behaviour and limitations of these models. For instance, when provided with two passages containing contradictory facts, all models struggle to generate answers that accurately reflect the conflicting nature of the context, especially for implicit conflicts requiring reasoning. Since human evaluation is costly, we also introduce an automated model that estimates LLM performance using a strong open-source language model, achieving an F-score of 0.8. Using this automated metric, we evaluate more than 1,500 answers from seven LLMs across all WikiContradict instances. To facilitate future work, we release WikiContradict on: https://ibm.biz/wikicontradict.
-
Vlachidis, A.; Binding, C.; Tudhope, D.; May, K.: Excavating grey literature : a case study on the rich indexing of archaeological documents via natural language-processing techniques and knowledge-based resources (2010)
0.04
0.035848998 = product of:
0.14339599 = sum of:
0.14339599 = weight(_text_:java in 935) [ClassicSimilarity], result of:
0.14339599 = score(doc=935,freq=2.0), product of:
0.4604012 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06532823 = queryNorm
0.31145877 = fieldWeight in 935, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=935)
0.25 = coord(1/4)
- Abstract
- Purpose - This paper sets out to discuss the use of information extraction (IE), a natural language-processing (NLP) technique to assist "rich" semantic indexing of diverse archaeological text resources. The focus of the research is to direct a semantic-aware "rich" indexing of diverse natural language resources with properties capable of satisfying information retrieval from online publications and datasets associated with the Semantic Technologies for Archaeological Resources (STAR) project. Design/methodology/approach - The paper proposes use of the English Heritage extension (CRM-EH) of the standard core ontology in cultural heritage, CIDOC CRM, and exploitation of domain thesauri resources for driving and enhancing an Ontology-Oriented Information Extraction process. The process of semantic indexing is based on a rule-based Information Extraction technique, which is facilitated by the General Architecture of Text Engineering (GATE) toolkit and expressed by Java Annotation Pattern Engine (JAPE) rules. Findings - Initial results suggest that the combination of information extraction with knowledge resources and standard conceptual models is capable of supporting semantic-aware term indexing. Additional efforts are required for further exploitation of the technique and adoption of formal evaluation methods for assessing the performance of the method in measurable terms. Originality/value - The value of the paper lies in the semantic indexing of 535 unpublished online documents often referred to as "Grey Literature", from the Archaeological Data Service OASIS corpus (Online AccesS to the Index of archaeological investigationS), with respect to the CRM ontological concepts E49.Time Appellation and P19.Physical Object.
-
Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996)
0.03
0.02735844 = product of:
0.10943376 = sum of:
0.10943376 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
0.10943376 = score(doc=1190,freq=76.0), product of:
0.14489143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06532823 = queryNorm
0.75528115 = fieldWeight in 1190, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1190)
0.25 = coord(1/4)
- BK
- 18.00 Einzelne Sprachen und Literaturen allgemein
- Classification
- ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
18.00 Einzelne Sprachen und Literaturen allgemein
- RVK
- ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
- Series
- Sprache und Information ; 33
-
Schank, R.C.: Computer, elementare Aktionen und linguistische Theorien (1977)
0.02
0.024853498 = product of:
0.09941399 = sum of:
0.09941399 = weight(_text_:und in 6141) [ClassicSimilarity], result of:
0.09941399 = score(doc=6141,freq=8.0), product of:
0.14489143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06532823 = queryNorm
0.6861275 = fieldWeight in 6141, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=6141)
0.25 = coord(1/4)
- Series
- Grundlagen der Kommunikation und Kognition
- Source
- Semantik und künstliche Intelligenz: Beiträge zur automatischen Sprachbearbeitung II. Hrsg. und eingeleitet von P. Eisenberg
-
Weber, N.: ¬Die Semantik von Bedeutungsexplikationen (1999)
0.02
0.024405653 = product of:
0.09762261 = sum of:
0.09762261 = weight(_text_:und in 2399) [ClassicSimilarity], result of:
0.09762261 = score(doc=2399,freq=42.0), product of:
0.14489143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06532823 = queryNorm
0.6737639 = fieldWeight in 2399, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2399)
0.25 = coord(1/4)
- BK
- 18.00 Einzelne Sprachen und Literaturen allgemein
- Classification
- ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
18.00 Einzelne Sprachen und Literaturen allgemein
- RVK
- ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
- Series
- Sprache, Sprechen und Computer ; 3
-
Seelbach, D.: Computerlinguistik und Dokumentation : keyphrases in Dokumentationsprozessen (1975)
0.02
0.023214405 = product of:
0.09285762 = sum of:
0.09285762 = weight(_text_:und in 1299) [ClassicSimilarity], result of:
0.09285762 = score(doc=1299,freq=38.0), product of:
0.14489143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06532823 = queryNorm
0.64087725 = fieldWeight in 1299, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1299)
0.25 = coord(1/4)
- Classification
- ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
ES 955 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Referatherstellung, linguistische Dokumentation und Information
- RVK
- ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
ES 955 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Referatherstellung, linguistische Dokumentation und Information
-
Neumann, H.: Inszenierung und Metabotschaften eines periodisch getakteten Fernsehauftritts : Die Neujahrsansprachen der Bundeskanzler Helmut Kohl und Gerhard Schröder im Vergleich (2003)
0.02
0.020607432 = product of:
0.08242973 = sum of:
0.08242973 = weight(_text_:und in 2632) [ClassicSimilarity], result of:
0.08242973 = score(doc=2632,freq=22.0), product of:
0.14489143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06532823 = queryNorm
0.5689069 = fieldWeight in 2632, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2632)
0.25 = coord(1/4)
- Abstract
- Herstellen der gleichen Wellenlänge zwischen Sender und Empfänger entscheidet über den kommunikativen Erfolg -gerade auch im politischen Bereich. Unter politikwissenschaftlicher als auch unter kommunikationswissenschaftlicher Fragestellung werden in der vorliegenden Arbeit acht Neujahrsansprachen von 1994 bis 2001 der Bundeskanzler Helmut Kohl und Gerhard Schröder einer systematischen Analyse unterzogen. Es findet eine Untersuchung der Sach- und Beziehungsebene statt. Verbale und visuelle Rhetorik beider Bundeskanzler werden miteinander verglichen und decodiert. Die Arbeit gibt zum einen Aufschluss über die Metabotschaften und das Corporate Design beider Bundeskanzler und diskutiert zum anderen Vor- und Nachteile der Kommunikationsstrategien zweier Kommunikationstypen, die unterschiedlicher nicht sein können.
- Source
- Information - Wissenschaft und Praxis. 54(2003) H.5, S.261-272
-
Semantik und künstliche Intelligenz : Beiträge zur automatischen Sprachbearbeitung II (1977)
0.02
0.02008466 = product of:
0.08033864 = sum of:
0.08033864 = weight(_text_:und in 6129) [ClassicSimilarity], result of:
0.08033864 = score(doc=6129,freq=4.0), product of:
0.14489143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06532823 = queryNorm
0.5544748 = fieldWeight in 6129, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.125 = fieldNorm(doc=6129)
0.25 = coord(1/4)
- Series
- Grundlagen der Kommunikation und Kognition
-
Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992)
0.02
0.01992713 = product of:
0.07970852 = sum of:
0.07970852 = weight(_text_:und in 72) [ClassicSimilarity], result of:
0.07970852 = score(doc=72,freq=28.0), product of:
0.14489143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06532823 = queryNorm
0.55012584 = fieldWeight in 72, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=72)
0.25 = coord(1/4)
- Content
- Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
-
Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989)
0.02
0.019847896 = product of:
0.079391584 = sum of:
0.079391584 = weight(_text_:und in 399) [ClassicSimilarity], result of:
0.079391584 = score(doc=399,freq=10.0), product of:
0.14489143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06532823 = queryNorm
0.54793847 = fieldWeight in 399, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=399)
0.25 = coord(1/4)
- Abstract
- Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt
-
Leighton, T.: ChatGPT und Künstliche Intelligenz : Utopie oder Dystopie? (2023)
0.02
0.019847896 = product of:
0.079391584 = sum of:
0.079391584 = weight(_text_:und in 1909) [ClassicSimilarity], result of:
0.079391584 = score(doc=1909,freq=10.0), product of:
0.14489143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06532823 = queryNorm
0.54793847 = fieldWeight in 1909, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1909)
0.25 = coord(1/4)
- Abstract
- Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?
- Series
- Telepolis / Kultur und Medien
- Source
- https://www.heise.de/tp/features/ChatGPT-und-Kuenstliche-Intelligenz-Utopie-oder-Dystopie-7445181.html?view=print
-
Computerlinguistik und Sprachtechnologie : Eine Einführung (2001)
0.02
0.019202262 = product of:
0.07680905 = sum of:
0.07680905 = weight(_text_:und in 2749) [ClassicSimilarity], result of:
0.07680905 = score(doc=2749,freq=26.0), product of:
0.14489143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06532823 = queryNorm
0.53011453 = fieldWeight in 2749, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2749)
0.25 = coord(1/4)
- Abstract
- Dieses Lehrbuch bietet eine umfassende Einführung in Grundlagen und Methoden der Computerlinguistik und stellt die wichtigsten Anwendungsgebiete in der Sprachtechnologie vor. Es richtet sich gleichermaßen an Studierende der Computerlinguistik und verwandter Fächer mit Bezug zur Verarbeitung natürlicher Sprache wie an Entwickler sprachverarbeitender Systeme. Nach einem Überblick über Aufgaben und Ziele der Computerlinguistik werden die erforderlichen theoretischen Grundlagen zur Logik, den Formalen Sprachen und statistischen Verfahren ausführlich und beispielbezogen erläutert. Es schließt sich eine Darstellung der verschiedenen Methoden für die Verarbeitung auf den linguistischen Beschreibungsebenen an. Dabei werden zunächst die grundlegenden Begriffe und Konzepte der Phonetik, Morphologie, Syntax, Semantik sowie der Pragmatik vermittelt und darauf aufbauend die Prinzipien der sprachtechnologischen Umsetzung behandelt. Der letzte Teil des Buchs gibt einen Überblick über die sprachtechnologischen Anwendungen in der Praxis und zeigt anhand einer Vielzahl konkreter Fragestellungen - von Spracherkennung über Sprachsynthese, Information Retrieval bis hin zu Dialogsystemen und automatischer Übersetzung - das Zusammenwirken der einzelnen Methoden auf. "Durch dieses Handbuch wird für den deutschsprachigen Raum eine empfindliche Lücke geschlossen. Es umfasst die relevanten Aspekte computerlinguistischer Grundlagenwissenschaft und sprachtechnologischer Anwendung in eindrucksvoller Breite und auf aktuellem Stand" [Manfred Pinkal]
-
Kunze, C.: Lexikalisch-semantische Wortnetze in Sprachwissenschaft und Sprachtechnologie (2006)
0.02
0.018787479 = product of:
0.075149916 = sum of:
0.075149916 = weight(_text_:und in 23) [ClassicSimilarity], result of:
0.075149916 = score(doc=23,freq=14.0), product of:
0.14489143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06532823 = queryNorm
0.51866364 = fieldWeight in 23, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=23)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag beschreibt die Strukturierungsprinzipien und Anwendungskontexte lexikalisch-semantischer Wortnetze, insbesondere des deutschen Wortnetzes GermaNet. Wortnetze sind zurzeit besonders populäre elektronische Lexikonressourcen, die große Abdeckungen semantisch strukturierter Datenfür verschiedene Sprachen und Sprachverbünde enthalten. In Wortnetzen sind die häufigsten und wichtigsten Konzepte einer Sprache mit ihren elementaren Bedeutungsrelationen repräsentiert. Zentrale Anwendungen für Wortnetze sind u.a. die Lesartendisambiguierung und die Informationserschließung. Der Artikel skizziert die neusten Szenarien, in denen GermaNet eingesetzt wird: die Semantische Informationserschließung und die Integration allgemeinsprachlicher Wortnetze mit terminologischen Ressourcen vordem Hintergrund der Datenkonvertierung in OWL.
- Source
- Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.309-314
-
Heid, U.: Computerlinguistik zwischen Informationswissenschaft und multilingualer Kommunikation (2010)
0.02
0.018787479 = product of:
0.075149916 = sum of:
0.075149916 = weight(_text_:und in 18) [ClassicSimilarity], result of:
0.075149916 = score(doc=18,freq=14.0), product of:
0.14489143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06532823 = queryNorm
0.51866364 = fieldWeight in 18, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=18)
0.25 = coord(1/4)
- Abstract
- Dieser Beitrag widmet sich den Möglichkeiten der Interaktion zwischen Informationswissenschaft und Computerlinguistik. Dazu werden relevante Aspekte computerlinguistischer Forschung präsentiert, und ihr Potential für die Interaktion mit informationswissenschaftlichen Fragestellungen und Produkten wird erläutert. Im dritten Teil werden anhand der spezifischen Hildesheimer Situation Vorschläge für eine solche Interaktion diskutiert, und zwar im Dreieck: Informationswissenschaft, Computerlinguistik und Multilinguale Kommunikation.
- Source
- Information - Wissenschaft und Praxis. 61(2010) H.6/7, S.361-366