Search (218 results, page 10 of 11)

  • × theme_ss:"Computerlinguistik"
  1. Witschel, H.F.: Terminologie-Extraktion : Möglichkeiten der Kombination statistischer uns musterbasierter Verfahren (2004) 0.01
    0.009414939 = product of:
      0.037659757 = sum of:
        0.037659757 = weight(_text_:und in 1123) [ClassicSimilarity], result of:
          0.037659757 = score(doc=1123,freq=8.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24504554 = fieldWeight in 1123, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1123)
      0.25 = coord(1/4)
    
    Abstract
    Die Suche nach Informationen in unstrukturierten natürlichsprachlichen Daten ist Gegenstand des sogenannten Text Mining. In dieser Arbeit wird ein Teilgebiet des Text Mining beleuchtet, nämlich die Extraktion domänenspezifischer Fachbegriffe aus Fachtexten der jeweiligen Domäne. Wofür überhaupt Terminologie-Extraktion? Die Antwort darauf ist einfach: der Schlüssel zum Verständnis vieler Fachgebiete liegt in der Kenntnis der zugehörigen Terminologie. Natürlich genügt es nicht, nur eine Liste der Fachtermini einer Domäne zu kennen, um diese zu durchdringen. Eine solche Liste ist aber eine wichtige Voraussetzung für die Erstellung von Fachwörterbüchern (man denke z.B. an Nachschlagewerke wie das klinische Wörterbuch "Pschyrembel"): zunächst muß geklärt werden, welche Begriffe in das Wörterbuch aufgenommen werden sollen, bevor man sich Gedanken um die genaue Definition der einzelnen Termini machen kann. Ein Fachwörterbuch sollte genau diejenigen Begriffe einer Domäne beinhalten, welche Gegenstand der Forschung in diesem Gebiet sind oder waren. Was liegt also näher, als entsprechende Fachliteratur zu betrachten und das darin enthaltene Wissen in Form von Fachtermini zu extrahieren? Darüberhinaus sind weitere Anwendungen der Terminologie-Extraktion denkbar, wie z.B. die automatische Beschlagwortung von Texten oder die Erstellung sogenannter Topic Maps, welche wichtige Begriffe zu einem Thema darstellt und in Beziehung setzt. Es muß also zunächst die Frage geklärt werden, was Terminologie eigentlich ist, vor allem aber werden verschiedene Methoden entwickelt, welche die Eigenschaften von Fachtermini ausnutzen, um diese aufzufinden. Die Verfahren werden aus den linguistischen und 'statistischen' Charakteristika von Fachbegriffen hergeleitet und auf geeignete Weise kombiniert.
  2. Witschel, H.F.: Text, Wörter, Morpheme : Möglichkeiten einer automatischen Terminologie-Extraktion (2004) 0.01
    0.009414939 = product of:
      0.037659757 = sum of:
        0.037659757 = weight(_text_:und in 1126) [ClassicSimilarity], result of:
          0.037659757 = score(doc=1126,freq=8.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24504554 = fieldWeight in 1126, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1126)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Arbeit beschäftigt sich mit einem Teilgebiet des TextMining, versucht also Information (in diesem Fall Fachterminologie) aus natürlichsprachlichem Text zu extrahieren. Die der Arbeit zugrundeliegende These besagt, daß in vielen Gebieten des Text Mining die Kombination verschiedener Methoden sinnvoll sein kann, um dem Facettenreichtum natürlicher Sprache gerecht zu werden. Die bei der Terminologie-Extraktion angewandten Methoden sind statistischer und linguistischer (bzw. musterbasierter) Natur. Um sie herzuleiten, wurden einige Eigenschaften von Fachtermini herausgearbeitet, die für deren Extraktion relevant sind. So läßt sich z.B. die Tatsache, daß viele Fachbegriffe Nominalphrasen einer bestimmten Form sind, direkt für eine Suche nach gewissen POS-Mustern ausnützen, die Verteilung von Termen in Fachtexten führte zu einem statistischen Ansatz - der Differenzanalyse. Zusammen mit einigen weiteren wurden diese Ansätze in ein Verfahren integriert, welches in der Lage ist, aus dem Feedback eines Anwenders zu lernen und in mehreren Schritten die Suche nach Terminologie zu verfeinern. Dabei wurden mehrere Parameter des Verfahrens veränderlich belassen, d.h. der Anwender kann sie beliebig anpassen. Bei der Untersuchung der Ergebnisse anhand von zwei Fachtexten aus unterschiedlichen Domänen wurde deutlich, daß sich zwar die verschiedenen Verfahren gut ergänzen, daß aber die optimalen Werte der veränderbaren Parameter, ja selbst die Auswahl der angewendeten Verfahren text- und domänenabhängig sind.
    Imprint
    Leipzig : Universität / Fakultät für Mathematik und Informatik Institut für Informatik
  3. Schmolz, H.: Anaphora resolution and text retrieval : a lnguistic analysis of hypertexts (2013) 0.01
    0.009414939 = product of:
      0.037659757 = sum of:
        0.037659757 = weight(_text_:und in 2810) [ClassicSimilarity], result of:
          0.037659757 = score(doc=2810,freq=2.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24504554 = fieldWeight in 2810, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=2810)
      0.25 = coord(1/4)
    
    Content
    Trägerin des VFI-Dissertationspreises 2014: "Überzeugende gründliche linguistische und quantitative Analyse eines im Information Retrieval bisher wenig beachteten Textelementes anhand eines eigens erstellten grossen Hypertextkorpus, einschliesslich der Evaluation selbsterstellter Auflösungsregeln für die Nutzung in künftigen IR-Systemen.".
  4. Wolfangel, E.: Ich verstehe (2017) 0.01
    0.009414939 = product of:
      0.037659757 = sum of:
        0.037659757 = weight(_text_:und in 4976) [ClassicSimilarity], result of:
          0.037659757 = score(doc=4976,freq=2.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24504554 = fieldWeight in 4976, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4976)
      0.25 = coord(1/4)
    
    Abstract
    Computer werden immer besser darin, den Sinn von Sprache zu entschlüsseln. Das ist zwar bequem, wenn man seinem Handy einfach sagen kann, was es tun soll, ohne tippen zu müssen. Aber das bedeutet auch, dass sich E-Mails und andere Botschaften maschinell auswerten lassen. Da wird inzwischen sogar den Forschern mulmig.
  5. Lobo, S.: ¬Das Ende von Google, wie wir es kannten : Bessere Treffer durch ChatGPT (2022) 0.01
    0.009414939 = product of:
      0.037659757 = sum of:
        0.037659757 = weight(_text_:und in 1853) [ClassicSimilarity], result of:
          0.037659757 = score(doc=1853,freq=2.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24504554 = fieldWeight in 1853, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1853)
      0.25 = coord(1/4)
    
    Abstract
    Höchste Alarmstufe bei der weltgrößten Suchmaschine: Mit ChatGPT und künstlicher Intelligenz könnte eine neue Ära beginnen.
  6. Dampz, N.: ChatGPT interpretiert jetzt auch Bilder : Neue Version (2023) 0.01
    0.009414939 = product of:
      0.037659757 = sum of:
        0.037659757 = weight(_text_:und in 1875) [ClassicSimilarity], result of:
          0.037659757 = score(doc=1875,freq=2.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24504554 = fieldWeight in 1875, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1875)
      0.25 = coord(1/4)
    
    Abstract
    Das kalifornische Unternehmen Open AI hat eine neue Version ihres Chatbots ChatGPT vorgestellt. Auffallendste Neuerung: Die Software, die mit Künstlicher Intelligenz funktioniert und bisher auf Text ausgerichtet war, interpretiert nun auch Bilder.
  7. Räwel, J.: Automatisierte Kommunikation (2023) 0.01
    0.009414939 = product of:
      0.037659757 = sum of:
        0.037659757 = weight(_text_:und in 1910) [ClassicSimilarity], result of:
          0.037659757 = score(doc=1910,freq=8.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24504554 = fieldWeight in 1910, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1910)
      0.25 = coord(1/4)
    
    Content
    In den Sozialwissenschaften gibt es zwei fundamental unterschiedliche Auffassungen, was unter Kommunikation zu verstehen ist. Angelehnt an das Alltagsverständnis und daher auch in den Sozialwissenschaften dominant, gehen "handlungstheoretische" Vorstellungen von Kommunikation davon aus, dass diese instrumentellen Charakters ist. Es sind Menschen in ihrer physisch-psychischen Kompaktheit, die mittels Kommunikation, sei dies in mündlicher oder schriftlicher Form, Informationen austauschen. Kommunizierende werden nach dieser Vorstellung wechselseitig als Sender bzw. Empfänger von Informationen verstanden. Kommunikation dient der mehr oder minder erfolgreichen Übertragung von Informationen von Mensch zu Mensch. Davon paradigmatisch zu unterscheiden sind "systemtheoretische" Vorstellungen von Kommunikation, wie sie wesentlich von dem 1998 verstorbenen Soziologen Niklas Luhmann in Vorschlag gebracht wurden. Nach diesem Paradigma wird behauptet, dass ihr "Eigenleben" charakteristisch ist. Kommunikation zeichnet sich durch ihre rekursive Eigendynamik aus, welche die Möglichkeiten der Kommunizierenden begrenzt, diese zu steuern und zu beeinflussen. Gemäß dieser Konzeption befindet sich individuelles Bewusstseins - in ihrer je gedanklichen Eigendynamik - in der Umwelt von Kommunikationssystemen und vermag diese mittels Sprache lediglich zu irritieren, nicht aber kontrollierend zu determinieren. Dies schon deshalb nicht, weil in Kommunikationssystemen, etwa einem Gespräch als einem "Interaktionssystem", mindestens zwei bewusste Systeme mit ihrer je unterschiedlichen gedanklichen Eigendynamik beteiligt sind.
    Series
    Telepolis / Kultur und Medien
  8. Lutz-Westphal, B.: ChatGPT und der "Faktor Mensch" im schulischen Mathematikunterricht (2023) 0.01
    0.009414939 = product of:
      0.037659757 = sum of:
        0.037659757 = weight(_text_:und in 1931) [ClassicSimilarity], result of:
          0.037659757 = score(doc=1931,freq=2.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24504554 = fieldWeight in 1931, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1931)
      0.25 = coord(1/4)
    
  9. Hartnett, K.: Sind Sprachmodelle bald die besseren Mathematiker? (2023) 0.01
    0.009414939 = product of:
      0.037659757 = sum of:
        0.037659757 = weight(_text_:und in 1990) [ClassicSimilarity], result of:
          0.037659757 = score(doc=1990,freq=2.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24504554 = fieldWeight in 1990, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1990)
      0.25 = coord(1/4)
    
    Abstract
    Algorithmen wie ChatGPT tun sich selbst mit einfachen Rechenaufgaben noch immer schwer. Zwei neue Ansätze sollen das ändern - und könnten KI deutlich intelligenter machen.
  10. Weßels, D.: ChatGPT - ein Meilenstein der KI-Entwicklung (2023) 0.01
    0.009414939 = product of:
      0.037659757 = sum of:
        0.037659757 = weight(_text_:und in 2053) [ClassicSimilarity], result of:
          0.037659757 = score(doc=2053,freq=2.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24504554 = fieldWeight in 2053, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=2053)
      0.25 = coord(1/4)
    
    Abstract
    Im November wurde der Chatbot ChatGPT veröffentlicht. Die Sprach-KI verändert die Arbeit von Lehrenden und Lernenden. Eine Zeitenwende in der Bildung?
  11. Sprachtechnologie, mobile Kommunikation und linguistische Ressourcen : Beiträge zur GLDV Tagung 2005 in Bonn (2005) 0.01
    0.009367746 = product of:
      0.037470985 = sum of:
        0.037470985 = weight(_text_:und in 4578) [ClassicSimilarity], result of:
          0.037470985 = score(doc=4578,freq=22.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24381724 = fieldWeight in 4578, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4578)
      0.25 = coord(1/4)
    
    Abstract
    Die Sprachtechnologie wird mobil. Sprachtechnologische Anwendungen begegnen uns zunehmend außerhalb des Büros oder der eigenen vier Wände. Mit gesprochener Sprache steuern Benutzer ihre Mobiltelefone, fragen Datenbanken ab oder führen Geschäftsvorgänge durch. In diesen Bereichen finden eklektisch sprachwissenschaftliche Modelle Anwendung, vor allem solche, die auf linguistischen Ressourcen - wie Wortnetzen oder Ontologien - trainiert werden müssen, aber auch Modelle der Dialog-Repräsentation und -Struktur wie etwa des Turn Taking. Dieser Tagungsband vereint die Beiträge zum Hauptprogramm der Jahrestagung 2005 der Gesellschaftfür Linguistische Datenverarbeitung (GLDV), zu den Workshops GermaNetHund Turn Taking sowie die Beiträge zum GLDV Preis 2005 für die beste Abschlussarbeit.
    Content
    INHALT: Chris Biemann/Rainer Osswald: Automatische Erweiterung eines semantikbasierten Lexikons durch Bootstrapping auf großen Korpora - Ernesto William De Luca/Andreas Nürnberger: Supporting Mobile Web Search by Ontology-based Categorization - Rüdiger Gleim: HyGraph - Ein Framework zur Extraktion, Repräsentation und Analyse webbasierter Hypertextstrukturen - Felicitas Haas/Bernhard Schröder: Freges Grundgesetze der Arithmetik: Dokumentbaum und Formelwald - Ulrich Held/ Andre Blessing/Bettina Säuberlich/Jürgen Sienel/Horst Rößler/Dieter Kopp: A personalized multimodal news service -Jürgen Hermes/Christoph Benden: Fusion von Annotation und Präprozessierung als Vorschlag zur Behebung des Rohtextproblems - Sonja Hüwel/Britta Wrede/Gerhard Sagerer: Semantisches Parsing mit Frames für robuste multimodale Mensch-Maschine-Kommunikation - Brigitte Krenn/Stefan Evert: Separating the wheat from the chaff- Corpus-driven evaluation of statistical association measures for collocation extraction - Jörn Kreutel: An application-centered Perspective an Multimodal Dialogue Systems - Jonas Kuhn: An Architecture for Prallel Corpusbased Grammar Learning - Thomas Mandl/Rene Schneider/Pia Schnetzler/Christa Womser-Hacker: Evaluierung von Systemen für die Eigennamenerkennung im crosslingualen Information Retrieval - Alexander Mehler/Matthias Dehmer/Rüdiger Gleim: Zur Automatischen Klassifikation von Webgenres - Charlotte Merz/Martin Volk: Requirements for a Parallel Treebank Search Tool - Sally YK. Mok: Multilingual Text Retrieval an the Web: The Case of a Cantonese-Dagaare-English Trilingual e-Lexicon -
    Darja Mönke: Ein Parser für natürlichsprachlich formulierte mathematische Beweise - Martin Müller: Ontologien für mathematische Beweistexte - Moritz Neugebauer: The status of functional phonological classification in statistical speech recognition - Uwe Quasthoff: Kookkurrenzanalyse und korpusbasierte Sachgruppenlexikographie - Reinhard Rapp: On the Relationship between Word Frequency and Word Familiarity - Ulrich Schade/Miloslaw Frey/Sebastian Becker: Computerlinguistische Anwendungen zur Verbesserung der Kommunikation zwischen militärischen Einheiten und deren Führungsinformationssystemen - David Schlangen/Thomas Hanneforth/Manfred Stede: Weaving the Semantic Web: Extracting and Representing the Content of Pathology Reports - Thomas Schmidt: Modellbildung und Modellierungsparadigmen in der computergestützten Korpuslinguistik - Sabine Schröder/Martina Ziefle: Semantic transparency of cellular phone menus - Thorsten Trippel/Thierry Declerck/Ulrich Held: Standardisierung von Sprachressourcen: Der aktuelle Stand - Charlotte Wollermann: Evaluation der audiovisuellen Kongruenz bei der multimodalen Sprachsynsthese - Claudia Kunze/Lothar Lemnitzer: Anwendungen des GermaNet II: Einleitung - Claudia Kunze/Lothar Lemnitzer: Die Zukunft der Wortnetze oder die Wortnetze der Zukunft - ein Roadmap-Beitrag -
    Karel Pala: The Balkanet Experience - Peter M. Kruse/Andre Nauloks/Dietmar Rösner/Manuela Kunze: Clever Search: A WordNet Based Wrapper for Internet Search Engines - Rosmary Stegmann/Wolfgang Woerndl: Using GermaNet to Generate Individual Customer Profiles - Ingo Glöckner/Sven Hartrumpf/Rainer Osswald: From GermaNet Glosses to Formal Meaning Postulates -Aljoscha Burchardt/ Katrin Erk/Anette Frank: A WordNet Detour to FrameNet - Daniel Naber: OpenThesaurus: ein offenes deutsches Wortnetz - Anke Holler/Wolfgang Grund/Heinrich Petith: Maschinelle Generierung assoziativer Termnetze für die Dokumentensuche - Stefan Bordag/Hans Friedrich Witschel/Thomas Wittig: Evaluation of Lexical Acquisition Algorithms - Iryna Gurevych/Hendrik Niederlich: Computing Semantic Relatedness of GermaNet Concepts - Roland Hausser: Turn-taking als kognitive Grundmechanik der Datenbanksemantik - Rodolfo Delmonte: Parsing Overlaps - Melanie Twiggs: Behandlung des Passivs im Rahmen der Datenbanksemantik- Sandra Hohmann: Intention und Interaktion - Anmerkungen zur Relevanz der Benutzerabsicht - Doris Helfenbein: Verwendung von Pronomina im Sprecher- und Hörmodus - Bayan Abu Shawar/Eric Atwell: Modelling turn-taking in a corpus-trained chatbot - Barbara März: Die Koordination in der Datenbanksemantik - Jens Edlund/Mattias Heldner/Joakim Gustafsson: Utterance segmentation and turn-taking in spoken dialogue systems - Ekaterina Buyko: Numerische Repräsentation von Textkorpora für Wissensextraktion - Bernhard Fisseni: ProofML - eine Annotationssprache für natürlichsprachliche mathematische Beweise - Iryna Schenk: Auflösung der Pronomen mit Nicht-NP-Antezedenten in spontansprachlichen Dialogen - Stephan Schwiebert: Entwurf eines agentengestützten Systems zur Paradigmenbildung - Ingmar Steiner: On the analysis of speech rhythm through acoustic parameters - Hans Friedrich Witschel: Text, Wörter, Morpheme - Möglichkeiten einer automatischen Terminologie-Extraktion.
    Series
    Sprache, Sprechen und Computer. Bd. 8
  12. Winiwarter, W.: Bewältigung der Informationsflut : Stand der Computerlinguistik (1996) 0.01
    0.009320314 = product of:
      0.037281256 = sum of:
        0.037281256 = weight(_text_:und in 4167) [ClassicSimilarity], result of:
          0.037281256 = score(doc=4167,freq=4.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24258271 = fieldWeight in 4167, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4167)
      0.25 = coord(1/4)
    
    Abstract
    In vielen Bereichen der Computerlinguistik kann die Situation konstatiert werden, daß eine anfängliche euphorische Aufbruchsstimmung einer resignativen Stagnationsphase gewichen ist. In gleichem Maße wurde damit aber auch Raum für eine realistischere Sicht der Dinge geschaffen, welche von 'Toy Systems' Abschied nimmt und sich praktischen Fragestellungen widmet. Als eines der dringlichsten Probleme ist hier die effiziente Bewältigung der von Tag zu Tag größer werdenden Informationsflut anzusehen. Die vorliegende Arbeit gibt einen aktuellen Überblick über die derzeit zur Verfügung stehenden Techniken. Der Schwerpunkt wird hierbei auf Information Extraction Systeme gelegt, die auf der Grundlage internationaler Evaluierungsprogramme und allgemein verfügbarer linguistischer Ressourcen bereits beachtliche Erfolge erzielen konnten
  13. Holland, M.: Erstes wissenschaftliches Buch eines Algorithmus' veröffentlicht (2019) 0.01
    0.009320314 = product of:
      0.037281256 = sum of:
        0.037281256 = weight(_text_:und in 227) [ClassicSimilarity], result of:
          0.037281256 = score(doc=227,freq=4.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24258271 = fieldWeight in 227, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=227)
      0.25 = coord(1/4)
    
    Abstract
    Der Wissenschaftsverlag Springer Nature hat nach eigenen Angaben das erste Buch veröffentlicht, das von einem Algorithmus verfasst wurde. Bei Springer Nature ist das nach Angaben des Wissenschaftsverlags erste maschinengenerierte Buch erschienen: "Lithium-Ion Batteries - A Machine-Generated Summary of Current Research" biete einen Überblick über die neuesten Forschungspublikationen über Lithium-Ionen-Batterien, erklärte die Goethe-Universität Frankfurt am Main. Dort wurde im Bereich Angewandte Computerlinguistik unter der Leitung von Christian Chiarcos jenes Verfahren entwickelt, das Textinhalte automatisch analysiert und relevante Publikationen auswählen kann. Es heißt "Beta Writer" und steht als Autor über dem Buch.
  14. Weiß, E.-M.: ChatGPT soll es richten : Microsoft baut KI in Suchmaschine Bing ein (2023) 0.01
    0.009320314 = product of:
      0.037281256 = sum of:
        0.037281256 = weight(_text_:und in 1867) [ClassicSimilarity], result of:
          0.037281256 = score(doc=1867,freq=4.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.24258271 = fieldWeight in 1867, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1867)
      0.25 = coord(1/4)
    
    Abstract
    ChatGPT, die künstliche Intelligenz der Stunde, ist von OpenAI entwickelt worden. Und OpenAI ist in der Vergangenheit nicht unerheblich von Microsoft unterstützt worden. Nun geht es ums Profitieren: Die KI soll in die Suchmaschine Bing eingebaut werden, was eine direkte Konkurrenz zu Googles Suchalgorithmen und Intelligenzen bedeutet. Bing war da bislang nicht sonderlich erfolgreich. Wie "The Information" mit Verweis auf zwei Insider berichtet, plant Microsoft, ChatGPT in seine Suchmaschine Bing einzubauen. Bereits im März könnte die neue, intelligente Suche verfügbar sein. Microsoft hatte zuvor auf der hauseigenen Messe Ignite zunächst die Integration des Bildgenerators DALL·E 2 in seine Suchmaschine angekündigt - ohne konkretes Startdatum jedoch. Fragt man ChatGPT selbst, bestätigt der Chatbot seine künftige Aufgabe noch nicht. Weiß aber um potentielle Vorteile.
  15. Natural language processing and speech technology : Results of the 3rd KONVENS Conference, Bielefeld, October 1996 (1996) 0.01
    0.00798884 = product of:
      0.03195536 = sum of:
        0.03195536 = weight(_text_:und in 360) [ClassicSimilarity], result of:
          0.03195536 = score(doc=360,freq=4.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.20792803 = fieldWeight in 360, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=360)
      0.25 = coord(1/4)
    
    Content
    Enthält u.a. die Beiträge: HILDEBRANDT, B. u.a.: Kognitive Modellierung von Sprach- und Bildverstehen; KELLER, F.: How do humans deal with ungrammatical input? Experimental evidence and computational modelling; MARX, J:: Die 'Computer-Talk-These' in der Sprachgenerierung: Hinweise zur Gestaltung natürlichsprachlicher Zustandsanzeigen in multimodalen Informationssystemen; SCHULTZ, T. u. H. SOLTAU: Automatische Identifizierung spontan gesprochener Sprachen mit neuronalen Netzen; WAUSCHKUHN, O.: Ein Werkzeug zur partiellen syntaktischen Analyse deutscher Textkorpora; LEZIUS, W., R. RAPP u. M. WETTLER: A morphology-system and part-of-speech tagger for German; KONRAD, K. u.a.: CLEARS: ein Werkzeug für Ausbildung und Forschung in der Computerlinguistik
  16. Ruge, G.; Goeser, S.: Information Retrieval ohne Linguistik (1998) 0.01
    0.00798884 = product of:
      0.03195536 = sum of:
        0.03195536 = weight(_text_:und in 3528) [ClassicSimilarity], result of:
          0.03195536 = score(doc=3528,freq=4.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.20792803 = fieldWeight in 3528, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3528)
      0.25 = coord(1/4)
    
    Abstract
    Natürlicherweise sollte man erwarten, daß linguistische Textanalyseverfahren die Effektivität und Benutzerfreundlichkeit von Information Retrieval Systemen verbessern, da sowohl Dokumente als auch Suchanfragen die interessierenden Inhalte linguistisch enkodieren. Ein Retrievalabgleich auf der Ebene der linguistischen Inhaltsdarstellung müßte demzufolge zu besseren Retrievalsystemen führen als ein Abgleich auf Wort- oder gar Zeichenebene. Tatsächlich aber ist immer noch weitgehend unklar, inwieweit linguistische Textanalyseverfahren Retrievalsysteme verbessern können. Evaluationen von Retrievalsystemen mit linguistischen Komponenten führen nach wie vor zu unterschiedlichen, teils gegenläufigen Ergebnissen, obwohl die dazu erforderliche Computerlinguistik große Fortschritte gemacht hat. Wir gehen der Frage nach, wie es zu diesen kontraintuitiven Ergenissen kommt. Dazu wird der Stand der Kunst im linguistischen IR zusammengefaßt, so daß die Ergebnisse anhand des Vergleich verschiedener Evaluierungen diskutiert werden können.
    Source
    nfd Information - Wissenschaft und Praxis. 49(1998) H.6, S.361-369
  17. Manning, C.D.; Schütze, H.: Foundations of statistical natural language processing (2000) 0.01
    0.00798884 = product of:
      0.03195536 = sum of:
        0.03195536 = weight(_text_:und in 2603) [ClassicSimilarity], result of:
          0.03195536 = score(doc=2603,freq=4.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.20792803 = fieldWeight in 2603, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2603)
      0.25 = coord(1/4)
    
    BK
    18.00 (Einzelne Sprachen und Literaturen allgemein)
    Classification
    18.00 (Einzelne Sprachen und Literaturen allgemein)
  18. Dietze, J.; Völkel, H.: Verifikation einer Methode der lexikalischen Semantik : zur computergestützten Bestimmung der semantischen Konsistenz und des semantischen Abstands (1992) 0.01
    0.0075319507 = product of:
      0.030127803 = sum of:
        0.030127803 = weight(_text_:und in 6679) [ClassicSimilarity], result of:
          0.030127803 = score(doc=6679,freq=2.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.19603643 = fieldWeight in 6679, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6679)
      0.25 = coord(1/4)
    
  19. Helbig, H.: ¬Die semantische Struktur natürlicher Sprache : Wissensrepräsentation mit MultiNet (2001) 0.01
    0.0075319507 = product of:
      0.030127803 = sum of:
        0.030127803 = weight(_text_:und in 7071) [ClassicSimilarity], result of:
          0.030127803 = score(doc=7071,freq=2.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.19603643 = fieldWeight in 7071, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=7071)
      0.25 = coord(1/4)
    
    Footnote
    2. Aufl. 2008 u.d.T.: Wissensverarbeitung und die Semantik der natürlichen Sprache
  20. Nie wieder nachschlagen? : Hexaglot Blitz Translator (2000) 0.01
    0.0075319507 = product of:
      0.030127803 = sum of:
        0.030127803 = weight(_text_:und in 7441) [ClassicSimilarity], result of:
          0.030127803 = score(doc=7441,freq=2.0), product of:
            0.15368472 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.069292925 = queryNorm
            0.19603643 = fieldWeight in 7441, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=7441)
      0.25 = coord(1/4)
    
    Abstract
    Noch leidet die komplette Übersetzungs-Software an diversen Kinderkrankheiten. Doch reichen schon einzelne Fragmente einer Fremdsprache aus, um einen Text verstehen zu können, ohne viel Zeit in dicken Wörterbüchern aufzuwenden. Voraussetzung dafür ist, dass man einerseits vom bedruckten Papier Abstand nimmt und seine Texte vom Bildschirm liest, and andererseits die Verwendung des Hexaglot Blitztranslators

Years

Languages

  • d 193
  • e 21
  • m 4
  • ru 1
  • More… Less…

Types

  • a 154
  • m 40
  • el 36
  • s 12
  • x 9
  • d 2
  • More… Less…

Subjects

Classifications