Search (217 results, page 1 of 11)

  • × theme_ss:"Computerlinguistik"
  1. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.19
    0.19209796 = product of:
      0.2561306 = sum of:
        0.10310349 = weight(_text_:jahre in 4206) [ClassicSimilarity], result of:
          0.10310349 = score(doc=4206,freq=2.0), product of:
            0.36739168 = queryWeight, product of:
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.07232031 = queryNorm
            0.28063643 = fieldWeight in 4206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
        0.05895764 = weight(_text_:und in 4206) [ClassicSimilarity], result of:
          0.05895764 = score(doc=4206,freq=18.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.36756828 = fieldWeight in 4206, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
        0.09406947 = weight(_text_:headings in 4206) [ClassicSimilarity], result of:
          0.09406947 = score(doc=4206,freq=2.0), product of:
            0.35092717 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.07232031 = queryNorm
            0.26805982 = fieldWeight in 4206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
      0.75 = coord(3/4)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
    Content
    Editorial zu einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl-: http://0277.ch/ojs/index.php/cdrs_0277/article/view/159/349.
  2. Zimmermann, H.H.: Linguistische Verfahren zur Archivierung und zum Wiederfinden unstrukturierter Texte (1983) 0.10
    0.09968601 = product of:
      0.19937202 = sum of:
        0.14434488 = weight(_text_:jahre in 557) [ClassicSimilarity], result of:
          0.14434488 = score(doc=557,freq=2.0), product of:
            0.36739168 = queryWeight, product of:
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.07232031 = queryNorm
            0.392891 = fieldWeight in 557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.0546875 = fieldNorm(doc=557)
        0.055027135 = weight(_text_:und in 557) [ClassicSimilarity], result of:
          0.055027135 = score(doc=557,freq=8.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.34306374 = fieldWeight in 557, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=557)
      0.5 = coord(2/4)
    
    Abstract
    Die technologischen Entwicklungen der 80er und 90er Jahre werden den Bedarf an intelligenten Verfahren in der automatischen Texterschließung und -archivierung sprunghaft steigen lassen. Inzwischen existieren eine Reihe linguistischer Verfahren, die auch große Datenmengen, wie sie in der Büro- und Fachkommunikation auftreten, zu bewältigen helfen. Dabei ist eine wesentliche Zielsetzung, den Anwender von 'technischen' Handhabungen, wie sie die herkömmlichen Informations-Retrieval-Systeme noch erfordern, schrittweise zu entlasten in Richtung auf einen ehe natürlichsprachigen Zugang. Während dabei in den nächsten Jahren 'verstehensorietierte' Ansätze nur in ausgewählten Bereichen zum Einsatz kommen können, werden Verfahren auf morphologisch-syntaktischer Basis die bisherigen oberflächenorientierten Systeme schrittweise ersetzen
  3. Siegel, M.: Maschinelle Übersetzung (2023) 0.10
    0.09820482 = product of:
      0.19640964 = sum of:
        0.16496557 = weight(_text_:jahre in 1793) [ClassicSimilarity], result of:
          0.16496557 = score(doc=1793,freq=2.0), product of:
            0.36739168 = queryWeight, product of:
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.07232031 = queryNorm
            0.44901827 = fieldWeight in 1793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.0625 = fieldNorm(doc=1793)
        0.031444076 = weight(_text_:und in 1793) [ClassicSimilarity], result of:
          0.031444076 = score(doc=1793,freq=2.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.19603643 = fieldWeight in 1793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1793)
      0.5 = coord(2/4)
    
    Abstract
    Die maschinelle Übersetzung von Sprache ist ein Menschheitstraum, an dem nunmehr schon fast hundert Jahre geforscht wird. Maschinelle Übersetzung ermöglicht im Idealfall den Erhalt der diversen Sprachkulturen bei der gleichzeitigen Möglichkeit einer interkulturellen Verständigung. Die Forschung zur maschinellen Übersetzung ist dabei von Brüchen geprägt.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  4. Kiss, T.: Anmerkungen zur scheinbaren Konkurrenz von numerischen und symbolischen Verfahren in der Computerlinguistik (2002) 0.10
    0.09501524 = product of:
      0.19003049 = sum of:
        0.14286438 = weight(_text_:jahre in 2752) [ClassicSimilarity], result of:
          0.14286438 = score(doc=2752,freq=6.0), product of:
            0.36739168 = queryWeight, product of:
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.07232031 = queryNorm
            0.38886124 = fieldWeight in 2752, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.03125 = fieldNorm(doc=2752)
        0.047166113 = weight(_text_:und in 2752) [ClassicSimilarity], result of:
          0.047166113 = score(doc=2752,freq=18.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.29405463 = fieldWeight in 2752, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2752)
      0.5 = coord(2/4)
    
    Abstract
    Veränderungen in der Mode vollziehen sich schrittweise, allmählich, oftmals unmerklich. Manchmal kommt es dann doch zu einem plötzlichen Bruch, zu einer eindeutig bestimmten Opposition zwischen dem modischen Jetzt und seinem Vorgänger. Deutlich erkennbar etwa, als um die Wende von den 70er zu den 80er Jahren die weite Karotte die enge Schlaghose verdrängte und im Gefolge dieses Wechsels taillierte Sakkos und Hemden big suits und Polohemden weichen mussten. Etwas Ähnliches hat sich vor einigen Jahren in der Computerlinguistik ereignet: Wurde diese seit Beginn der 80er Jahre durch deduktive, regelbasierte Verfahren beherrscht, so gab es seit Beginn der 90er Jahre zunächst eine Hinwendung, schließlich Mitte der 90er Jahre eine Flucht zu induktiven, numerisch basierten Verfahren, die mittlerweile die Computerlinguistik nahezu vollständig zu beherrschen scheinen.
    Man kann wohl abschließend festhalten, dass von einer Überlegenheit statistischer Verfahren zumindest im Bereich des Tagging eigentlich nicht gesprochen werden sollte. Darüber hinaus muss die Opposition zwischen regelbasierten und numerischen Verfahren hier aufgeweicht werden, denn auch die statistischen Verfahren verwenden Regelsysteme. Selbst beim Lernen ohne Referenzkorpus ist ja zumindest eine Zuordnung der Wörter zu einem Lexikon bzw. auch eine heuristische Erkennung unbekannter Wörter nach Regeln notwendig. Statistische Verfahren haben - und dies wurde hier wahrscheinlich nicht ausreichend betont - durchaus ihre Berechtigung, sie sind nützlich; sie gestatten, insbesondere im Vergleich zur Introspektion, eine unmittelbarere und breitere Heranführung an das Phänomen Sprache. Die vorhandenen umfangreichen elektronischen Korpora verlangen nahezu danach, Sprache auch mit statistischen Mitteln zu untersuchen. Allerdings können die statistischen Verfahren die regelbasierten Verfahren nicht ersetzen. Somit muss dem Diktum vom "Es geht nicht anders" deutlich widersprochen werden. Dass die statistischen Verfahren zur Zeit so en vogue sind und die regelbasierten Verfahren aussehen lassen wie eine alte Dallas-Folge, mag wohl auch daran liegen, dass zu viele Vertreter des alten Paradigmas nicht die Energie aufbringen, sich dem neuen Paradigma so weit zu öffnen, dass eine kritische Auseinandersetzung mit dem neuen auf der Basis des alten möglich wird. Die Mathematik ist eine geachtete, weil schwierige Wissenschaft, die statistische Sprachverarbeitung ist eine gefürchtete, weil in ihren Eigenschaften oftmals nicht gründlich genug betrachtete Disziplin.
  5. dpa: 14 Forscher mit viel Geld angelockt : Wolfgang-Paul-Preis (2001) 0.08
    0.08228562 = product of:
      0.16457124 = sum of:
        0.123724185 = weight(_text_:jahre in 814) [ClassicSimilarity], result of:
          0.123724185 = score(doc=814,freq=2.0), product of:
            0.36739168 = queryWeight, product of:
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.07232031 = queryNorm
            0.3367637 = fieldWeight in 814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.046875 = fieldNorm(doc=814)
        0.04084706 = weight(_text_:und in 814) [ClassicSimilarity], result of:
          0.04084706 = score(doc=814,freq=6.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.25465882 = fieldWeight in 814, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=814)
      0.5 = coord(2/4)
    
    Content
    Darin. "Die Sprachwissenschaftlerin Christiane Fellbaum (dpa-Bild) wird ihr Preisgeld für das an der Berlin-Brandenburgischen Akademie der Wissenschaften zu erstellende "Digitale Wörterbuch der Deutschen Sprache des 20. Jahrhunderts" einsetzen. Sie setzt mit ihrem Computer dort an, wo konventionelle Wörterbücher nicht mehr mithalten können. Sie stellt per Knopfdruck Wortverbindungen her, die eine Sprache so reich an Bildern und Vorstellungen - und damit einzigartig - machen. Ihr elektronisches Lexikon aus über 500 Millionen Wörtern soll später als Datenbank zugänglich sein. Seine Grundlage ist die deutsche Sprache der vergangenen hundert Jahre - ein repräsentativer Querschnitt, zusammengestellt aus Literatur, Zeitungsdeutsch, Fachbuchsprache, Werbetexten und niedergeschriebener Umgangssprache. Wo ein Wörterbuch heute nur ein Wort mit Synonymen oder wenigen Verwendungsmöglichkeiten präsentiert, spannt die Forscherin ein riesiges Netz von Wortverbindungen. Bei Christiane Fellbaums Systematik heißt es beispielsweise nicht nur "verlieren", sondern auch noch "den Faden" oder "die Geduld" verlieren - samt allen möglichen weiteren Kombinationen, die der Computer wie eine Suchmaschine in seinen gespeicherten Texten findet."
  6. Heyer, G.; Quasthoff, U.; Wittig, T.: Text Mining : Wissensrohstoff Text. Konzepte, Algorithmen, Ergebnisse (2006) 0.08
    0.07726511 = product of:
      0.15453023 = sum of:
        0.082482785 = weight(_text_:jahre in 218) [ClassicSimilarity], result of:
          0.082482785 = score(doc=218,freq=2.0), product of:
            0.36739168 = queryWeight, product of:
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.07232031 = queryNorm
            0.22450913 = fieldWeight in 218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.03125 = fieldNorm(doc=218)
        0.072047435 = weight(_text_:und in 218) [ClassicSimilarity], result of:
          0.072047435 = score(doc=218,freq=42.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.4491759 = fieldWeight in 218, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=218)
      0.5 = coord(2/4)
    
    Abstract
    Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das Forschungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Das erste deutsche Lehrbuch zu einer bahnbrechenden Technologie: Text Mining: Wissensrohstoff Text Konzepte, Algorithmen, Ergebnisse Ein großer Teil des Weltwissens befindet sich in Form digitaler Texte im Internet oder in Intranets. Heutige Suchmaschinen nutzen diesen Wissensrohstoff nur rudimentär: Sie können semantische Zusammen-hänge nur bedingt erkennen. Alle warten auf das semantische Web, in dem die Ersteller von Text selbst die Semantik einfügen. Das wird aber noch lange dauern. Es gibt jedoch eine Technologie, die es bereits heute ermöglicht semantische Zusammenhänge in Rohtexten zu analysieren und aufzubereiten. Das For-schungsgebiet "Text Mining" ermöglicht es mit Hilfe statistischer und musterbasierter Verfahren, Wissen aus Texten zu extrahieren, zu verarbeiten und zu nutzen. Hier wird die Basis für die Suchmaschinen der Zukunft gelegt. Was fällt Ihnen bei dem Wort "Stich" ein? Die einen denken an Tennis, die anderen an Skat. Die verschiedenen Zusammenhänge können durch Text Mining automatisch ermittelt und in Form von Wortnetzen dargestellt werden. Welche Begriffe stehen am häufigsten links und rechts vom Wort "Festplatte"? Welche Wortformen und Eigennamen treten seit 2001 neu in der deutschen Sprache auf? Text Mining beantwortet diese und viele weitere Fragen. Tauchen Sie mit diesem Lehrbuch ein in eine neue, faszinierende Wissenschaftsdisziplin und entdecken Sie neue, bisher unbekannte Zusammenhänge und Sichtweisen. Sehen Sie, wie aus dem Wissensrohstoff Text Wissen wird! Dieses Lehrbuch richtet sich sowohl an Studierende als auch an Praktiker mit einem fachlichen Schwerpunkt in der Informatik, Wirtschaftsinformatik und/oder Linguistik, die sich über die Grundlagen, Verfahren und Anwendungen des Text Mining informieren möchten und Anregungen für die Implementierung eigener Anwendungen suchen. Es basiert auf Arbeiten, die während der letzten Jahre an der Abteilung Automatische Sprachverarbeitung am Institut für Informatik der Universität Leipzig unter Leitung von Prof. Dr. Heyer entstanden sind. Eine Fülle praktischer Beispiele von Text Mining-Konzepten und -Algorithmen verhelfen dem Leser zu einem umfassenden, aber auch detaillierten Verständnis der Grundlagen und Anwendungen des Text Mining. Folgende Themen werden behandelt: Wissen und Text Grundlagen der Bedeutungsanalyse Textdatenbanken Sprachstatistik Clustering Musteranalyse Hybride Verfahren Beispielanwendungen Anhänge: Statistik und linguistische Grundlagen 360 Seiten, 54 Abb., 58 Tabellen und 95 Glossarbegriffe Mit kostenlosen e-learning-Kurs "Schnelleinstieg: Sprachstatistik" Zusätzlich zum Buch gibt es in Kürze einen Online-Zertifikats-Kurs mit Mentor- und Tutorunterstützung.
  7. Geißler, S.: Natürliche Sprachverarbeitung und Künstliche Intelligenz : ein wachsender Markt mit vielen Chancen. Das Beispiel Kairntech (2020) 0.07
    0.07352396 = product of:
      0.14704792 = sum of:
        0.10310349 = weight(_text_:jahre in 924) [ClassicSimilarity], result of:
          0.10310349 = score(doc=924,freq=2.0), product of:
            0.36739168 = queryWeight, product of:
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.07232031 = queryNorm
            0.28063643 = fieldWeight in 924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.0390625 = fieldNorm(doc=924)
        0.043944433 = weight(_text_:und in 924) [ClassicSimilarity], result of:
          0.043944433 = score(doc=924,freq=10.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.27396923 = fieldWeight in 924, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=924)
      0.5 = coord(2/4)
    
    Abstract
    Vor rund einem Jahr haben wir an dieser Stelle die aufregende Dynamik auf den Gebieten der Natürlichen Sprachverarbeitung (NLP) und der Künstlichen Intelligenz (KI) beschrieben: Seit einigen Jahren sorgen Fortschritte in den algorithmischen Grundlagen, in der einsetzbaren Rechenleistung sowie in der Verfügbarkeit von großen Datenmengen für immer leistungsfähigere Systeme. NLP-Anwendungen seien damit mehr denn je reif für den praktischen Einsatz, hatten wir argumentiert. Diese Entwicklung verfolgen wir bei Kairntech nicht allein als interessierte Beobachter, sondern sie stellt die Grundlage unserer Arbeit dar, mit der wir NLP- und KI-Ansätze zur Anwendung auf konkreten geschäftskritischen Prozessen entwickeln und einsetzen. Experten gehen auch für die kommenden Jahre von einem anhaltenden Wachstum des weltweiten Marktes für NLP aus: Mit einem durchschnittlichen Wachstum von über 20 Prozent pro Jahr werde der Markt bis 2025 auf geschätzte 6,24 Milliarden US-$ anwachsen. Im Bereich der Forschung ist das Wachstum sogar noch stürmischer: So ist die Zahl der Einreichungen zur ACL-Konferenz, dem vielleicht wichtigsten jährlichen Event in diesem Gebiet, von 2018 bis 2019 um ganze 75 Prozent angestiegen. Im vorliegenden Text wollen wir die Richtung, die wir bei Kairntech mit der Gründung vor einem Jahr eingeschlagen haben, beschreiben sowie von ersten Erfolgen auf diesem Weg berichten.
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.95-106
  8. Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007) 0.07
    0.07120429 = product of:
      0.14240858 = sum of:
        0.10310349 = weight(_text_:jahre in 1566) [ClassicSimilarity], result of:
          0.10310349 = score(doc=1566,freq=2.0), product of:
            0.36739168 = queryWeight, product of:
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.07232031 = queryNorm
            0.28063643 = fieldWeight in 1566, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1566)
        0.0393051 = weight(_text_:und in 1566) [ClassicSimilarity], result of:
          0.0393051 = score(doc=1566,freq=8.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.24504554 = fieldWeight in 1566, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1566)
      0.5 = coord(2/4)
    
    Abstract
    Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  9. Hahn, U.: Informationslinguistik : I: Einführung in das linguistische Information Retrieval (1985) 0.07
    0.07065463 = product of:
      0.14130926 = sum of:
        0.082482785 = weight(_text_:jahre in 4115) [ClassicSimilarity], result of:
          0.082482785 = score(doc=4115,freq=2.0), product of:
            0.36739168 = queryWeight, product of:
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.07232031 = queryNorm
            0.22450913 = fieldWeight in 4115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.03125 = fieldNorm(doc=4115)
        0.05882648 = weight(_text_:und in 4115) [ClassicSimilarity], result of:
          0.05882648 = score(doc=4115,freq=28.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.36675057 = fieldWeight in 4115, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4115)
      0.5 = coord(2/4)
    
    Abstract
    Als Bestandteil des Ausbildungsprogramms im Aufbaustudiun Informationswissenschaft an der Universitaet Konstanz (vgl. VOGEL 1984) ist ein Veranstaltungszyklus zur Informationslinguistik entwickelt worden. Die curriculare Planung zu diesem informationswissenschaftlichen Teilgebiet war stark eingebunden in die gesamte Organisation des Aufbaustudiums bzw. Diplomstudiengangs Informationswissenschaft, wobei insbesondere zwei Faktoren einen bestimmenden Einfluss auf die Definition der Lehrinhalte hatten: - die inhaltlichen Anforderungen des entwickelten Berufsbilds Informationsvermittlung und Informationsmanagemsnt - der zulaessige Zeitrahmen des Diplom-Studiengangs Informationswissenschaft (2 Jahre) und die nicht geringen Aufwaende fuer das uebrige Ausbildungsprogramm Die Informationslinguistik ist somit aus einer stark funktionalen Sicht heraus definiert worden, die den Leistungsbeitrag zur umfassenden informationswissenschaftlichen Ausbildung letztlich mehr betont als dis ziplinaere Eigendynamik. Die jetzt realisierte Verbindung aus obligatorischen und fakultativen Veranstaltungen zur Informationslinguistik erlaubt jedoch den an entsprechenden Fachfragen interessierten Studenten durchaus eine qualitativ ausreichende Vertiefung im Rahmen des informationswissenschaftlichen Lehrangebots, das ggf. noch durch Veranstaltungen der unterschiedlichen linguistischen Abteilungen an der Universitaet Konstanz ergaenzt werden kann. Schliesslich ist einer der Forschungsschwerpunkte des Lehrstuhls fuer Informationswissenschaft, das automatische Abstracting-Projekt TOPIC (HAHN/REIMER 1985), eindeutig dem Bereich Informationslinguistik zuzuordnen, der engagierten Studenten weitere Optionen fuer eine spezialisierte Ausbildung und - im Rahmen von durch Studien- und Diplomarbeiten klar abgesteckten Aufgaben - eigenstaendige Forschungs- und Entwicklungstaetigkeit eroeffnet. Informationslinguistik wird am Lehrstuhl fuer Informationswissenschaft der Universitaet Konstanz nun in folgender Konstellation gelehrt:
    (1) "Informationslinguistik I: Einfuehrung in das linguistische Information Retrieval" (2) "Informationslinguistik II: linguistische und statistische Verfahren im experimentellen Information Retrieval" (3) "Intelligente Informationssysteme: Verfahren der Kuenstlichen Intelligenz im experimentellen Information Retrieval" Kursabschnitt zu natuerlichsprachlichen Systemen (4) Spezialkurse zum automatischen Uebersetzen, Indexing und Retrieval, Abstracting usf. dienen zur Vertiefung informationslinguistischer Spezialthemen Die Kurse (1) und (3) gehoeren zu dem Pool der Pflichtveranstaltungen aller Studenten des Diplom-Studiengangs Informationswissenschaft, waehrend (2) und (4) lediglich zu den Wahlpflichtveranstaltungen zaehlen, die aber obligatorisch fuer die Studenten des Diplomstudiengangs sind, die ihren Schwerpunkt (z.B. in Form der Diplomarbeit) im Bereich Informationslinguistik suchen - fuer alle anderen Studenten zaehlen diese Kurse zum Zusatz angebot an Lehrveranstaltungen.
    Das vorliegende Skript entspricht dem Inhalt des Kurses "Informationslinguistik I" im WS 1982/83. Es ist im Maerz 1983 inhaltlich abgeschlossen und im Januar 1985 lediglich redaktionell ueberarbeitet worden. Die Erstellung des Skripts entspricht einem dezidierten Auftrag des Projekts "Informationsvermittlung", der die Entwicklung geeigneter Lehrmaterialien zum informationswissenschaftlichen Aufbaustudium vorsah. Aufgrund des engen Projektzeitrahmens (1983-85) kann das Skript nicht in dem Masse voll ausgereift und ausformuliert sein, wie es gaengigen Standards entspraeche. Dennoch hat es sich in den jaehrlichen Neuauflagen des Kurses trotz wechselnder Dozenten als weitgehend stabiles inhaltliches Geruest bewaehrt. Nichtsdestotrotz sollte gerade die Veroeffentlichung des Skripts als Anregung dienen, kritische Ko mmentare, Anmerkungen und Ergaenzungen zu diesem curricularen Entwurf herauszufordern, um damit die weitere disziplinaere Klaerung der Informationslinguistik zu foerdern.
    Content
    2. Teil u.d.T.: Linguistische und statistische Verfahren im experimentellen Information Retrieval
  10. Hahn, U.: Informationslinguistik : II: Einführung in das linguistische Information Retrieval (1985) 0.06
    0.06272612 = product of:
      0.12545224 = sum of:
        0.07217244 = weight(_text_:jahre in 4116) [ClassicSimilarity], result of:
          0.07217244 = score(doc=4116,freq=2.0), product of:
            0.36739168 = queryWeight, product of:
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.07232031 = queryNorm
            0.1964455 = fieldWeight in 4116, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4116)
        0.0532798 = weight(_text_:und in 4116) [ClassicSimilarity], result of:
          0.0532798 = score(doc=4116,freq=30.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.33217007 = fieldWeight in 4116, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4116)
      0.5 = coord(2/4)
    
    Abstract
    Als Bestandteil des Ausbildungsprogramms im Aufbaustudiun Informationswissenschaft an der Universitaet Konstanz (vgl. VOGEL 1984) ist ein Veranstaltungszyklus zur Informationslinguistik entwickelt worden. Die curriculare Planung zu diesem informationswissenschaftlichen Teilgebiet war stark eingebunden in die gesamte Organisation des Aufbaustudiums bzw. Diplomstudiengangs Informationswissenschaft, wobei insbesondere zwei Faktoren einen bestimmenden Einfluss auf die Definition der Lehrinhalte hatten: - die inhaltlichen Anforderungen des entwickelten Berufsbilds Informationsvermittlung und Informationsmanagemsnt - der zulaessige Zeitrahmen des Diplom-Studiengangs Informationswissenschaft (2 Jahre) und die nicht geringen Aufwaende fuer das uebrige Ausbildungsprogramm Die Informationslinguistik ist somit aus einer stark funktionalen Sicht heraus definiert worden, die den Leistungsbeitrag zur umfassenden informationswissenschaftlichen Ausbildung letztlich mehr betont als dis ziplinaere Eigendynamik. Die jetzt realisierte Verbindung aus obligatorischen und fakultativen Veranstaltungen zur Informationslinguistik erlaubt jedoch den an entsprechenden Fachfragen interessierten Studenten durchaus eine qualitativ ausreichende Vertiefung im Rahmen des informationswissenschaftlichen Lehrangebots, das ggf. noch durch Veranstaltungen der unterschiedlichen linguistischen Abteilungen an der Universitaet Konstanz ergaenzt werden kann. Schliesslich ist einer der Forschungsschwerpunkte des Lehrstuhls fuer Informationswissenschaft, das automatische Abstracting-Projekt TOPIC (HAHN/REIMER 1985), eindeutig dem Bereich Informationslinguistik zuzuordnen, der engagierten Studenten weitere Optionen fuer eine spezialisierte Ausbildung und - im Rahmen von durch Studien- und Diplomarbeiten klar abgesteckten Aufgaben - eigenstaendige Forschungs- und Entwicklungstaetigkeit eroeffnet. Informationslinguistik wird am Lehrstuhl fuer Informationswissenschaft der Universitaet Konstanz nun in folgender Konstellation gelehrt:
    (1) "Informationslinguistik I: Einfuehrung in das linguistische Information Retrieval" (2) "Informationslinguistik II: linguistische und statistische Verfahren im experimentellen Information Retrieval" (3) "Intelligente Informationssysteme: Verfahren der Kuenstlichen Intelligenz im experimentellen Information Retrieval" Kursabschnitt zu natuerlichsprachlichen Systemen (4) Spezialkurse zum automatischen Uebersetzen, Indexing und Retrieval, Abstracting usf. dienen zur Vertiefung informationslinguistischer Spezialthemen Die Kurse (1) und (3) gehoeren zu dem Pool der Pflichtveranstaltungen aller Studenten des Diplom-Studiengangs Informationswissenschaft, waehrend (2) und (4) lediglich zu den Wahlpflichtveranstaltungen zaehlen, die aber obligatorisch fuer die Studenten des Diplomstudiengangs sind, die ihren Schwerpunkt (z.B. in Form der Diplomarbeit) im Bereich Informationslinguistik suchen - fuer alle anderen Studenten zaehlen diese Kurse zum Zusatz angebot an Lehrveranstaltungen.
    Das vorliegende Skript entspricht dem Inhalt des Kurses "Informationslinguistik II" im SS 1983 bzw. SS 1984. Es ist im Juli 1983 inhaltlich abgeschlossen und im Januar 1985 lediglich redaktionell ueberarbeitet worden. Die Erstellung des Skripts entspricht einem dezidierten Auftrag des Projekts "Informationsvermittlung", der die Entwicklung geeigneter Lehrmaterialien zum informationswissenschaftlichen Aufbaustudium vorsah. Aufgrund des engen Projektzeitrahmens (1982-84) kann das Skript nicht in dem Masse voll ausgereift und ausformuliert sein, wie es gaengigen Standards entspraeche. Im Unterschied zum Skript "Informationslinguistik I" (HAHN 1985) laesst das vorliegende Skript wahlweise eine eher methoden- oder mehr systembezogene Darstellung informationslinguistischer Konzepte des experimentellen Information Retrieval zu (beides zusammen schliesst der enge Zeitrahmen eines Sommersemesters ausl). Die Entscheidung darueber sollte wenn moeglich in Abhaengigkeit zur personellen Zusammensetzung des Kurses getroffen werden, wobei - sofern die bislang genachten Erfahrungen verallgemeinerbar sind - sich bei einem nicht ausschliesslich an einer informationslinguistischen Spezialisierung interessierten und damit heterogenen Publikum die mehr systembezogene Praesentation als fuer das Verstaendnis informationslinguistischer Fragestellungen und entsprechender Verfahrensloesungen guenstiger gezeigt hat. Innerhalb dieser Nuancierung besitzt aber auch dieses Skript schon eine akzeptable inhaltliche Stabilitaet. Nichtsdestotrotz sollte gerade die Veroeffentlichung des Skripts als Anregung dienen, kritische Kommentare, Anmerkungen und Ergaenzungen zu diesem curricularen Entwurf herauszufordern, um damit die weitere disziplinaere Klaerung der Informationslinguistik zu foerdern.
  11. Winterschladen, S.; Gurevych, I.: ¬Die perfekte Suchmaschine : Forschungsgruppe entwickelt ein System, das artverwandte Begriffe finden soll (2006) 0.06
    0.057837605 = product of:
      0.11567521 = sum of:
        0.07217244 = weight(_text_:jahre in 912) [ClassicSimilarity], result of:
          0.07217244 = score(doc=912,freq=2.0), product of:
            0.36739168 = queryWeight, product of:
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.07232031 = queryNorm
            0.1964455 = fieldWeight in 912, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.080062 = idf(docFreq=750, maxDocs=44421)
              0.02734375 = fieldNorm(doc=912)
        0.04350277 = weight(_text_:und in 912) [ClassicSimilarity], result of:
          0.04350277 = score(doc=912,freq=20.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.2712157 = fieldWeight in 912, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=912)
      0.5 = coord(2/4)
    
    Content
    "KÖLNER STADT-ANZEIGER: Frau Gurevych, Sie entwickeln eine Suchmaschine der nächsten Generation? Wie kann man sich diese vorstellen? IRYNA GUREVYCH Jeder kennt die herkömmlichen Suchmaschinen wie Google, Yahoo oder Altavista. Diese sind aber nicht perfekt, weil sie nur nach dem Prinzip der Zeichenerkennung funktionieren. Das steigende Informationsbedürfnis können herkömmliche Suchmaschinen nicht befriedigen. KStA: Wieso nicht? GUREVYCH Nehmen wir mal ein konkretes Beispiel: Sie suchen bei Google nach einem Rezept für einen Kuchen, der aber kein Obst enthalten soll. Keine Suchmaschine der Welt kann bisher sinnvoll solche oder ähnliche Anfragen ausführen. Meistens kommen Tausende von Ergebnissen, in denen der Nutzer die relevanten Informationen wie eine Nadel im Heuhaufen suchen muss. KStA: Und Sie können dieses Problem lösen? GUREVYCH Wir entwickeln eine Suchmaschine, die sich nicht nur auf das System der Zeichenerkennung verlässt, sondern auch linguistische Merkmale nutzt. Unsere Suchmaschine soll also auch artverwandte Begriffe zeigen. KStA: Wie weit sind Sie mit Ihrer Forschung? GUREVYCH Das Projekt ist auf zwei Jahre angelegt. Wir haben vor einem halben Jahr begonnen, haben also noch einen großen Teil vor uns. Trotzdem sind die ersten Zwischenergebnisse schon sehr beachtlich. KStA: Und wann geht die Suchmaschine ins Internet? GUREVYCH Da es sich um ein Projekt der Deutschen Forschungsgemeinschaft handelt, wird die Suchmaschine vorerst nicht veröffentlicht. Wir sehen es als unsere Aufgabe an, Verbesserungsmöglichkeiten durch schlaue Such-Algorithmen mit unseren Forschungsarbeiten nachzuweisen und Fehler der bekannten Suchmaschinen zu beseitigen. Und da sind wir auf einem guten Weg. KStA: Arbeiten Sie auch an einem ganz speziellen Projekt? GUREVYCH Ja, ihre erste Bewährungsprobe muss die neue Technologie auf einem auf den ersten Blick ungewöhnlichen Feld bestehen: Unsere Forschungsgruppe an der Technischen Universität Darmstadt entwickelt derzeit ein neuartiges System zur Unterstützung Jugendlicher bei der Berufsauswahl. Dazu stellt uns die Bundesagentur für Arbeit die Beschreibungen von 5800 Berufen in Deutschland zur Verfügung. KStA: Und was sollen Sie dann mit diesen konkreten Informationen machen? GUREVYCH Jugendliche sollen unsere Suchmaschine mit einem Aufsatz über ihre beruflichen Vorlieben flittern. Das System soll dann eine Suchabfrage starten und mögliche Berufe anhand des Interesses des Jugendlichen heraussuchen. Die persönliche Beratung durch die Bundesagentur für Arbeit kann dadurch auf alternative Angebote ausgeweitet werden. Ein erster Prototyp soll Ende des Jahres bereitstehen. KStA: Es geht also zunächst einmal nicht darum, einen Jobfür den Jugendlichen zu finden, sondern den perfekten Beruf für ihn zu ermitteln? GUREVYCH Ja, anhand der Beschreibung des Jugendlichen startet die Suchmaschine eine semantische Abfrage und sucht den passenden Beruf heraus. KStA: Gab es schon weitere Anfragen seitens der Industrie? GUREVYCH Nein, wir haben bisher noch keine Werbung betrieben. Meine Erfahrung zeigt, dass angesehene Kongresse die beste Plattform sind, um die Ergebnisse zu präsentieren und auf sich aufmerksam zu machen. Einige erste Veröffentlichungen sind bereits unterwegs und werden 2006 noch erscheinen. KStA: Wie sieht denn Ihrer Meinung nach die Suchmaschine der Zukunft aus? GUREVYCH Suchmaschinen werden immer spezieller. Das heißt, dass es etwa in der Medizin, bei den Krankenkassen oder im Sport eigene Suchmaschinen geben wird. Außerdem wird die Tendenz verstärkt zu linguistischen Suchmaschinen gehen, die nach artverwandten Begriffen fahnden. Die perfekte Suchmaschine wird wohl eine Kombination aus statistischem und linguistisch-semantischem Suchverhalten sein. Algorithmen, die wir am Fachgebiet Telekooperation an der TU Darmstadt entwickeln, werden für den nächsten qualitativen Sprung bei der Entwicklung der Suchmaschinen von größter Bedeutung sein."
  12. Chou, C.; Chu, T.: ¬An analysis of BERT (NLP) for assisted subject indexing for Project Gutenberg (2022) 0.03
    0.032924317 = product of:
      0.13169727 = sum of:
        0.13169727 = weight(_text_:headings in 2141) [ClassicSimilarity], result of:
          0.13169727 = score(doc=2141,freq=2.0), product of:
            0.35092717 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.07232031 = queryNorm
            0.37528375 = fieldWeight in 2141, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2141)
      0.25 = coord(1/4)
    
    Abstract
    In light of AI (Artificial Intelligence) and NLP (Natural language processing) technologies, this article examines the feasibility of using AI/NLP models to enhance the subject indexing of digital resources. While BERT (Bidirectional Encoder Representations from Transformers) models are widely used in scholarly communities, the authors assess whether BERT models can be used in machine-assisted indexing in the Project Gutenberg collection, through suggesting Library of Congress subject headings filtered by certain Library of Congress Classification subclass labels. The findings of this study are informative for further research on BERT models to assist with automatic subject indexing for digital library collections.
  13. Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996) 0.03
    0.030286614 = product of:
      0.121146455 = sum of:
        0.121146455 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
          0.121146455 = score(doc=1190,freq=76.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.75528115 = fieldWeight in 1190, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1190)
      0.25 = coord(1/4)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
    ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
    Series
    Sprache und Information ; 33
  14. Schank, R.C.: Computer, elementare Aktionen und linguistische Theorien (1977) 0.03
    0.027513567 = product of:
      0.11005427 = sum of:
        0.11005427 = weight(_text_:und in 6141) [ClassicSimilarity], result of:
          0.11005427 = score(doc=6141,freq=8.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.6861275 = fieldWeight in 6141, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=6141)
      0.25 = coord(1/4)
    
    Series
    Grundlagen der Kommunikation und Kognition
    Source
    Semantik und künstliche Intelligenz: Beiträge zur automatischen Sprachbearbeitung II. Hrsg. und eingeleitet von P. Eisenberg
  15. Weber, N.: ¬Die Semantik von Bedeutungsexplikationen (1999) 0.03
    0.027017789 = product of:
      0.108071156 = sum of:
        0.108071156 = weight(_text_:und in 2399) [ClassicSimilarity], result of:
          0.108071156 = score(doc=2399,freq=42.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.6737639 = fieldWeight in 2399, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2399)
      0.25 = coord(1/4)
    
    BK
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
    ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
    ES 965 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Datenverarbeitung und Einzelgebiete der Grammatik
    Series
    Sprache, Sprechen und Computer ; 3
  16. Seelbach, D.: Computerlinguistik und Dokumentation : keyphrases in Dokumentationsprozessen (1975) 0.03
    0.025699042 = product of:
      0.10279617 = sum of:
        0.10279617 = weight(_text_:und in 1299) [ClassicSimilarity], result of:
          0.10279617 = score(doc=1299,freq=38.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.64087725 = fieldWeight in 1299, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1299)
      0.25 = coord(1/4)
    
    Classification
    ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
    ES 955 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Referatherstellung, linguistische Dokumentation und Information
    RVK
    ES 950 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Redeanlyse
    ES 955 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Referatherstellung, linguistische Dokumentation und Information
  17. Neumann, H.: Inszenierung und Metabotschaften eines periodisch getakteten Fernsehauftritts : Die Neujahrsansprachen der Bundeskanzler Helmut Kohl und Gerhard Schröder im Vergleich (2003) 0.02
    0.022813046 = product of:
      0.091252185 = sum of:
        0.091252185 = weight(_text_:und in 2632) [ClassicSimilarity], result of:
          0.091252185 = score(doc=2632,freq=22.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.5689069 = fieldWeight in 2632, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2632)
      0.25 = coord(1/4)
    
    Abstract
    Herstellen der gleichen Wellenlänge zwischen Sender und Empfänger entscheidet über den kommunikativen Erfolg -gerade auch im politischen Bereich. Unter politikwissenschaftlicher als auch unter kommunikationswissenschaftlicher Fragestellung werden in der vorliegenden Arbeit acht Neujahrsansprachen von 1994 bis 2001 der Bundeskanzler Helmut Kohl und Gerhard Schröder einer systematischen Analyse unterzogen. Es findet eine Untersuchung der Sach- und Beziehungsebene statt. Verbale und visuelle Rhetorik beider Bundeskanzler werden miteinander verglichen und decodiert. Die Arbeit gibt zum einen Aufschluss über die Metabotschaften und das Corporate Design beider Bundeskanzler und diskutiert zum anderen Vor- und Nachteile der Kommunikationsstrategien zweier Kommunikationstypen, die unterschiedlicher nicht sein können.
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.5, S.261-272
  18. Semantik und künstliche Intelligenz : Beiträge zur automatischen Sprachbearbeitung II (1977) 0.02
    0.02223432 = product of:
      0.08893728 = sum of:
        0.08893728 = weight(_text_:und in 6129) [ClassicSimilarity], result of:
          0.08893728 = score(doc=6129,freq=4.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.5544748 = fieldWeight in 6129, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=6129)
      0.25 = coord(1/4)
    
    Series
    Grundlagen der Kommunikation und Kognition
  19. Experimentelles und praktisches Information Retrieval : Festschrift für Gerhard Lustig (1992) 0.02
    0.02205993 = product of:
      0.08823972 = sum of:
        0.08823972 = weight(_text_:und in 72) [ClassicSimilarity], result of:
          0.08823972 = score(doc=72,freq=28.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.55012584 = fieldWeight in 72, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=72)
      0.25 = coord(1/4)
    
    Content
    Enthält die Beiträge: SALTON, G.: Effective text understanding in information retrieval; KRAUSE, J.: Intelligentes Information retrieval; FUHR, N.: Konzepte zur Gestaltung zukünftiger Information-Retrieval-Systeme; HÜTHER, H.: Überlegungen zu einem mathematischen Modell für die Type-Token-, die Grundform-Token und die Grundform-Type-Relation; KNORZ, G.: Automatische Generierung inferentieller Links in und zwischen Hyperdokumenten; KONRAD, E.: Zur Effektivitätsbewertung von Information-Retrieval-Systemen; HENRICHS, N.: Retrievalunterstützung durch automatisch generierte Wortfelder; LÜCK, W., W. RITTBERGER u. M. SCHWANTNER: Der Einsatz des Automatischen Indexierungs- und Retrieval-System (AIR) im Fachinformationszentrum Karlsruhe; REIMER, U.: Verfahren der Automatischen Indexierung. Benötigtes Vorwissen und Ansätze zu seiner automatischen Akquisition: Ein Überblick; ENDRES-NIGGEMEYER, B.: Dokumentrepräsentation: Ein individuelles prozedurales Modell des Abstracting, des Indexierens und Klassifizierens; SEELBACH, D.: Zur Entwicklung von zwei- und mehrsprachigen lexikalischen Datenbanken und Terminologiedatenbanken; ZIMMERMANN, H.: Der Einfluß der Sprachbarrieren in Europa und Möglichkeiten zu ihrer Minderung; LENDERS, W.: Wörter zwischen Welt und Wissen; PANYR, J.: Frames, Thesauri und automatische Klassifikation (Clusteranalyse): HAHN, U.: Forschungsstrategien und Erkenntnisinteressen in der anwendungsorientierten automatischen Sprachverarbeitung. Überlegungen zu einer ingenieurorientierten Computerlinguistik; KUHLEN, R.: Hypertext und Information Retrieval - mehr als Browsing und Suche.
  20. Stock, M.: Textwortmethode und Übersetzungsrelation : Eine Methode zum Aufbau von kombinierten Literaturnachweis- und Terminologiedatenbanken (1989) 0.02
    0.021972217 = product of:
      0.08788887 = sum of:
        0.08788887 = weight(_text_:und in 399) [ClassicSimilarity], result of:
          0.08788887 = score(doc=399,freq=10.0), product of:
            0.16039915 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.07232031 = queryNorm
            0.54793847 = fieldWeight in 399, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=399)
      0.25 = coord(1/4)
    
    Abstract
    Geisteswissenschaftliche Fachinformation erfordert eine enge Kooperation zwischen Literaturnachweis- und Terminologieinformationssystemen. Eine geeignete Dokumentationsmethode für die Auswertung geisteswissen- schaftlicher Literatur ist die Textwortwethode. Dem originalsprachig aufgenommenen Begriffsrepertoire ist ein einheitssprachiger Zugriff beizuordnen, der einerseits ein vollständiges und genaues Retrieval garantiert und andererseits den Aufbau fachspezifischer Wörterbücher vorantreibt

Years

Languages

  • d 192
  • e 21
  • m 4
  • ru 1
  • More… Less…

Types

  • a 153
  • m 40
  • el 35
  • s 12
  • x 9
  • d 2
  • More… Less…

Subjects

Classifications