-
Voss, O.: Übersetzer überflüssig? : Sprachsoftware DeepL und Acrolinx (2019)
0.15
0.1501982 = product of:
0.3003964 = sum of:
0.062466722 = weight(_text_:und in 981) [ClassicSimilarity], result of:
0.062466722 = score(doc=981,freq=4.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.41585606 = fieldWeight in 981, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=981)
0.2379297 = weight(_text_:html in 981) [ClassicSimilarity], result of:
0.2379297 = score(doc=981,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.68247306 = fieldWeight in 981, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.09375 = fieldNorm(doc=981)
0.5 = coord(2/4)
- Source
- https://www.tagesspiegel.de/wirtschaft/sprachsoftware-deepl-und-acrolinx-uebersetzer-ueberfluessig/23884348.html
-
Leighton, T.: ChatGPT und Künstliche Intelligenz : Utopie oder Dystopie? (2023)
0.14
0.14029095 = product of:
0.2805819 = sum of:
0.08230713 = weight(_text_:und in 1909) [ClassicSimilarity], result of:
0.08230713 = score(doc=1909,freq=10.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.54793847 = fieldWeight in 1909, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1909)
0.19827475 = weight(_text_:html in 1909) [ClassicSimilarity], result of:
0.19827475 = score(doc=1909,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.56872755 = fieldWeight in 1909, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.078125 = fieldNorm(doc=1909)
0.5 = coord(2/4)
- Abstract
- Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?
- Series
- Telepolis / Kultur und Medien
- Source
- https://www.heise.de/tp/features/ChatGPT-und-Kuenstliche-Intelligenz-Utopie-oder-Dystopie-7445181.html?view=print
-
Scobel, G.: GPT: Eine Software, die die Welt verändert (2023)
0.13
0.12516518 = product of:
0.25033036 = sum of:
0.052055605 = weight(_text_:und in 1840) [ClassicSimilarity], result of:
0.052055605 = score(doc=1840,freq=4.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.34654674 = fieldWeight in 1840, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1840)
0.19827475 = weight(_text_:html in 1840) [ClassicSimilarity], result of:
0.19827475 = score(doc=1840,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.56872755 = fieldWeight in 1840, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.078125 = fieldNorm(doc=1840)
0.5 = coord(2/4)
- Abstract
- GPT-3 ist eine jener Entwicklungen, die binnen weniger Monate an Einfluss und Reichweite zulegen. Die Software wird sich massiv auf Ökonomie und Gesellschaft auswirken.
- Source
- https://www.zdf.de/nachrichten/panorama/gpt-ki-literatur-terrax-gert-scobel-kolumne-100.html?utm_source=pocket-newtab-global-de-DE
-
Dampz, N.: ChatGPT interpretiert jetzt auch Bilder : Neue Version (2023)
0.12
0.117541805 = product of:
0.23508361 = sum of:
0.03680887 = weight(_text_:und in 1875) [ClassicSimilarity], result of:
0.03680887 = score(doc=1875,freq=2.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.24504554 = fieldWeight in 1875, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=1875)
0.19827475 = weight(_text_:html in 1875) [ClassicSimilarity], result of:
0.19827475 = score(doc=1875,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.56872755 = fieldWeight in 1875, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.078125 = fieldNorm(doc=1875)
0.5 = coord(2/4)
- Abstract
- Das kalifornische Unternehmen Open AI hat eine neue Version ihres Chatbots ChatGPT vorgestellt. Auffallendste Neuerung: Die Software, die mit Künstlicher Intelligenz funktioniert und bisher auf Text ausgerichtet war, interpretiert nun auch Bilder.
- Source
- https://www.tagesschau.de/ausland/chat-gpt-105.html
-
Rötzer, F.: Kann KI mit KI generierte Texte erkennen? (2019)
0.10
0.09516237 = product of:
0.19032474 = sum of:
0.051532414 = weight(_text_:und in 4977) [ClassicSimilarity], result of:
0.051532414 = score(doc=4977,freq=8.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.34306374 = fieldWeight in 4977, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=4977)
0.13879232 = weight(_text_:html in 4977) [ClassicSimilarity], result of:
0.13879232 = score(doc=4977,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.3981093 = fieldWeight in 4977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0546875 = fieldNorm(doc=4977)
0.5 = coord(2/4)
- Abstract
- OpenAI hat einen Algorithmus zur Textgenerierung angeblich nicht vollständig veröffentlicht, weil er so gut sei und Missbrauch und Täuschung ermöglicht. Das u.a. von Elon Musk und Peter Thiel gegründete KI-Unternehmen OpenAI hatte im Februar erklärt, man habe den angeblich am weitesten fortgeschrittenen Algorithmus zur Sprachverarbeitung entwickelt. Der Algorithmus wurde lediglich anhand von 40 Gigabyte an Texten oder an 8 Millionen Webseiten trainiert, das nächste Wort in einem vorgegebenen Textausschnitt vorherzusagen. Damit könne man zusammenhängende, sinnvolle Texte erzeugen, die vielen Anforderungen genügen, zudem könne damit rudimentär Leseverständnis, Antworten auf Fragen, Zusammenfassungen und Übersetzungen erzeugt werden, ohne dies trainiert zu haben.
- Source
- https://www.heise.de/tp/features/Kann-KI-mit-KI-generierte-Texte-erkennen-4332657.html?view=print
-
Stieler, W.: Anzeichen von Bewusstsein bei ChatGPT und Co.? (2023)
0.09
0.09171035 = product of:
0.1834207 = sum of:
0.044628385 = weight(_text_:und in 2049) [ClassicSimilarity], result of:
0.044628385 = score(doc=2049,freq=6.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.29710194 = fieldWeight in 2049, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2049)
0.13879232 = weight(_text_:html in 2049) [ClassicSimilarity], result of:
0.13879232 = score(doc=2049,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.3981093 = fieldWeight in 2049, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0546875 = fieldNorm(doc=2049)
0.5 = coord(2/4)
- Abstract
- Ein interdisziplinäres Forschungsteam hat eine Liste von Eigenschaften aufgestellt, die auf Bewusstsein deuten, und aktuelle KI-Systeme darauf abgeklopft. Ein interdisziplinäres Forscherteam hat ein Paper [https://arxiv.org/abs/2308.08708] veröffentlicht, das eine Liste von 14 "Indikatoren" für Bewusstsein enthält, die aus sechs aktuellen Theorien über das Bewusstsein stammen. Aktuelle KI-Modelle wie GPT-3, Palm-E oder AdA von Deepmind weisen demnach einzelne dieser Indikatoren auf. "Es spricht viel dafür, dass die meisten oder alle Bedingungen für das Bewusstsein, die von derzeitigen Theorien vorgeschlagenen Bedingungen für das Bewusstsein mit den bestehenden Techniken der KI erfüllt werden können", schreiben die Autoren. Zum Team gehörte auch der Deep-Learning-Pionier Yoshua Bengio von der Université de Montréal.
- Source
- https://www.heise.de/hintergrund/Anzeichen-von-Bewusstsein-bei-ChatGPT-und-Co-9295425.html?view=print
-
Holland, M.: Erstes wissenschaftliches Buch eines Algorithmus' veröffentlicht (2019)
0.09
0.087615624 = product of:
0.17523125 = sum of:
0.036438923 = weight(_text_:und in 227) [ClassicSimilarity], result of:
0.036438923 = score(doc=227,freq=4.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.24258271 = fieldWeight in 227, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=227)
0.13879232 = weight(_text_:html in 227) [ClassicSimilarity], result of:
0.13879232 = score(doc=227,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.3981093 = fieldWeight in 227, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0546875 = fieldNorm(doc=227)
0.5 = coord(2/4)
- Abstract
- Der Wissenschaftsverlag Springer Nature hat nach eigenen Angaben das erste Buch veröffentlicht, das von einem Algorithmus verfasst wurde. Bei Springer Nature ist das nach Angaben des Wissenschaftsverlags erste maschinengenerierte Buch erschienen: "Lithium-Ion Batteries - A Machine-Generated Summary of Current Research" biete einen Überblick über die neuesten Forschungspublikationen über Lithium-Ionen-Batterien, erklärte die Goethe-Universität Frankfurt am Main. Dort wurde im Bereich Angewandte Computerlinguistik unter der Leitung von Christian Chiarcos jenes Verfahren entwickelt, das Textinhalte automatisch analysiert und relevante Publikationen auswählen kann. Es heißt "Beta Writer" und steht als Autor über dem Buch.
- Source
- https://www.heise.de/newsticker/meldung/Erstes-wissenschaftliches-Buch-eines-Algorithmus-veroeffentlicht-4399858.html
-
Weiß, E.-M.: ChatGPT soll es richten : Microsoft baut KI in Suchmaschine Bing ein (2023)
0.09
0.087615624 = product of:
0.17523125 = sum of:
0.036438923 = weight(_text_:und in 1867) [ClassicSimilarity], result of:
0.036438923 = score(doc=1867,freq=4.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.24258271 = fieldWeight in 1867, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1867)
0.13879232 = weight(_text_:html in 1867) [ClassicSimilarity], result of:
0.13879232 = score(doc=1867,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.3981093 = fieldWeight in 1867, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0546875 = fieldNorm(doc=1867)
0.5 = coord(2/4)
- Abstract
- ChatGPT, die künstliche Intelligenz der Stunde, ist von OpenAI entwickelt worden. Und OpenAI ist in der Vergangenheit nicht unerheblich von Microsoft unterstützt worden. Nun geht es ums Profitieren: Die KI soll in die Suchmaschine Bing eingebaut werden, was eine direkte Konkurrenz zu Googles Suchalgorithmen und Intelligenzen bedeutet. Bing war da bislang nicht sonderlich erfolgreich. Wie "The Information" mit Verweis auf zwei Insider berichtet, plant Microsoft, ChatGPT in seine Suchmaschine Bing einzubauen. Bereits im März könnte die neue, intelligente Suche verfügbar sein. Microsoft hatte zuvor auf der hauseigenen Messe Ignite zunächst die Integration des Bildgenerators DALL·E 2 in seine Suchmaschine angekündigt - ohne konkretes Startdatum jedoch. Fragt man ChatGPT selbst, bestätigt der Chatbot seine künftige Aufgabe noch nicht. Weiß aber um potentielle Vorteile.
- Source
- https://www.heise.de/news/ChatGPT-soll-es-richten-Microsoft-baut-KI-in-Suchmaschine-Bing-ein-7447837.html
-
Benzmüller, R.: Logox WebSpeech : Die neue Technologie für sprechende Internetseiten (2000)
0.09
0.08653131 = product of:
0.17306262 = sum of:
0.05409777 = weight(_text_:und in 6554) [ClassicSimilarity], result of:
0.05409777 = score(doc=6554,freq=12.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.36014193 = fieldWeight in 6554, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6554)
0.11896485 = weight(_text_:html in 6554) [ClassicSimilarity], result of:
0.11896485 = score(doc=6554,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.34123653 = fieldWeight in 6554, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.046875 = fieldNorm(doc=6554)
0.5 = coord(2/4)
- Abstract
- Logox WebSpeech ist eine Sprachausgabe-Plug-In für Internet Explorer und Netscape Communicator, das nicht nur die dargestellten Texte aus HTML Dokumenten vorliest. Da lediglich Texte übertragen werden, entstehen keine Verzögerungen bei der Übertragung. Die zugrundeliegende Logox Sprachsynthese zeichnet sich durch den ökonomischen Umgang mit Speicherplatz und Rechenleistung aus, ohne Einbußen bei der Sprachqualität. Diese Okonomie ermöglicht es das Plug-In als kleinen DownIoad anzubieten. Logox WebSpeech setzt auf den akustischen Kommunikationskanal, der bislang im Internet nur sehr wenig genutzt wird. Logox WebSpeech ist umfassend in IITML und Skriptsprachen einzubinden und kann eingesetzt werden, um Grafiken zu kommentieren, Forrnulare freundlicher zu gestalten, Antworten auf Datenbankabfragen anzusagen und um sprechende Slideshows oder Newsticker zu erstellen
- Source
- Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
-
Szöke, D.: ChatGPT : wie Sie die KI ausprobieren können (2022)
0.09
0.08653131 = product of:
0.17306262 = sum of:
0.05409777 = weight(_text_:und in 1835) [ClassicSimilarity], result of:
0.05409777 = score(doc=1835,freq=12.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.36014193 = fieldWeight in 1835, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1835)
0.11896485 = weight(_text_:html in 1835) [ClassicSimilarity], result of:
0.11896485 = score(doc=1835,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.34123653 = fieldWeight in 1835, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.046875 = fieldNorm(doc=1835)
0.5 = coord(2/4)
- Abstract
- Wo Sie sich anmelden können, wie Sie mit der künstlichen Intelligenz interagieren können und worauf Sie achten sollten.
- Content
- ChatGPT ist ein KI-Chatbot, der menschliche Texteingaben verstehen und möglichst natürlich antworten soll - und für ziemlich viel Begeisterung im Netz sorgt. Jeder kann mit der "künstlichen Intelligenz" einen Dialog führen oder sie um passenden Code oder ein paar launig klingende Gedichtzeilen bitten. Ausprobieren können Sie das kostenlos - wir zeigen Ihnen, wie das geht. Account einrichten ChatGPT wird auf der OpenAI-Website angeboten - allerdings nur für registrierte Nutzer. Um einen OpenAI-Account zu erstellen, muss man eine E-Mail-Adresse und eine Handynummer angeben, gegebenenfalls müssen Sie noch ein Captcha lösen. Die E-Mail-Adresse noreply@tm.openai.com sendet einen Verifizierungslink, welcher Sie zurück zur Website und zum nächsten Schritt führt. Nach der Auswahl des Benutzernamens müssen Sie nur noch den Nutzungsbedingungen zustimmen und eine Verifizierung über die Handynummer vornehmen. Letztere passiert über das Zusenden eines sechsstelligen Bestätigungs-Codes.
- Source
- https://www.heise.de/ratgeber/ChatGPT-Wie-Sie-die-KI-ausprobieren-koennen-7397515.html
-
Caseiro, D.: Automatic language identification bibliography : Last Update: 20 September 1999 (1999)
0.07
0.06939616 = product of:
0.27758464 = sum of:
0.27758464 = weight(_text_:html in 1841) [ClassicSimilarity], result of:
0.27758464 = score(doc=1841,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.7962186 = fieldWeight in 1841, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.109375 = fieldNorm(doc=1841)
0.25 = coord(1/4)
- Source
- http://speech.inesc.pt/~dcaseiro/html/bibliografia.html
-
Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005)
0.07
0.0685398 = product of:
0.1370796 = sum of:
0.05295874 = weight(_text_:und in 4385) [ClassicSimilarity], result of:
0.05295874 = score(doc=4385,freq=46.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.35255915 = fieldWeight in 4385, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4385)
0.084120855 = weight(_text_:html in 4385) [ClassicSimilarity], result of:
0.084120855 = score(doc=4385,freq=4.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.24129067 = fieldWeight in 4385, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0234375 = fieldNorm(doc=4385)
0.5 = coord(2/4)
- Content
- "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
Links (1) http://www.telepolis.de/r4/artikel/8/8653/1.html (2) http://homepages.cwi.nl/ paulv/ (3) http://www.cwi.nl/ (4) http://www.newscientist.com/
- Source
- http://www.telepolis.de/r4/artikel/19/19326/1.html
-
Donath, A.: Nutzungsverbote für ChatGPT (2023)
0.07
0.06816698 = product of:
0.13633396 = sum of:
0.057024058 = weight(_text_:und in 1878) [ClassicSimilarity], result of:
0.057024058 = score(doc=1878,freq=30.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.37962294 = fieldWeight in 1878, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1878)
0.079309896 = weight(_text_:html in 1878) [ClassicSimilarity], result of:
0.079309896 = score(doc=1878,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.22749102 = fieldWeight in 1878, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.03125 = fieldNorm(doc=1878)
0.5 = coord(2/4)
- Abstract
- ChatGPT soll an New Yorker Schulen geblockt werden, eine Konferenz zu Maschinenlernen verbietet den Einsatz, und auch in Brandenburg gibt es KI-Sorgen.
- Content
- "Die International Conference on Machine Learning (ICML) hat entschieden, dass Autoren bei der Veröffentlichung von wissenschaftlichen Artikeln nicht mehr auf KI-Tools wie ChatGPT zurückgreifen dürfen. Laut ICML stellen öffentlich zugängliche AI-Sprachmodelle wie ChatGPT zwar eine "aufregende" Entwicklung dar, erzeugen aber auch "unvorhergesehene Folgen und unbeantwortete Fragen". Dazu gehörten Themen wie Urheberrecht und Schöpfungshöhe. Die ICML verbietet aber nur von künstlicher Intelligenz "vollständig produzierte" Texte. Die Organisatoren betonten, dass sie nicht die Verwendung von Tools wie ChatGPT "zur Bearbeitung oder Veredelung von von Autoren verfasstem Text" verböten. 2024 soll das Verbot von AI-generiertem Text evaluiert werden. Schon 2022 verbot die Coding-Site Stack Overflow die Einreichung von von ChatGPT erstellten Antworten.
ChatGPT auf Schulnetzwerken blockiert Die New Yorker Bildungsbehörde sperrte den Zugang zu ChatGPT in ihren Netzwerken aus Sorge, dass das KI-Tool von Schülern verwendet werde. Die Sprecherin der Behörde, Jenna Lyle, sagte Chalkbeat New York, die Sperre sei auf mögliche "negative Auswirkungen auf den Lernprozess und Bedenken hinsichtlich der Sicherheit und Richtigkeit von Inhalten" zurückzuführen. "Obwohl das Tool möglicherweise schnelle und einfache Antworten auf Fragen liefern kann, fördert es nicht die Fähigkeit zum kritischen Denken und Problemlösen", sagte Lyle.
Milliardenbewertung für ChatGPT OpenAI, das Chatbot ChatGPT betreibt, befindet sich laut einem Bericht des Wall Street Journals in Gesprächen zu einem Aktienverkauf. Das WSJ meldete, der mögliche Verkauf der Aktien würde die Bewertung von OpenAI auf 29 Milliarden US-Dollar anheben. Sorgen auch in Brandenburg Der brandenburgische SPD-Abgeordnete Erik Stohn stellte mit Hilfe von ChatGPT eine Kleine Anfrage an den Brandenburger Landtag, in der er fragte, wie die Landesregierung sicherstelle, dass Studierende bei maschinell erstellten Texten gerecht beurteilt und benotet würden. Er fragte auch nach Maßnahmen, die ergriffen worden seien, um sicherzustellen, dass maschinell erstellte Texte nicht in betrügerischer Weise von Studierenden bei der Bewertung von Studienleistungen verwendet werden könnten.
Der Autor meint dazu Es ist verständlich, dass sich Lehrer und Wissenschaftler Gedanken darüber machen, wie die Verwendung von künstlicher Intelligenz in der Bildung nicht zu negativen Effekten führt. Es ist wichtig, dass Schüler fair beurteilt werden und niemand Vorteile aus einem Betrug hat. Gleichzeitig ist es jedoch auch wichtig, dass Schüler und Wissenschaftler die Möglichkeit haben, Technologien und Tools zu nutzen, die ihnen helfen können, ihr volles Potential auszuschöpfen. Es wird interessant sein, zu sehen, welche Maßnahmen ergriffen werden, um sicherzustellen, dass die Verwendung von KI in der Bildung und Forschung fair und sicher ist."
- Source
- https://www.golem.de/news/schule-und-wissenschaft-nutzungsverbote-gegen-chatgpt-ausgesprochen-2301-171004.html
-
Räwel, J.: Automatisierte Kommunikation (2023)
0.07
0.06797312 = product of:
0.13594624 = sum of:
0.03680887 = weight(_text_:und in 1910) [ClassicSimilarity], result of:
0.03680887 = score(doc=1910,freq=8.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.24504554 = fieldWeight in 1910, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1910)
0.09913737 = weight(_text_:html in 1910) [ClassicSimilarity], result of:
0.09913737 = score(doc=1910,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.28436378 = fieldWeight in 1910, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0390625 = fieldNorm(doc=1910)
0.5 = coord(2/4)
- Content
- In den Sozialwissenschaften gibt es zwei fundamental unterschiedliche Auffassungen, was unter Kommunikation zu verstehen ist. Angelehnt an das Alltagsverständnis und daher auch in den Sozialwissenschaften dominant, gehen "handlungstheoretische" Vorstellungen von Kommunikation davon aus, dass diese instrumentellen Charakters ist. Es sind Menschen in ihrer physisch-psychischen Kompaktheit, die mittels Kommunikation, sei dies in mündlicher oder schriftlicher Form, Informationen austauschen. Kommunizierende werden nach dieser Vorstellung wechselseitig als Sender bzw. Empfänger von Informationen verstanden. Kommunikation dient der mehr oder minder erfolgreichen Übertragung von Informationen von Mensch zu Mensch. Davon paradigmatisch zu unterscheiden sind "systemtheoretische" Vorstellungen von Kommunikation, wie sie wesentlich von dem 1998 verstorbenen Soziologen Niklas Luhmann in Vorschlag gebracht wurden. Nach diesem Paradigma wird behauptet, dass ihr "Eigenleben" charakteristisch ist. Kommunikation zeichnet sich durch ihre rekursive Eigendynamik aus, welche die Möglichkeiten der Kommunizierenden begrenzt, diese zu steuern und zu beeinflussen. Gemäß dieser Konzeption befindet sich individuelles Bewusstseins - in ihrer je gedanklichen Eigendynamik - in der Umwelt von Kommunikationssystemen und vermag diese mittels Sprache lediglich zu irritieren, nicht aber kontrollierend zu determinieren. Dies schon deshalb nicht, weil in Kommunikationssystemen, etwa einem Gespräch als einem "Interaktionssystem", mindestens zwei bewusste Systeme mit ihrer je unterschiedlichen gedanklichen Eigendynamik beteiligt sind.
- Series
- Telepolis / Kultur und Medien
- Source
- https://www.telepolis.de/features/Automatisierte-Kommunikation-7520683.html?seite=all
-
Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018)
0.07
0.06515688 = product of:
0.13031375 = sum of:
0.051003866 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.051003866 = score(doc=217,freq=24.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.33954507 = fieldWeight in 217, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.079309896 = weight(_text_:html in 217) [ClassicSimilarity], result of:
0.079309896 = score(doc=217,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.22749102 = fieldWeight in 217, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Abstract
- Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
- Source
- https://www.heise.de/tp/features/KI-Programm-besser-als-Menschen-im-Verstaendnis-natuerlicher-Sprache-3941786.html?view=print
-
Menge-Sonnentag, R.: Google veröffentlicht einen Parser für natürliche Sprache (2016)
0.06
0.06293492 = product of:
0.12586984 = sum of:
0.046559945 = weight(_text_:und in 3941) [ClassicSimilarity], result of:
0.046559945 = score(doc=3941,freq=20.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.3099608 = fieldWeight in 3941, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3941)
0.079309896 = weight(_text_:html in 3941) [ClassicSimilarity], result of:
0.079309896 = score(doc=3941,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.22749102 = fieldWeight in 3941, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.03125 = fieldNorm(doc=3941)
0.5 = coord(2/4)
- Abstract
- SyntaxNet zerlegt Sätze in ihre grammatikalischen Bestandteile und bestimmt die syntaktischen Beziehungen der Wörter untereinander. Das Framework ist Open Source und als TensorFlow Model implementiert. Ein Parser für natürliche Sprache ist eine Software, die Sätze in ihre grammatikalischen Bestandteile zerlegt. Diese Zerlegung ist notwendig, damit Computer Befehle verstehen oder Texte übersetzen können. Die digitalen Helfer wie Microsofts Cortana, Apples Siri und Google Now verwenden Parser, um Sätze wie "Stell den Wecker auf 5 Uhr!" richtig umzusetzen. SyntaxNet ist ein solcher Parser, den Google als TensorFlow Model veröffentlicht hat. Entwickler können eigene Modelle erstellen, und SnytaxNet bringt einen vortrainierten Parser für die englische Sprache mit, den seine Macher Parsey McParseface genannt haben.
- Content
- "Syntaktische Beziehungen Der Parser teilt den Wörtern eine syntaktische Funktion zu und untersucht die syntaktischen Beziehungen zwischen den Einzelteilen. Den englischen Beispielsatz aus dem Blog-Beitrag "Alice saw Bob" analysiert er folgendermaßen: "Alice" und "Bob" sind Substantive, und "saw" ist ein Verb. Letzteres ist gleichzeitig die Wurzel (ROOT), von der die restlichen Beziehungen ausgehen. Alice ist das zugehörige Subjekt (nsubj) und Bob das Objekt (dobj). Längere Sätze werden leicht mehrdeutig. Beispielsweise ist im Satz "Alice sah Bob mit dem Fernglas" nicht erkennbar, wer von den beiden das Fernglas in der Hand hält. Rein syntaktisch ist auch der Satz "Peter schneidet das Brot mit Sonnenblumenkernen" mehrdeutig. Das menschliche Gehirn erkennt die richtige Bedeutung recht zuverlässig, aber für maschinelle Parser stellen sie eine Herausforderung dar.
SyntaxNet nutzt zur Entscheidung neuronale Netze und versucht die Abhängigkeiten richtig zuzuordnen. Damit "lernt" der Parser, dass es schwierig ist, Sonnenblumenkerne zum Schneiden einzusetzen, und sie somit wohl eher Bestandteil des Brots als ein Werkzeug sind. Die Analyse beschränkt sich jedoch auf den Satz selbst. Semantische Zusammenhänge berücksichtigt das Modell nicht. So lösen sich manche Mehrdeutigkeiten durch den Kontext auf: Wenn Alice im obigen Beispiel das Fernglas beim Verlassen des Hauses eingepackt hat, wird sie es vermutlich benutzen. Trefferquote Mensch vs. Maschine Laut dem Blog-Beitrag kommt Parsey McParseface auf eine Genauigkeit von gut 94 Prozent für Sätze aus dem Penn Treebank Project. Die menschliche Quote soll laut Linguisten bei 96 bis 97 Prozent liegen. Allerdings weist der Beitrag auch darauf hin, dass es sich bei den Testsätzen um wohlgeformte Texte handelt. Im Test mit Googles WebTreebank erreicht der Parser eine Genauigkeit von knapp 90 Prozent."
- Source
- heise Developer (13.05.2016), [http://www.heise.de/developer/meldung/Google-veroeffentlicht-einen-Parser-fuer-natuerliche-Sprache-3207846.html]
-
Biselli, A.: Unter Generalverdacht durch Algorithmen (2014)
0.06
0.059482425 = product of:
0.2379297 = sum of:
0.2379297 = weight(_text_:html in 1809) [ClassicSimilarity], result of:
0.2379297 = score(doc=1809,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.68247306 = fieldWeight in 1809, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.09375 = fieldNorm(doc=1809)
0.25 = coord(1/4)
- Source
- http://www.golem.de/news/textanalyse-unter-generalverdacht-durch-algorithmen-1402-104637.html
-
Simanowski, R.: Wenn die Dinge anfangen zu sprechen : Chatbot LaMDA von Google (2022)
0.05
0.049568687 = product of:
0.19827475 = sum of:
0.19827475 = weight(_text_:html in 1865) [ClassicSimilarity], result of:
0.19827475 = score(doc=1865,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.56872755 = fieldWeight in 1865, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.078125 = fieldNorm(doc=1865)
0.25 = coord(1/4)
- Source
- https://www.deutschlandfunkkultur.de/google-lamda-suche-dialog-100.html
-
Barthel, J.; Ciesielski, R.: Regeln zu ChatGPT an Unis oft unklar : KI in der Bildung (2023)
0.05
0.049568687 = product of:
0.19827475 = sum of:
0.19827475 = weight(_text_:html in 1926) [ClassicSimilarity], result of:
0.19827475 = score(doc=1926,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.56872755 = fieldWeight in 1926, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.078125 = fieldNorm(doc=1926)
0.25 = coord(1/4)
- Source
- https://www.tagesschau.de/wissen/technologie/ki-chatgpt-uni-wissenschaft-101.html
-
Janssen, J.-K.: ChatGPT-Klon läuft lokal auf jedem Rechner : Alpaca/LLaMA ausprobiert (2023)
0.05
0.049568687 = product of:
0.19827475 = sum of:
0.19827475 = weight(_text_:html in 1928) [ClassicSimilarity], result of:
0.19827475 = score(doc=1928,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.56872755 = fieldWeight in 1928, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.078125 = fieldNorm(doc=1928)
0.25 = coord(1/4)
- Source
- https://www.heise.de/news/c-t-3003-ChatGPT-Klon-laeuft-lokal-auf-jedem-Rechner-Alpaca-LLaMA-ausprobiert-8004159.html?view=print