-
Schwartz, D.: Graphische Datenanalyse für digitale Bibliotheken : Leistungs- und Funktionsumfang moderner Analyse- und Visualisierungsinstrumente (2006)
0.02
0.016157905 = product of:
0.06463162 = sum of:
0.06463162 = weight(_text_:und in 155) [ClassicSimilarity], result of:
0.06463162 = score(doc=155,freq=10.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.38355696 = fieldWeight in 155, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=155)
0.25 = coord(1/4)
- Abstract
- Das World Wide Web stellt umfangreiche Datenmengen zur Verfügung. Für den Benutzer wird es zunehmend schwieriger, diese Datenmengen zu sichten, zu bewerten und die relevanten Daten herauszufiltern. Einen Lösungsansatz für diese Problemstellung bieten Visualisierungsinstrumente, mit deren Hilfe Rechercheergebnisse nicht mehr ausschließlich über textbasierte Dokumentenlisten, sondern über Symbole, Icons oder graphische Elemente dargestellt werden. Durch geeignete Visualisierungstechniken können Informationsstrukturen in großen Datenmengen aufgezeigt werden. Informationsvisualisierung ist damit ein Instrument, um Rechercheergebnisse in einer digitalen Bibliothek zu strukturieren und relevante Daten für den Benutzer leichter auffindbar zu machen.
- Series
- Beiträge zur Bibliotheks- und Informationswissenschaft; 1
-
Loonus, Y.: Einsatzbereiche der KI und ihre Relevanz für Information Professionals (2017)
0.02
0.015171512 = product of:
0.060686048 = sum of:
0.060686048 = weight(_text_:und in 668) [ClassicSimilarity], result of:
0.060686048 = score(doc=668,freq=12.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.36014193 = fieldWeight in 668, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=668)
0.25 = coord(1/4)
- Abstract
- Es liegt in der Natur des Menschen, Erfahrungen und Ideen in Wort und Schrift mit anderen teilen zu wollen. So produzieren wir jeden Tag gigantische Mengen an Texten, die in digitaler Form geteilt und abgelegt werden. The Radicati Group schätzt, dass 2017 täglich 269 Milliarden E-Mails versendet und empfangen werden. Hinzu kommen größtenteils unstrukturierte Daten wie Soziale Medien, Presse, Websites und firmeninterne Systeme, beispielsweise in Form von CRM-Software oder PDF-Dokumenten. Der weltweite Bestand an unstrukturierten Daten wächst so rasant, dass es kaum möglich ist, seinen Umfang zu quantifizieren. Der Versuch, eine belastbare Zahl zu recherchieren, führt unweigerlich zu diversen Artikeln, die den Anteil unstrukturierter Texte am gesamten Datenbestand auf 80% schätzen. Auch wenn nicht mehr einwandfrei nachvollziehbar ist, woher diese Zahl stammt, kann bei kritischer Reflexion unseres Tagesablaufs kaum bezweifelt werden, dass diese Daten von großer wirtschaftlicher Relevanz sind.
-
Lischka, K.: Spurensuche im Datenwust : Data-Mining-Software fahndet nach kriminellen Mitarbeitern, guten Kunden - und bald vielleicht auch nach Terroristen (2002)
0.01
0.0145256175 = product of:
0.05810247 = sum of:
0.05810247 = weight(_text_:und in 2178) [ClassicSimilarity], result of:
0.05810247 = score(doc=2178,freq=44.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.34480965 = fieldWeight in 2178, product of:
6.6332498 = tf(freq=44.0), with freq of:
44.0 = termFreq=44.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2178)
0.25 = coord(1/4)
- Abstract
- US-Behörden wollen mit spezieller Software die Datenspuren von Terroristen finden. Wie das funktionieren könnte, zeigen Programmen, die heute schon für Unternehmen Kunden und Mitarbeiter analysieren.
- Content
- "Ob man als Terrorist einen Anschlag gegen die Vereinigten Staaten plant, als Kassierer Scheine aus der Kasse unterschlägt oder für bestimmte Produkte besonders gerne Geld ausgibt - einen Unterschied macht Data-Mining-Software da nicht. Solche Programme analysieren riesige Daten- mengen und fällen statistische Urteile. Mit diesen Methoden wollen nun die For- scher des "Information Awaren in den Vereinigten Staaten Spuren von Terroristen in den Datenbanken von Behörden und privaten Unternehmen wie Kreditkartenfirmen finden. 200 Millionen Dollar umfasst der Jahresetat für die verschiedenen Forschungsprojekte. Dass solche Software in der Praxis funktioniert, zeigen die steigenden Umsätze der Anbieter so genannter Customer-Relationship-Management-Software. Im vergangenen Jahr ist das Potenzial für analytische CRM-Anwendungen laut dem Marktforschungsinstitut IDC weltweit um 22 Prozent gewachsen, bis zum Jahr 2006 soll es in Deutschland mit einem jährlichen Plus von 14,1 Prozent so weitergehen. Und das trotz schwacher Konjunktur - oder gerade deswegen. Denn ähnlich wie Data-Mining der USRegierung helfen soll, Terroristen zu finden, entscheiden CRM-Programme heute, welche Kunden für eine Firma profitabel sind. Und welche es künftig sein werden, wie Manuela Schnaubelt, Sprecherin des CRM-Anbieters SAP, beschreibt: "Die Kundenbewertung ist ein zentraler Bestandteil des analytischen CRM. Sie ermöglicht es Unternehmen, sich auf die für sie wichtigen und richtigen Kunden zu fokussieren. Darüber hinaus können Firmen mit speziellen Scoring- Verfahren ermitteln, welche Kunden langfristig in welchem Maße zum Unternehmenserfolg beitragen." Die Folgen der Bewertungen sind für die Betroffenen nicht immer positiv: Attraktive Kunden profitieren von individuellen Sonderangeboten und besonderer Zuwendung. Andere hängen vielleicht so lauge in der Warteschleife des Telefonservice, bis die profitableren Kunden abgearbeitet sind. So könnte eine praktische Umsetzung dessen aussehen, was SAP-Spreche-rin Schnaubelt abstrakt beschreibt: "In vielen Unternehmen wird Kundenbewertung mit der klassischen ABC-Analyse durchgeführt, bei der Kunden anhand von Daten wie dem Umsatz kategorisiert werden. A-Kunden als besonders wichtige Kunden werden anders betreut als C-Kunden." Noch näher am geplanten Einsatz von Data-Mining zur Terroristenjagd ist eine Anwendung, die heute viele Firmen erfolgreich nutzen: Sie spüren betrügende Mitarbeiter auf. Werner Sülzer vom großen CRM-Anbieter NCR Teradata beschreibt die Möglichkeiten so: "Heute hinterlässt praktisch jeder Täter - ob Mitarbeiter, Kunde oder Lieferant - Datenspuren bei seinen wirtschaftskriminellen Handlungen. Es muss vorrangig darum gehen, einzelne Spuren zu Handlungsmustern und Täterprofilen zu verdichten. Das gelingt mittels zentraler Datenlager und hoch entwickelter Such- und Analyseinstrumente." Von konkreten Erfolgen sprich: Entlas-sungen krimineller Mitarbeiter-nach Einsatz solcher Programme erzählen Unternehmen nicht gerne. Matthias Wilke von der "Beratungsstelle für Technologiefolgen und Qualifizierung" (BTQ) der Gewerkschaft Verdi weiß von einem Fall 'aus der Schweiz. Dort setzt die Handelskette "Pick Pay" das Programm "Lord Lose Prevention" ein. Zwei Monate nach Einfüh-rung seien Unterschlagungen im Wert von etwa 200 000 Franken ermittelt worden. Das kostete mehr als 50 verdächtige Kassiererinnen und Kassierer den Job.
Jede Kasse schickt die Daten zu Stornos, Rückgaben, Korrekturen und dergleichen an eine zentrale Datenbank. Aus den Informationen errechnet das Programm Kassiererprofile. Wessen Arbeit stark Durchschnitt abweicht, macht sich verdächtig. Die Kriterien" legen im Einzelnen die Revisionsabteilungen fest, doch generell gilt: "Bei Auffälligkeiten wie überdurchschnittlichvielenStornierungen, Off nen der Kassenschublade ohne Verkauf nach einem Storno oder Warenrücknahmen ohne Kassenbon, können die Vorgänge nachträglich einzelnen Personen zugeordnet werden", sagt Rene Schiller, Marketing-Chef des Lord-Herstellers Logware. Ein Kündigungsgrund ist eine solche Datensammlung vor Gericht nicht. Doch auf der Basis können Unternehmen gezielt Detektive einsetzen. Oder sie konfrontieren die Mitarbeiter mit dem Material; woraufhin Schuldige meist gestehen. Wilke sieht Programme wie Lord kritisch:"Jeder, der in dem Raster auffällt, kann ein potenzieller Betrüger oder Dieb sein und verdient besondere Beobachtung." Dabei könne man vom Standard abweichen, weil man unausgeschlafen und deshalb unkonzentriert sei. Hier tut sich für Wilke die Gefahr technisierter Leistungskontrolle auf. "Es ist ja nicht schwierig, mit den Programmen zu berechnen, wie lange beispielsweise das Kassieren eines Samstagseinkaufs durchschnittlich dauert." Die Betriebsräte - ihre Zustimmung ist beim Einsatz technischer Kon trolleinrichtungen nötig - verurteilen die wertende Software weniger eindeutig. Im Gegenteil: Bei Kaufhof und Edeka haben sie dem Einsatz zugestimmt. Denn: "Die wollen ja nicht, dass ganze Abteilungen wegen Inventurverlusten oder dergleichen unter Generalverdacht fallen", erklärt Gewerkschaftler Wilke: "Angesichts der Leistungen kommerzieller Data-Mining-Programme verblüfft es, dass in den Vereinigten Staaten das "Information Awareness Office" noch drei Jahre für Forschung und Erprobung der eigenen Programme veranschlagt. 2005 sollen frühe Prototypen zur Terroristensuche einesgetz werden. Doch schon jetzt regt sich Protest. Datenschützer wie Marc Botenberg vom Informationszentrum für Daten schutz sprechen vom "ehrgeizigsten öffentlichen Überwachungssystem, das je vorgeschlagen wurde". Sie warnen besonders davor, Daten aus der Internetnutzung und private Mails auszuwerten. Das Verteidigungsministerium rudert zurück. Man denke nicht daran, über die Software im Inland aktiv zu werden. "Das werden die Geheimdienste, die Spionageabwehr und die Strafverfolger tun", sagt Unterstaatssekretär Edward Aldridge. Man werde während der Entwicklung und der Tests mit konstruierten und einigen - aus Sicht der Datenschützer unbedenklichen - realen Informationen arbeiten. Zu denken gibt jedoch Aldriges Antwort auf die Frage, warum so viel Geld für die Entwicklung von Übersetzungssoftware eingeplant ist: Damit man Datenbanken in anderen Sprachen nutzen könne - sofern man auf sie rechtmäßigen Zugriff bekommt."
-
Decker, B.: Data Mining in Öffentlichen Bibliotheken (2000)
0.01
0.014452068 = product of:
0.057808273 = sum of:
0.057808273 = weight(_text_:und in 5782) [ClassicSimilarity], result of:
0.057808273 = score(doc=5782,freq=2.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.34306374 = fieldWeight in 5782, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=5782)
0.25 = coord(1/4)
- Imprint
- Köln : Fachhochschule, Fachbereich Bibliotheks- und Informationswesen
-
Kipcic, O.; Cramer, C.: Wie Zeitungsinhalte Forschung und Entwicklung befördern (2017)
0.01
0.014452068 = product of:
0.057808273 = sum of:
0.057808273 = weight(_text_:und in 4885) [ClassicSimilarity], result of:
0.057808273 = score(doc=4885,freq=8.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.34306374 = fieldWeight in 4885, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=4885)
0.25 = coord(1/4)
- Abstract
- Das F.A.Z.-Archiv ist nach innen das Informationszentrum der F.A.Z. Hier ist seine oberste Aufgabe die Informationsversorgung der Redaktionen der F.A.Z. GmbH und der Nachweis der F.A.Z. mit allen Teilen und Ausgaben. Nach außen tritt es als Vermarkter von Zeitungsdaten auf, dies sowohl für das eigene Haus wie auch für Dritte. Klarer Auftrag ist dabei die Generierung von Erlösen für die F.A.Z.-Gruppe durch Informations- und Datenbankdienste für externe Kunden.
-
Wiegmann, S.: Hättest du die Titanic überlebt? : Eine kurze Einführung in das Data Mining mit freier Software (2023)
0.01
0.014452068 = product of:
0.057808273 = sum of:
0.057808273 = weight(_text_:und in 1877) [ClassicSimilarity], result of:
0.057808273 = score(doc=1877,freq=8.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.34306374 = fieldWeight in 1877, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1877)
0.25 = coord(1/4)
- Abstract
- Am 10. April 1912 ging Elisabeth Walton Allen an Bord der "Titanic", um ihr Hab und Gut nach England zu holen. Eines Nachts wurde sie von ihrer aufgelösten Tante geweckt, deren Kajüte unter Wasser stand. Wie steht es um Elisabeths Chancen und hätte man selbst das Unglück damals überlebt? Das Titanic-Orakel ist eine algorithmusbasierte App, die entsprechende Prognosen aufstellt und im Rahmen des Kurses "Data Science" am Department Information der HAW Hamburg entstanden ist. Dieser Beitrag zeigt Schritt für Schritt, wie die App unter Verwendung freier Software entwickelt wurde. Code und Daten werden zur Nachnutzung bereitgestellt.
-
Lusti, M.: Data Warehousing and Data Mining : Eine Einführung in entscheidungsunterstützende Systeme (1999)
0.01
0.014303839 = product of:
0.057215355 = sum of:
0.057215355 = weight(_text_:und in 5261) [ClassicSimilarity], result of:
0.057215355 = score(doc=5261,freq=6.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.33954507 = fieldWeight in 5261, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=5261)
0.25 = coord(1/4)
- Abstract
- Im Mittelpunkt dieses anwendungsbezogenen Lehrbuchs stehen Architekturen, Methoden und Werkzeuge entscheidungsunterstützender Systeme. Beispiele und Aufgaben ermöglichen die Entwicklung von Anwendungen mit der Demonstrationssoftware der CD-ROM. Eine interaktive Foliensammlung veranschaulicht den Buchtext und verweist auf zusätzliches Lernmaterial
-
Peters, G.; Gaese, V.: ¬Das DocCat-System in der Textdokumentation von G+J (2003)
0.01
0.014303839 = product of:
0.057215355 = sum of:
0.057215355 = weight(_text_:und in 2507) [ClassicSimilarity], result of:
0.057215355 = score(doc=2507,freq=24.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.33954507 = fieldWeight in 2507, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2507)
0.25 = coord(1/4)
- Abstract
- Wir werden einmal die Grundlagen des Text-Mining-Systems bei IBM darstellen, dann werden wir das Projekt etwas umfangreicher und deutlicher darstellen, da kennen wir uns aus. Von daher haben wir zwei Teile, einmal Heidelberg, einmal Hamburg. Noch einmal zur Technologie. Text-Mining ist eine von IBM entwickelte Technologie, die in einer besonderen Ausformung und Programmierung für uns zusammengestellt wurde. Das Projekt hieß bei uns lange Zeit DocText Miner und heißt seit einiger Zeit auf Vorschlag von IBM DocCat, das soll eine Abkürzung für Document-Categoriser sein, sie ist ja auch nett und anschaulich. Wir fangen an mit Text-Mining, das bei IBM in Heidelberg entwickelt wurde. Die verstehen darunter das automatische Indexieren als eine Instanz, also einen Teil von Text-Mining. Probleme werden dabei gezeigt, und das Text-Mining ist eben eine Methode zur Strukturierung von und der Suche in großen Dokumentenmengen, die Extraktion von Informationen und, das ist der hohe Anspruch, von impliziten Zusammenhängen. Das letztere sei dahingestellt. IBM macht das quantitativ, empirisch, approximativ und schnell. das muss man wirklich sagen. Das Ziel, und das ist ganz wichtig für unser Projekt gewesen, ist nicht, den Text zu verstehen, sondern das Ergebnis dieser Verfahren ist, was sie auf Neudeutsch a bundle of words, a bag of words nennen, also eine Menge von bedeutungstragenden Begriffen aus einem Text zu extrahieren, aufgrund von Algorithmen, also im Wesentlichen aufgrund von Rechenoperationen. Es gibt eine ganze Menge von linguistischen Vorstudien, ein wenig Linguistik ist auch dabei, aber nicht die Grundlage der ganzen Geschichte. Was sie für uns gemacht haben, ist also die Annotierung von Pressetexten für unsere Pressedatenbank. Für diejenigen, die es noch nicht kennen: Gruner + Jahr führt eine Textdokumentation, die eine Datenbank führt, seit Anfang der 70er Jahre, da sind z.Z. etwa 6,5 Millionen Dokumente darin, davon etwas über 1 Million Volltexte ab 1993. Das Prinzip war lange Zeit, dass wir die Dokumente, die in der Datenbank gespeichert waren und sind, verschlagworten und dieses Prinzip haben wir auch dann, als der Volltext eingeführt wurde, in abgespeckter Form weitergeführt. Zu diesen 6,5 Millionen Dokumenten gehören dann eben auch ungefähr 10 Millionen Faksimileseiten, weil wir die Faksimiles auch noch standardmäßig aufheben.
- Source
- Medien-Informationsmanagement: Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte. Hrsg.: Marianne Englert u.a
-
Brückner, T.; Dambeck, H.: Sortierautomaten : Grundlagen der Textklassifizierung (2003)
0.01
0.014303839 = product of:
0.057215355 = sum of:
0.057215355 = weight(_text_:und in 3398) [ClassicSimilarity], result of:
0.057215355 = score(doc=3398,freq=6.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.33954507 = fieldWeight in 3398, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3398)
0.25 = coord(1/4)
- Abstract
- Rechnung, Kündigung oder Adressänderung? Eingehende Briefe und E-Mails werden immer häufiger von Software statt aufwändig von Menschenhand sortiert. Die Textklassifizierer arbeiten erstaunlich genau. Sie fahnden auch nach ähnlichen Texten und sorgen so für einen schnellen Überblick. Ihre Werkzeuge sind Linguistik, Statistik und Logik
-
Derek Doran, D.; Gokhale, S.S.: ¬A classification framework for web robots (2012)
0.01
0.013183547 = product of:
0.05273419 = sum of:
0.05273419 = weight(_text_:journal in 1505) [ClassicSimilarity], result of:
0.05273419 = score(doc=1505,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.24768913 = fieldWeight in 1505, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0625 = fieldNorm(doc=1505)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science and Technology. 63(2012) no.12, S.2549-2554,
-
Jäger, L.: Von Big Data zu Big Brother (2018)
0.01
0.013057558 = product of:
0.05223023 = sum of:
0.05223023 = weight(_text_:und in 234) [ClassicSimilarity], result of:
0.05223023 = score(doc=234,freq=20.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.3099608 = fieldWeight in 234, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=234)
0.25 = coord(1/4)
- Abstract
- 1983 bewegte ein einziges Thema die gesamte Bundesrepublik: die geplante Volkszählung. Jeder Haushalt in Westdeutschland sollte Fragebögen mit 36 Fragen zur Wohnsituation, den im Haushalt lebenden Personen und über ihre Einkommensverhältnisse ausfüllen. Es regte sich massiver Widerstand, hunderte Bürgerinitiativen formierten sich im ganzen Land gegen die Befragung. Man wollte nicht "erfasst" werden, die Privatsphäre war heilig. Es bestand die (berechtigte) Sorge, dass die Antworten auf den eigentlich anonymisierten Fragebögen Rückschlüsse auf die Identität der Befragten zulassen. Das Bundesverfassungsgericht gab den Klägern gegen den Zensus Recht: Die geplante Volkszählung verstieß gegen den Datenschutz und damit auch gegen das Grundgesetz. Sie wurde gestoppt. Nur eine Generation später geben wir sorglos jedes Mal beim Einkaufen die Bonuskarte der Supermarktkette heraus, um ein paar Punkte für ein Geschenk oder Rabatte beim nächsten Einkauf zu sammeln. Und dabei wissen wir sehr wohl, dass der Supermarkt damit unser Konsumverhalten bis ins letzte Detail erfährt. Was wir nicht wissen, ist, wer noch Zugang zu diesen Daten erhält. Deren Käufer bekommen nicht nur Zugriff auf unsere Einkäufe, sondern können über sie auch unsere Gewohnheiten, persönlichen Vorlieben und Einkommen ermitteln. Genauso unbeschwert surfen wir im Internet, googeln und shoppen, mailen und chatten. Google, Facebook und Microsoft schauen bei all dem nicht nur zu, sondern speichern auf alle Zeiten alles, was wir von uns geben, was wir einkaufen, was wir suchen, und verwenden es für ihre eigenen Zwecke. Sie durchstöbern unsere E-Mails, kennen unser persönliches Zeitmanagement, verfolgen unseren momentanen Standort, wissen um unsere politischen, religiösen und sexuellen Präferenzen (wer kennt ihn nicht, den Button "an Männern interessiert" oder "an Frauen interessiert"?), unsere engsten Freunde, mit denen wir online verbunden sind, unseren Beziehungsstatus, welche Schule wir besuchen oder besucht haben und vieles mehr.
-
Heyer, G.; Läuter, M.; Quasthoff, U.; Wolff, C.: Texttechnologische Anwendungen am Beispiel Text Mining (2000)
0.01
0.012387486 = product of:
0.049549945 = sum of:
0.049549945 = weight(_text_:und in 6565) [ClassicSimilarity], result of:
0.049549945 = score(doc=6565,freq=8.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.29405463 = fieldWeight in 6565, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6565)
0.25 = coord(1/4)
- Abstract
- Die zunehmende Menge von Informationen und deren weltweite Verfügbarkeit auf der Basis moderner Internet Technologie machen es erforderlich, Informationen nach inhaltlichen Kriterien zu strukturieren und zu bewerten sowie nach inhaltlichen Kriterien weiter zu verarbeiten. Vom Standpunkt des Benutzers aus sind dabei folgende Fälle zu unterscheiden: Handelt es sich bei den gesuchten Informationen um strukturierle Daten (z.B. in einer SQL-Datenbank) oder unstrukturierte Daten (z.B. grosse Texte)? Ist bekannt, welche Daten benötigt werden und wie sie zu finden sind? Oder ist vor dein Zugriff auf die Daten noch nicht bekannt welche Ergebnisse erwartet werden?
- Source
- Sprachtechnologie für eine dynamische Wirtschaft im Medienzeitalter - Language technologies for dynamic business in the age of the media - L'ingénierie linguistique au service de la dynamisation économique à l'ère du multimédia: Tagungsakten der XXVI. Jahrestagung der Internationalen Vereinigung Sprache und Wirtschaft e.V., 23.-25.11.2000, Fachhochschule Köln. Hrsg.: K.-D. Schmitz
-
Witten, I.H.; Frank, E.: Data Mining : Praktische Werkzeuge und Techniken für das maschinelle Lernen (2000)
0.01
0.012387486 = product of:
0.049549945 = sum of:
0.049549945 = weight(_text_:und in 833) [ClassicSimilarity], result of:
0.049549945 = score(doc=833,freq=2.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.29405463 = fieldWeight in 833, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=833)
0.25 = coord(1/4)
-
Klein, H.: Web Content Mining (2004)
0.01
0.012387486 = product of:
0.049549945 = sum of:
0.049549945 = weight(_text_:und in 4154) [ClassicSimilarity], result of:
0.049549945 = score(doc=4154,freq=18.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.29405463 = fieldWeight in 4154, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4154)
0.25 = coord(1/4)
- Abstract
- Web Mining - ein Schlagwort, das mit der Verbreitung des Internets immer öfter zu lesen und zu hören ist. Die gegenwärtige Forschung beschäftigt sich aber eher mit dem Nutzungsverhalten der Internetnutzer, und ein Blick in Tagungsprogramme einschlägiger Konferenzen (z.B. GOR - German Online Research) zeigt, dass die Analyse der Inhalte kaum Thema ist. Auf der GOR wurden 1999 zwei Vorträge zu diesem Thema gehalten, auf der Folgekonferenz 2001 kein einziger. Web Mining ist der Oberbegriff für zwei Typen von Web Mining: Web Usage Mining und Web Content Mining. Unter Web Usage Mining versteht man das Analysieren von Daten, wie sie bei der Nutzung des WWW anfallen und von den Servern protokolliert wenden. Man kann ermitteln, welche Seiten wie oft aufgerufen wurden, wie lange auf den Seiten verweilt wurde und vieles andere mehr. Beim Web Content Mining wird der Inhalt der Webseiten untersucht, der nicht nur Text, sondern auf Bilder, Video- und Audioinhalte enthalten kann. Die Software für die Analyse von Webseiten ist in den Grundzügen vorhanden, doch müssen die meisten Webseiten für die entsprechende Analysesoftware erst aufbereitet werden. Zuerst müssen die relevanten Websites ermittelt werden, die die gesuchten Inhalte enthalten. Das geschieht meist mit Suchmaschinen, von denen es mittlerweile Hunderte gibt. Allerdings kann man nicht davon ausgehen, dass die Suchmaschinen alle existierende Webseiten erfassen. Das ist unmöglich, denn durch das schnelle Wachstum des Internets kommen täglich Tausende von Webseiten hinzu, und bereits bestehende ändern sich der werden gelöscht. Oft weiß man auch nicht, wie die Suchmaschinen arbeiten, denn das gehört zu den Geschäftsgeheimnissen der Betreiber. Man muss also davon ausgehen, dass die Suchmaschinen nicht alle relevanten Websites finden (können). Der nächste Schritt ist das Herunterladen der Websites, dafür gibt es Software, die unter den Bezeichnungen OfflineReader oder Webspider zu finden ist. Das Ziel dieser Programme ist, die Website in einer Form herunterzuladen, die es erlaubt, die Website offline zu betrachten. Die Struktur der Website wird in der Regel beibehalten. Wer die Inhalte einer Website analysieren will, muss also alle Dateien mit seiner Analysesoftware verarbeiten können. Software für Inhaltsanalyse geht davon aus, dass nur Textinformationen in einer einzigen Datei verarbeitet werden. QDA Software (qualitative data analysis) verarbeitet dagegen auch Audiound Videoinhalte sowie internetspezifische Kommunikation wie z.B. Chats.
- Source
- Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
-
Sperlich, T.: ¬Die Zukunft hat schon begonnen : Visualisierungssoftware in der praktischen Anwendung (2000)
0.01
0.011679036 = product of:
0.046716142 = sum of:
0.046716142 = weight(_text_:und in 6059) [ClassicSimilarity], result of:
0.046716142 = score(doc=6059,freq=4.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.2772374 = fieldWeight in 6059, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6059)
0.25 = coord(1/4)
- Content
- 1. Unsichtbares sichtbar machen - 2. Mit 3D-Darsteltungen besser verkaufen - 3. Mixed Realities - 4. Informationstechnik hilft heilen - 5. Informationen finden - Komplexes verstehen - 6. Informationslandschaften - Karten - 7. Arbeiten und Wohnen in der Info-Zukunft - 8. Neues Lernen in der Info-Welt - 9. Computerspiele alsTechnologie-Avantgarde - 10. Multimediale Kunst
- Source
- Weltwissen - Wissenswelt: Das globale Netz von Text und Bild. Hrsg.: Christa Maar, u.a
-
Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016)
0.01
0.011679036 = product of:
0.046716142 = sum of:
0.046716142 = weight(_text_:und in 3568) [ClassicSimilarity], result of:
0.046716142 = score(doc=3568,freq=4.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.2772374 = fieldWeight in 3568, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3568)
0.25 = coord(1/4)
- Abstract
- Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.
-
Nohr, H.: Big Data im Lichte der EU-Datenschutz-Grundverordnung (2017)
0.01
0.011679036 = product of:
0.046716142 = sum of:
0.046716142 = weight(_text_:und in 76) [ClassicSimilarity], result of:
0.046716142 = score(doc=76,freq=4.0), product of:
0.16850592 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07597547 = queryNorm
0.2772374 = fieldWeight in 76, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=76)
0.25 = coord(1/4)
- Abstract
- Der vorliegende Beitrag beschäftigt sich mit den Rahmenbedingungen für analytische Anwendungen wie Big Data, die durch das neue europäische Datenschutzrecht entstehen, insbesondere durch die EU-Datenschutz-Grundverordnung. Er stellt wesentliche Neuerungen vor und untersucht die spezifischen datenschutzrechtlichen Regelungen im Hinblick auf den Einsatz von Big Data sowie Voraussetzungen, die durch die Verordnung abverlangt werden.
- Source
- JurPC: Internet-Zeitschrift für Rechtsinformatik und Informationsrecht, [http://www.jurpc.de/jurpc/show?id=20170111]
-
Wong, S.K.M.; Butz, C.J.; Xiang, X.: Automated database schema design using mined data dependencies (1998)
0.01
0.011535604 = product of:
0.046142414 = sum of:
0.046142414 = weight(_text_:journal in 3897) [ClassicSimilarity], result of:
0.046142414 = score(doc=3897,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.21672799 = fieldWeight in 3897, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0546875 = fieldNorm(doc=3897)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science. 49(1998) no.5, S.455-470
-
Raghavan, V.V.; Deogun, J.S.; Sever, H.: Knowledge discovery and data mining : introduction (1998)
0.01
0.011535604 = product of:
0.046142414 = sum of:
0.046142414 = weight(_text_:journal in 3899) [ClassicSimilarity], result of:
0.046142414 = score(doc=3899,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.21672799 = fieldWeight in 3899, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0546875 = fieldNorm(doc=3899)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science. 49(1998) no.5, S.397-402
-
Bell, D.A.; Guan, J.W.: Computational methods for rough classification and discovery (1998)
0.01
0.011535604 = product of:
0.046142414 = sum of:
0.046142414 = weight(_text_:journal in 3909) [ClassicSimilarity], result of:
0.046142414 = score(doc=3909,freq=2.0), product of:
0.21290474 = queryWeight, product of:
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.07597547 = queryNorm
0.21672799 = fieldWeight in 3909, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.8022826 = idf(docFreq=7325, maxDocs=44421)
0.0546875 = fieldNorm(doc=3909)
0.25 = coord(1/4)
- Source
- Journal of the American Society for Information Science. 49(1998) no.5, S.403-414