Search (57 results, page 1 of 3)

  • × theme_ss:"Data Mining"
  1. Wiegmann, S.: Hättest du die Titanic überlebt? : Eine kurze Einführung in das Data Mining mit freier Software (2023) 0.09
    0.085542135 = product of:
      0.17108427 = sum of:
        0.052876893 = weight(_text_:und in 1877) [ClassicSimilarity], result of:
          0.052876893 = score(doc=1877,freq=8.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.34306374 = fieldWeight in 1877, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1877)
        0.11820738 = weight(_text_:https in 1877) [ClassicSimilarity], result of:
          0.11820738 = score(doc=1877,freq=4.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.43132702 = fieldWeight in 1877, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1877)
      0.5 = coord(2/4)
    
    Abstract
    Am 10. April 1912 ging Elisabeth Walton Allen an Bord der "Titanic", um ihr Hab und Gut nach England zu holen. Eines Nachts wurde sie von ihrer aufgelösten Tante geweckt, deren Kajüte unter Wasser stand. Wie steht es um Elisabeths Chancen und hätte man selbst das Unglück damals überlebt? Das Titanic-Orakel ist eine algorithmusbasierte App, die entsprechende Prognosen aufstellt und im Rahmen des Kurses "Data Science" am Department Information der HAW Hamburg entstanden ist. Dieser Beitrag zeigt Schritt für Schritt, wie die App unter Verwendung freier Software entwickelt wurde. Code und Daten werden zur Nachnutzung bereitgestellt.
    Content
    Vgl.: https://doi.org/10.15460/apimagazin.2023.4.1.130.
    Source
    API Magazin. 4(2023), Nr.1 [https://journals.sub.uni-hamburg.de/hup3/apimagazin/article/view/130]
  2. Datentracking in der Wissenschaft : Aggregation und Verwendung bzw. Verkauf von Nutzungsdaten durch Wissenschaftsverlage. Ein Informationspapier des Ausschusses für Wissenschaftliche Bibliotheken und Informationssysteme der Deutschen Forschungsgemeinschaft (2021) 0.08
    0.07507317 = product of:
      0.15014634 = sum of:
        0.078501835 = weight(_text_:und in 1249) [ClassicSimilarity], result of:
          0.078501835 = score(doc=1249,freq=24.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.50931764 = fieldWeight in 1249, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1249)
        0.07164449 = weight(_text_:https in 1249) [ClassicSimilarity], result of:
          0.07164449 = score(doc=1249,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.26142365 = fieldWeight in 1249, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.046875 = fieldNorm(doc=1249)
      0.5 = coord(2/4)
    
    Abstract
    Das Informationspapier beschreibt die digitale Nachverfolgung von wissenschaftlichen Aktivitäten. Wissenschaftlerinnen und Wissenschaftler nutzen täglich eine Vielzahl von digitalen Informationsressourcen wie zum Beispiel Literatur- und Volltextdatenbanken. Häufig fallen dabei Nutzungsspuren an, die Aufschluss geben über gesuchte und genutzte Inhalte, Verweildauern und andere Arten der wissenschaftlichen Aktivität. Diese Nutzungsspuren können von den Anbietenden der Informationsressourcen festgehalten, aggregiert und weiterverwendet oder verkauft werden. Das Informationspapier legt die Transformation von Wissenschaftsverlagen hin zu Data Analytics Businesses dar, verweist auf die Konsequenzen daraus für die Wissenschaft und deren Einrichtungen und benennt die zum Einsatz kommenden Typen der Datengewinnung. Damit dient es vor allem der Darstellung gegenwärtiger Praktiken und soll zu Diskussionen über deren Konsequenzen für die Wissenschaft anregen. Es richtet sich an alle Wissenschaftlerinnen und Wissenschaftler sowie alle Akteure in der Wissenschaftslandschaft.
    Editor
    Deutsche Forschungsgemeinschaft / Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme
    Source
    https://www.dfg.de/download/pdf/foerderung/programme/lis/datentracking_papier_de.pdf
  3. Mandl, T.: Text Mining und Data Mining (2023) 0.07
    0.07417297 = product of:
      0.14834595 = sum of:
        0.06476071 = weight(_text_:und in 1775) [ClassicSimilarity], result of:
          0.06476071 = score(doc=1775,freq=12.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.42016557 = fieldWeight in 1775, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1775)
        0.08358524 = weight(_text_:https in 1775) [ClassicSimilarity], result of:
          0.08358524 = score(doc=1775,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 1775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1775)
      0.5 = coord(2/4)
    
    Abstract
    Text und Data Mining sind ein Bündel von Technologien, die eng mit den Themenfeldern Statistik, Maschinelles Lernen und dem Erkennen von Mustern verbunden sind. Die üblichen Definitionen beziehen eine Vielzahl von verschiedenen Verfahren mit ein, ohne eine exakte Grenze zu ziehen. Data Mining bezeichnet die Suche nach Mustern, Regelmäßigkeiten oder Auffälligkeiten in stark strukturierten und vor allem numerischen Daten. "Any algorithm that enumerates patterns from, or fits models to, data is a data mining algorithm." Numerische Daten und Datenbankinhalte werden als strukturierte Daten bezeichnet. Dagegen gelten Textdokumente in natürlicher Sprache als unstrukturierte Daten.
    Footnote
    Vgl.: https://doi.org/10.1515/9783110769043.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  4. Bauckhage, C.: Moderne Textanalyse : neues Wissen für intelligente Lösungen (2016) 0.07
    0.06912848 = product of:
      0.13825697 = sum of:
        0.042730987 = weight(_text_:und in 3568) [ClassicSimilarity], result of:
          0.042730987 = score(doc=3568,freq=4.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.2772374 = fieldWeight in 3568, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3568)
        0.09552599 = weight(_text_:https in 3568) [ClassicSimilarity], result of:
          0.09552599 = score(doc=3568,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.34856486 = fieldWeight in 3568, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0625 = fieldNorm(doc=3568)
      0.5 = coord(2/4)
    
    Abstract
    Im Zuge der immer größeren Verfügbarkeit von Daten (Big Data) und rasanter Fortschritte im Daten-basierten maschinellen Lernen haben wir in den letzten Jahren Durchbrüche in der künstlichen Intelligenz erlebt. Dieser Vortrag beleuchtet diese Entwicklungen insbesondere im Hinblick auf die automatische Analyse von Textdaten. Anhand einfacher Beispiele illustrieren wir, wie moderne Textanalyse abläuft und zeigen wiederum anhand von Beispielen, welche praktischen Anwendungsmöglichkeiten sich heutzutage in Branchen wie dem Verlagswesen, der Finanzindustrie oder dem Consulting ergeben.
    Source
    https://login.mailingwork.de/public/a_5668_LVrTK/file/data/1125_Textanalyse_Christian-Bauckhage.pdf
  5. Jäger, L.: Von Big Data zu Big Brother (2018) 0.05
    0.047768846 = product of:
      0.09553769 = sum of:
        0.047774695 = weight(_text_:und in 234) [ClassicSimilarity], result of:
          0.047774695 = score(doc=234,freq=20.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.3099608 = fieldWeight in 234, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=234)
        0.047762994 = weight(_text_:https in 234) [ClassicSimilarity], result of:
          0.047762994 = score(doc=234,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.17428243 = fieldWeight in 234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.03125 = fieldNorm(doc=234)
      0.5 = coord(2/4)
    
    Abstract
    1983 bewegte ein einziges Thema die gesamte Bundesrepublik: die geplante Volkszählung. Jeder Haushalt in Westdeutschland sollte Fragebögen mit 36 Fragen zur Wohnsituation, den im Haushalt lebenden Personen und über ihre Einkommensverhältnisse ausfüllen. Es regte sich massiver Widerstand, hunderte Bürgerinitiativen formierten sich im ganzen Land gegen die Befragung. Man wollte nicht "erfasst" werden, die Privatsphäre war heilig. Es bestand die (berechtigte) Sorge, dass die Antworten auf den eigentlich anonymisierten Fragebögen Rückschlüsse auf die Identität der Befragten zulassen. Das Bundesverfassungsgericht gab den Klägern gegen den Zensus Recht: Die geplante Volkszählung verstieß gegen den Datenschutz und damit auch gegen das Grundgesetz. Sie wurde gestoppt. Nur eine Generation später geben wir sorglos jedes Mal beim Einkaufen die Bonuskarte der Supermarktkette heraus, um ein paar Punkte für ein Geschenk oder Rabatte beim nächsten Einkauf zu sammeln. Und dabei wissen wir sehr wohl, dass der Supermarkt damit unser Konsumverhalten bis ins letzte Detail erfährt. Was wir nicht wissen, ist, wer noch Zugang zu diesen Daten erhält. Deren Käufer bekommen nicht nur Zugriff auf unsere Einkäufe, sondern können über sie auch unsere Gewohnheiten, persönlichen Vorlieben und Einkommen ermitteln. Genauso unbeschwert surfen wir im Internet, googeln und shoppen, mailen und chatten. Google, Facebook und Microsoft schauen bei all dem nicht nur zu, sondern speichern auf alle Zeiten alles, was wir von uns geben, was wir einkaufen, was wir suchen, und verwenden es für ihre eigenen Zwecke. Sie durchstöbern unsere E-Mails, kennen unser persönliches Zeitmanagement, verfolgen unseren momentanen Standort, wissen um unsere politischen, religiösen und sexuellen Präferenzen (wer kennt ihn nicht, den Button "an Männern interessiert" oder "an Frauen interessiert"?), unsere engsten Freunde, mit denen wir online verbunden sind, unseren Beziehungsstatus, welche Schule wir besuchen oder besucht haben und vieles mehr.
    Source
    https://www.heise.de/tp/features/Von-Big-Data-zu-Big-Brother-3946125.html?view=print
  6. Maaten, L. van den; Hinton, G.: Visualizing data using t-SNE (2008) 0.03
    0.02585248 = product of:
      0.10340992 = sum of:
        0.10340992 = weight(_text_:https in 4888) [ClassicSimilarity], result of:
          0.10340992 = score(doc=4888,freq=6.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.37733257 = fieldWeight in 4888, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4888)
      0.25 = coord(1/4)
    
    Content
    Vgl. auch: https://lvdmaaten.github.io/tsne/. https://www.tensorflow.org/. https://distill.pub/2016/misread-tsne/.
  7. Wattenberg, M.; Viégas, F.; Johnson, I.: How to use t-SNE effectively (2016) 0.02
    0.023881497 = product of:
      0.09552599 = sum of:
        0.09552599 = weight(_text_:https in 4887) [ClassicSimilarity], result of:
          0.09552599 = score(doc=4887,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.34856486 = fieldWeight in 4887, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0625 = fieldNorm(doc=4887)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://distill.pub/2016/misread-tsne/.
  8. Huvila, I.; Sinnamon, L.S.: When data sharing is an answer and when (often) it is not : acknowledging data-driven, non-data, and data-decentered cultures (2024) 0.02
    0.02110846 = product of:
      0.08443384 = sum of:
        0.08443384 = weight(_text_:https in 2406) [ClassicSimilarity], result of:
          0.08443384 = score(doc=2406,freq=4.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30809072 = fieldWeight in 2406, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2406)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://asistdl.onlinelibrary.wiley.com/doi/10.1002/asi.24957. Vgl.: https://doi.org/10.1002/asi.24957.
  9. Maaten, L. van den: Learning a parametric embedding by preserving local structure (2009) 0.02
    0.02089631 = product of:
      0.08358524 = sum of:
        0.08358524 = weight(_text_:https in 4883) [ClassicSimilarity], result of:
          0.08358524 = score(doc=4883,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 4883, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4883)
      0.25 = coord(1/4)
    
    Content
    Vgl. auch: https://lvdmaaten.github.io/tsne/.
  10. Maaten, L. van den: Accelerating t-SNE using Tree-Based Algorithms (2014) 0.02
    0.02089631 = product of:
      0.08358524 = sum of:
        0.08358524 = weight(_text_:https in 4886) [ClassicSimilarity], result of:
          0.08358524 = score(doc=4886,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 4886, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4886)
      0.25 = coord(1/4)
    
    Content
    Vgl. auch: https://lvdmaaten.github.io/tsne/.
  11. Short, M.: Text mining and subject analysis for fiction; or, using machine learning and information extraction to assign subject headings to dime novels (2019) 0.02
    0.02089631 = product of:
      0.08358524 = sum of:
        0.08358524 = weight(_text_:https in 481) [ClassicSimilarity], result of:
          0.08358524 = score(doc=481,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.30499426 = fieldWeight in 481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.0546875 = fieldNorm(doc=481)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://doi.org/10.1080/01639374.2019.1653413.
  12. Ester, M.; Sander, J.: Knowledge discovery in databases : Techniken und Anwendungen (2000) 0.02
    0.019985588 = product of:
      0.07994235 = sum of:
        0.07994235 = weight(_text_:und in 2374) [ClassicSimilarity], result of:
          0.07994235 = score(doc=2374,freq=14.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.51866364 = fieldWeight in 2374, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2374)
      0.25 = coord(1/4)
    
    Abstract
    Knowledge Discovery in Databases (KDD) ist ein aktuelles Forschungs- und Anwendungsgebiet der Informatik. Ziel des KDD ist es, selbständig entscheidungsrelevante, aber bisher unbekannte Zusammenhänge und Verknüpfungen in den Daten großer Datenmengen zu entdecken und dem Analysten oder dem Anwender in übersichtlicher Form zu präsentieren. Die Autoren stellen die Techniken und Anwendungen dieses interdisziplinären Gebiets anschaulich dar.
    Content
    Einleitung.- Statistik- und Datenbank-Grundlagen.Klassifikation.- Assoziationsregeln.- Generalisierung und Data Cubes.- Spatial-, Text-, Web-, Temporal-Data Mining. Ausblick.
  13. Analytische Informationssysteme : Data Warehouse, On-Line Analytical Processing, Data Mining (1998) 0.02
    0.019985588 = product of:
      0.07994235 = sum of:
        0.07994235 = weight(_text_:und in 2380) [ClassicSimilarity], result of:
          0.07994235 = score(doc=2380,freq=14.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.51866364 = fieldWeight in 2380, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2380)
      0.25 = coord(1/4)
    
    Abstract
    Neben den operativen Informationssystemen treten heute verstärkt Informationssysteme für die analytischen Aufgaben der Fach- und Führungskräfte in den Vordergrund. In fast allen Unternehmen werden derzeit Begriffe und Konzepte wie Data Warehouse, On-Line Analytical Processing und Data Mining diskutiert und die zugehörigen Produkte evaluiert. Vor diesem Hintergrund zielt der vorliegende Sammelband darauf, einen aktuellen Überblick über Technologien, Produkte und Trends zu bieten. Als Entscheidungsgrundlage für den Praktiker beim Aufbau und Einsatz derartiger analytischer Informationssysteme können die unterschiedlichen Beiträge aus Wirtschaft und Wissenschaft wertvolle Hilfestellung leisten
  14. Lackes, R.; Tillmanns, C.: Data Mining für die Unternehmenspraxis : Entscheidungshilfen und Fallstudien mit führenden Softwarelösungen (2006) 0.02
    0.018789945 = product of:
      0.07515978 = sum of:
        0.07515978 = weight(_text_:und in 2383) [ClassicSimilarity], result of:
          0.07515978 = score(doc=2383,freq=22.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.48763448 = fieldWeight in 2383, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2383)
      0.25 = coord(1/4)
    
    Abstract
    Das Buch richtet sich an Praktiker in Unternehmen, die sich mit der Analyse von großen Datenbeständen beschäftigen. Nach einem kurzen Theorieteil werden vier Fallstudien aus dem Customer Relationship Management eines Versandhändlers bearbeitet. Dabei wurden acht führende Softwarelösungen verwendet: der Intelligent Miner von IBM, der Enterprise Miner von SAS, Clementine von SPSS, Knowledge Studio von Angoss, der Delta Miner von Bissantz, der Business Miner von Business Object und die Data Engine von MIT. Im Rahmen der Fallstudien werden die Stärken und Schwächen der einzelnen Lösungen deutlich, und die methodisch-korrekte Vorgehensweise beim Data Mining wird aufgezeigt. Beides liefert wertvolle Entscheidungshilfen für die Auswahl von Standardsoftware zum Data Mining und für die praktische Datenanalyse.
    Content
    Modelle, Methoden und Werkzeuge: Ziele und Aufbau der Untersuchung.- Grundlagen.- Planung und Entscheidung mit Data-Mining-Unterstützung.- Methoden.- Funktionalität und Handling der Softwarelösungen. Fallstudien: Ausgangssituation und Datenbestand im Versandhandel.- Kundensegmentierung.- Erklärung regionaler Marketingerfolge zur Neukundengewinnung.Prognose des Customer Lifetime Values.- Selektion von Kunden für eine Direktmarketingaktion.- Welche Softwarelösung für welche Entscheidung?- Fazit und Marktentwicklungen.
  15. Analytische Informationssysteme : Data Warehouse, On-Line Analytical Processing, Data Mining (1999) 0.02
    0.018694807 = product of:
      0.07477923 = sum of:
        0.07477923 = weight(_text_:und in 2381) [ClassicSimilarity], result of:
          0.07477923 = score(doc=2381,freq=16.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.48516542 = fieldWeight in 2381, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2381)
      0.25 = coord(1/4)
    
    Abstract
    Neben den operativen Informationssystemen, welche die Abwicklung des betrieblichen Tagesgeschäftes unterstützen, treten heute verstärkt Informationssysteme für analytische Aufgaben der Fach- und Führungskräfte in den Vordergrund. In fast allen Unternehmen werden derzeit Begriffe und Konzepte wie Data Warehouse, On-Line Analytical Processing und Data Mining diskutiert und die zugehörigen Produkte evaluiert. Vor diesem Hintergrund zielt der vorliegende Sammelband darauf ab, einen aktuellen Überblick über Technologien, Produkte und Trends zu bieten. Als Entscheidungsgrundlage für den Praktiker beim Aufbau und Einsatz derartiger analytischer Informationssysteme können die unterschiedlichen Beiträge aus Wirtschaft und Wissenschaft wertvolle Hilfestellung leisten.
    Content
    Grundlagen.- Data Warehouse.- On-line Analytical Processing.- Data Mining.- Betriebswirtschaftliche und strategische Aspekte.
  16. Drees, B.: Text und data mining : Herausforderungen und Möglichkeiten für Bibliotheken (2016) 0.02
    0.01791551 = product of:
      0.07166204 = sum of:
        0.07166204 = weight(_text_:und in 4952) [ClassicSimilarity], result of:
          0.07166204 = score(doc=4952,freq=20.0), product of:
            0.1541314 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06949432 = queryNorm
            0.4649412 = fieldWeight in 4952, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4952)
      0.25 = coord(1/4)
    
    Abstract
    Text und Data Mining (TDM) gewinnt als wissenschaftliche Methode zunehmend an Bedeutung und stellt wissenschaftliche Bibliotheken damit vor neue Herausforderungen, bietet gleichzeitig aber auch neue Möglichkeiten. Der vorliegende Beitrag gibt einen Überblick über das Thema TDM aus bibliothekarischer Sicht. Hierzu wird der Begriff Text und Data Mining im Kontext verwandter Begriffe diskutiert sowie Ziele, Aufgaben und Methoden von TDM erläutert. Diese werden anhand beispielhafter TDM-Anwendungen in Wissenschaft und Forschung illustriert. Ferner werden technische und rechtliche Probleme und Hindernisse im TDM-Kontext dargelegt. Abschließend wird die Relevanz von TDM für Bibliotheken, sowohl in ihrer Rolle als Informationsvermittler und -anbieter als auch als Anwender von TDM-Methoden, aufgezeigt. Zudem wurde im Rahmen dieser Arbeit eine Befragung der Betreiber von Dokumentenservern an Bibliotheken in Deutschland zum aktuellen Umgang mit TDM durchgeführt, die zeigt, dass hier noch viel Ausbaupotential besteht. Die dem Artikel zugrunde liegenden Forschungsdaten sind unter dem DOI 10.11588/data/10090 publiziert.
  17. Maaten, L. van den; Hinton, G.: Visualizing non-metric similarities in multiple maps (2012) 0.02
    0.017911123 = product of:
      0.07164449 = sum of:
        0.07164449 = weight(_text_:https in 4884) [ClassicSimilarity], result of:
          0.07164449 = score(doc=4884,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.26142365 = fieldWeight in 4884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.046875 = fieldNorm(doc=4884)
      0.25 = coord(1/4)
    
    Content
    Vgl. auch: https://lvdmaaten.github.io/tsne/.
  18. Ebrahimi, M.; ShafieiBavani, E.; Wong, R.; Chen, F.: Twitter user geolocation by filtering of highly mentioned users (2018) 0.02
    0.017911123 = product of:
      0.07164449 = sum of:
        0.07164449 = weight(_text_:https in 286) [ClassicSimilarity], result of:
          0.07164449 = score(doc=286,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.26142365 = fieldWeight in 286, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.046875 = fieldNorm(doc=286)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://onlinelibrary.wiley.com/doi/abs/10.1002/asi.24011.
  19. Organisciak, P.; Schmidt, B.M.; Downie, J.S.: Giving shape to large digital libraries through exploratory data analysis (2022) 0.02
    0.017911123 = product of:
      0.07164449 = sum of:
        0.07164449 = weight(_text_:https in 1474) [ClassicSimilarity], result of:
          0.07164449 = score(doc=1474,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.26142365 = fieldWeight in 1474, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.046875 = fieldNorm(doc=1474)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://asistdl.onlinelibrary.wiley.com/doi/10.1002/asi.24547.
  20. Lowe, D.B.; Dollinger, I.; Koster, T.; Herbert, B.E.: Text mining for type of research classification (2021) 0.02
    0.017911123 = product of:
      0.07164449 = sum of:
        0.07164449 = weight(_text_:https in 1721) [ClassicSimilarity], result of:
          0.07164449 = score(doc=1721,freq=2.0), product of:
            0.27405512 = queryWeight, product of:
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.06949432 = queryNorm
            0.26142365 = fieldWeight in 1721, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              3.9435613 = idf(docFreq=2339, maxDocs=44421)
              0.046875 = fieldNorm(doc=1721)
      0.25 = coord(1/4)
    
    Content
    Vgl.: https://doi.org/10.1080/01639374.2021.1998281.

Years

Languages

  • d 36
  • e 21

Types

  • a 42
  • el 14
  • m 10
  • s 6
  • x 2
  • p 1
  • More… Less…