Search (491 results, page 5 of 25)

  • × year_i:[2020 TO 2030}
  1. Schleim, S.: Reduktionismus und die Erklärung von Alltagsphänomenen (2021) 0.02
    0.016197862 = product of:
      0.06479145 = sum of:
        0.06479145 = weight(_text_:und in 1075) [ClassicSimilarity], result of:
          0.06479145 = score(doc=1075,freq=10.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.4383508 = fieldWeight in 1075, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1075)
      0.25 = coord(1/4)
    
    Abstract
    Teil 2 der Serie über Bewusstsein, Philosophie, Religion und Naturwissenschaft.
    Content
    Vorgänger als: 'Wissenschaft und Religion: Konflikt oder Kooperation?' Unter: https://www.heise.de/tp/features/Wissenschaft-und-Religion-Konflikt-oder-Kooperation-6004714.html?seite=all. Vgl. auch: https://heise.de/-6009962.
    Source
    https://www.heise.de/tp/features/Reduktionismus-und-die-Erklaerung-von-Alltagsphaenomenen-6009962.html?wt_mc=nl.red.telepolis.telepolis-nl.2021-04-16.link.link
  2. Herb, U.; Geith, U.: Kriterien der qualitativen Bewertung wissenschaftlicher Publikationen : Befunde aus dem Projekt visOA (2020) 0.02
    0.016197862 = product of:
      0.06479145 = sum of:
        0.06479145 = weight(_text_:und in 1109) [ClassicSimilarity], result of:
          0.06479145 = score(doc=1109,freq=10.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.4383508 = fieldWeight in 1109, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1109)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Beitrag beschreibt a) die Ergebnisse einer Literaturstudie zur qualitativen Wahrnehmung wissenschaftlicher Publikationen, b) die Konstruktion eines daraus abgeleiteten Kriterienkatalogs zur Wahrnehmung der Qualität wissenschaftlicher Publikationen sowie c) der Überprüfung dieses Katalogs in qualitativen Interviews mit Wissenschaflterinnen und Wissenschaftlern aus dem Fachspektrum Chemie, Physik, Biologie, Materialwissenschaft und Engineering. Es zeigte sich, dass die Wahrnehmung von Qualität auf äußerlichen und von außen herangetragenen Faktoren, inhaltlichen / semantischen Faktoren und sprachlichen, syntaktischen sowie strukturellen Faktoren beruht.
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.77-85
  3. Franz, S.; Lopatka, T.; Kunze, G.; Meyn, N.; Strupler, N.: Un/Doing Classification : Bibliothekarische Klassifikationssysteme zwischen Universalitätsanspruch und reduktionistischer Wissensorganisation (2022) 0.02
    0.016197862 = product of:
      0.06479145 = sum of:
        0.06479145 = weight(_text_:und in 1676) [ClassicSimilarity], result of:
          0.06479145 = score(doc=1676,freq=10.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.4383508 = fieldWeight in 1676, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1676)
      0.25 = coord(1/4)
    
    Abstract
    Der multiperspektivische Beitrag analysiert mit einem intersektionalen und qualitativen Ansatz diskriminierende Begriffe, Auslassungen und implizit abwertende Strukturen bibliothekarischer Klassifikationen des Globalen Nordens. Am Beispiel der Regensburger Verbundklassifikation (RVK) werden rassistische und sexistische Schnitt- sowie Leerstellen in der Repräsentation queerer Lebens-, Liebes- und Lustentwürfe aufgezeigt. Mögliche Lösungen unter Einbeziehung der Communitys runden den Beitrag ab.
  4. Huber, W.: Menschen, Götter und Maschinen : eine Ethik der Digitalisierung (2022) 0.02
    0.016197862 = product of:
      0.06479145 = sum of:
        0.06479145 = weight(_text_:und in 1753) [ClassicSimilarity], result of:
          0.06479145 = score(doc=1753,freq=40.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.4383508 = fieldWeight in 1753, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1753)
      0.25 = coord(1/4)
    
    Abstract
    Die Digitalisierung hat unsere Privatsphäre ausgehöhlt, die Öffentlichkeit in antagonistische Teilöffentlichkeiten zerlegt, Hemmschwellen gesenkt und die Grenze zwischen Wahrheit und Lüge aufgeweicht. Wolfgang Huber beschreibt klar und pointiert diese technische und soziale Entwicklung. Er zeigt, wie sich konsensfähige ethische Prinzipien für den Umgang mit digitaler Intelligenz finden lassen und umgesetzt werden können - von der Gesetzgebung, von digitalen Anbietern und von allen Nutzern. Die Haltungen zur Digitalisierung schwanken zwischen Euphorie und Apokalypse: Die einen erwarten die Schaffung eines neuen Menschen, der sich selbst zum Gott macht. Andere befürchten den Verlust von Freiheit und Menschenwürde. Wolfgang Huber wirft demgegenüber einen realistischen Blick auf den technischen Umbruch. Das beginnt bei der Sprache: Sind die "sozialen Medien" wirklich sozial? Fährt ein mit digitaler Intelligenz ausgestattetes Auto "autonom" oder nicht eher automatisiert? Sind Algorithmen, die durch Mustererkennung lernen, deshalb "intelligent"? Eine überbordende Sprache lässt uns allzu oft vergessen, dass noch so leistungsstarke Rechner nur Maschinen sind, die von Menschen entwickelt und bedient werden. Notfalls muss man ihnen den Stecker ziehen. Das wunderbar anschaulich geschriebene Buch macht auf der Höhe der aktuellen ethischen Diskussionen bewusst, dass wir uns der Digitalisierung nicht ausliefern dürfen, sondern sie selbstbestimmt und verantwortlich gestalten können. 80. Geburtstag von Wolfgang Huber am 12.8.2022 Ein Heilmittel gegen allzu euphorische und apokalyptische Erwartungen an die Digitalisierung Wie wir unsere Haltung zur Digitalisierung ändern können, um uns nicht der Technik auszuliefern.
    Classification
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
    Content
    Vorwort -- 1. Das digitale Zeitalter -- Zeitenwende -- Die Vorherrschaft des Buchdrucks geht zu Ende -- Wann beginnt das digitale Zeitalter? -- 2. Zwischen Euphorie und Apokalypse -- Digitalisierung. Einfach. Machen -- Euphorie -- Apokalypse -- Verantwortungsethik -- Der Mensch als Subjekt der Ethik -- Verantwortung als Prinzip -- 3. Digitalisierter Alltag in einer globalisierten Welt -- Vom World Wide Web zum Internet der Dinge -- Mobiles Internet und digitale Bildung -- Digitale Plattformen und ihre Strategien -- Big Data und informationelle Selbstbestimmung -- 4. Grenzüberschreitungen -- Die Erosion des Privaten -- Die Deformation des Öffentlichen -- Die Senkung von Hemmschwellen -- Das Verschwinden der Wirklichkeit -- Die Wahrheit in der Infosphäre -- 5. Die Zukunft der Arbeit -- Industrielle Revolutionen -- Arbeit 4.0 -- Ethik 4.0 -- 6. Digitale Intelligenz -- Können Computer dichten? -- Stärker als der Mensch? -- Maschinelles Lernen -- Ein bleibender Unterschied -- Ethische Prinzipien für den Umgang mit digitaler Intelligenz -- Medizin als Beispiel -- 7. Die Würde des Menschen im digitalen Zeitalter -- Kränkungen oder Revolutionen -- Transhumanismus und Posthumanismus -- Gibt es Empathie ohne Menschen? -- Wer ist autonom: Mensch oder Maschine? -- Humanismus der Verantwortung -- 8. Die Zukunft des Homo sapiens -- Vergöttlichung des Menschen -- Homo deus -- Gott und Mensch im digitalen Zeitalter -- Veränderung der Menschheit -- Literatur -- Personenregister.
    RVK
    MS 4850: Industrie (allgemeines) und Technik (Automatisierung), Technologie (Allgemeines)
  5. Caspar, J.: Datenschutz und Informationsfreiheit (2023) 0.02
    0.016197862 = product of:
      0.06479145 = sum of:
        0.06479145 = weight(_text_:und in 1824) [ClassicSimilarity], result of:
          0.06479145 = score(doc=1824,freq=10.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.4383508 = fieldWeight in 1824, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1824)
      0.25 = coord(1/4)
    
    Abstract
    Daten sind der Treibstoff der Informationsgesellschaft. Sie sind zentrale Steuerungsressourcen für Wirtschaft und Verwaltung und treiben die Algorithmen an, die die digitale Welt lenken. Darüber hinaus ist der Umgang mit Daten in der öffentlichen Verwaltung entscheidend für die demokratische Willensbildung. Nicht nur in Zeiten von Meinungsmanipulationen und Falschmeldung ist das Recht auf Zugang zu öffentlichen Informationen eine Säule des digitalen Rechtsstaats.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  6. Was ist GPT-3 und spricht das Modell Deutsch? (2022) 0.02
    0.016197862 = product of:
      0.06479145 = sum of:
        0.06479145 = weight(_text_:und in 1869) [ClassicSimilarity], result of:
          0.06479145 = score(doc=1869,freq=10.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.4383508 = fieldWeight in 1869, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1869)
      0.25 = coord(1/4)
    
    Abstract
    GPT-3 ist ein Sprachverarbeitungsmodell der amerikanischen Non-Profit-Organisation OpenAI. Es verwendet Deep-Learning um Texte zu erstellen, zusammenzufassen, zu vereinfachen oder zu übersetzen.  GPT-3 macht seit der Veröffentlichung eines Forschungspapiers wiederholt Schlagzeilen. Mehrere Zeitungen und Online-Publikationen testeten die Fähigkeiten und veröffentlichten ganze Artikel - verfasst vom KI-Modell - darunter The Guardian und Hacker News. Es wird von Journalisten rund um den Globus wahlweise als "Sprachtalent", "allgemeine künstliche Intelligenz" oder "eloquent" bezeichnet. Grund genug, die Fähigkeiten des künstlichen Sprachgenies unter die Lupe zu nehmen.
    Source
    https://www.lernen-wie-maschinen.ai/ki-pedia/was-ist-gpt-3-und-spricht-das-modell-deutsch/
  7. Graf, K.: Großer Suchmaschinentest 2021 : Alternativen zu Google? (2021) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 3443) [ClassicSimilarity], result of:
          0.062734045 = score(doc=3443,freq=6.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 3443, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=3443)
      0.25 = coord(1/4)
    
    Abstract
    Weg von Google: Die besten Suchmaschinen-Alternativen, lautet der Titel eines Artikels im Standard. Und wieder ist meine Antwort, dass es dumm und töricht wäre, für wissenschaftliche Zwecke auf eine Google-Direktabfrage zu verzichten. Insbesondere die Einbindung von Ergebnissen aus Google Books, zu dem man direkt wechseln kann, und Google Scholar, macht die Google Websuche unverzichtbar.
  8. Madisch, I.; Blumenthal, U.: Wie das Coronavirus die Wissenschaftswelt dynamisiert : [12.05.2020]. (2020) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 848) [ClassicSimilarity], result of:
          0.062734045 = score(doc=848,freq=6.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 848, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=848)
      0.25 = coord(1/4)
    
    Abstract
    Die Wissenschaft hat sich im Zuge der Forschung zur Lungenkrankheit COVID-19 rasant verändert, konstatiert Ijad Madisch, Virologe und Gründer von ResearchGate, im Dlf. Hauptziel sei es, Informationen "so kurz und knackig und so schnell wie möglich in die Wissenschaftswelt tragen" - ohne Qualitätsverlust.
  9. Bischoff, M.: KI lernt die Sprache der Mathematik (2020) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 904) [ClassicSimilarity], result of:
          0.062734045 = score(doc=904,freq=6.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 904, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=904)
      0.25 = coord(1/4)
    
    Abstract
    Bisher konnten neuronale Netze bloß einfache Ausdrücke addieren und multiplizieren. Nun haben Informatiker einen selbstlernenden Algorithmus vorgestellt, der Differenzialgleichungen löst und Stammfunktionen berechnet - und dabei alle bisherigen Methoden übertrifft.
  10. Herb, U.: ¬Das wissenschaftliche Publikations- und Reputationssystem ist gehackt (2020) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 958) [ClassicSimilarity], result of:
          0.062734045 = score(doc=958,freq=6.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 958, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=958)
      0.25 = coord(1/4)
    
    Abstract
    Wissenschaftsjournalist Leonid Schneider über Paper Mills, bei denen sich gefälschte wissenschaftliche Papers bestellen und in Journalen veröffentlichen lassen.
    Source
    https://www.heise.de/tp/features/Das-wissenschaftliche-Publikations-und-Reputationssystem-ist-gehackt-4701388.html?view=print
  11. Zimmerli, W.C.: ¬Die künstliche Intelligenz übertrifft irgendwann die menschliche und übernimmt die Macht : warum dies ein Mythos ist und wie er sich auswirkt (2021) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 1088) [ClassicSimilarity], result of:
          0.062734045 = score(doc=1088,freq=6.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 1088, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1088)
      0.25 = coord(1/4)
    
    Abstract
    Die menschliche Welt ist ohne Algorithmen nicht mehr zu denken. Zugleich überhöht der Mensch jedoch seine eigenen Erfindungen - und verzweifelt darob fast.
  12. Çetta, D.; Griesbaum, J.; Montanari, E.G.; Mandl, T.: Selbstbestimmt durch Informationskompetenz (2021) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 1117) [ClassicSimilarity], result of:
          0.062734045 = score(doc=1117,freq=24.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 1117, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1117)
      0.25 = coord(1/4)
    
    Abstract
    Das Internet verändert die Informationswelt und Gesellschaft. Es bietet zum einen umfassenden Zugriff auf Informationen, zugleich stellt es einen komplexen, interessengesteuerten und teilweise intransparenten Informationsraum dar. Die Menge an verfügbaren Informationen nimmt stetig zu, was auch daran liegt, dass Informationen von jeder Person mühelos ins Netz gestellt werden können. So gelangen auch ungeprüfte Informationen in Umlauf, was wiederum die Bewertung und Bestimmung der Glaubwürdigkeit von Informationen erschwert. Das Internet macht es einfach, Fake News und Desinformation zu verbreiten. Im privaten Bereich haben Nutzer_innen es mit Phishing- oder Spammails, falschen Online-Shops oder irreführenden Gesundheitsinformationen zu tun. Im aktuellen Corona-Kontext kursieren diverse Falschinformationen zu gesundheitsbezogenen Themen. Kurz: Das Internet ist eine fordernde Informationsumwelt. Eine Informationsumwelt, die Nutzer_innen auch überfordern kann. Verfügt man nicht über hinreichende Informationskompetenz so läuft man Gefahr sich manipulieren zu lassen und sich dabei noch für informiert zu halten.
    In Anbetracht einer komplexer werdenden Informationsumwelt unterstützt Informationskompetenz dabei, informierte Entscheidungen zu treffen. Informationskompetenz ist wichtig für private und beruflich Lebensbereiche und auch für öffentliche Diskurse elementar. Informationskompetenz schafft die Grundlage dafür, auf einer fundierten Informationsgrundlage selbstbestimmt entscheiden und sich sachlich-rational in Diskurse einbringen zu können. Informationskompetenz ist nicht schwer zu erlangen, man muss sich aber dafür entscheiden, sich informationskompetent zu verhalten. Das ist vor allem bei Themen und Entscheidungen, die auf eine fundierte Informationsgrundlage angewiesen sind wichtig.
    Content
    Dieser Artikel wurde im Rahmen des Projekts »Informationskompetenz und Demokratie (IDE): Bürger, Suchverfahren und Analyse-Algorithmen in der politischen Meinungsbildung« erstellt. Das Projekt wird durch das Niedersächsische Ministerium für Wissenschaft und Kultur im Rahmen der Ausschreibung »Zukunftsdiskurse« aus Mitteln des Niedersächsischen Vorab gefördert.
  13. Giesselbach, S.; Estler-Ziegler, T.: Dokumente schneller analysieren mit Künstlicher Intelligenz (2021) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 1129) [ClassicSimilarity], result of:
          0.062734045 = score(doc=1129,freq=24.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 1129, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1129)
      0.25 = coord(1/4)
    
    Abstract
    Künstliche Intelligenz (KI) und natürliches Sprachverstehen (natural language understanding/NLU) verändern viele Aspekte unseres Alltags und unserer Arbeitsweise. Besondere Prominenz erlangte NLU durch Sprachassistenten wie Siri, Alexa und Google Now. NLU bietet Firmen und Einrichtungen das Potential, Prozesse effizienter zu gestalten und Mehrwert aus textuellen Inhalten zu schöpfen. So sind NLU-Lösungen in der Lage, komplexe, unstrukturierte Dokumente inhaltlich zu erschließen. Für die semantische Textanalyse hat das NLU-Team des IAIS Sprachmodelle entwickelt, die mit Deep-Learning-Verfahren trainiert werden. Die NLU-Suite analysiert Dokumente, extrahiert Eckdaten und erstellt bei Bedarf sogar eine strukturierte Zusammenfassung. Mit diesen Ergebnissen, aber auch über den Inhalt der Dokumente selbst, lassen sich Dokumente vergleichen oder Texte mit ähnlichen Informationen finden. KI-basierten Sprachmodelle sind der klassischen Verschlagwortung deutlich überlegen. Denn sie finden nicht nur Texte mit vordefinierten Schlagwörtern, sondern suchen intelligent nach Begriffen, die in ähnlichem Zusammenhang auftauchen oder als Synonym gebraucht werden. Der Vortrag liefert eine Einordnung der Begriffe "Künstliche Intelligenz" und "Natural Language Understanding" und zeigt Möglichkeiten, Grenzen, aktuelle Forschungsrichtungen und Methoden auf. Anhand von Praxisbeispielen wird anschließend demonstriert, wie NLU zur automatisierten Belegverarbeitung, zur Katalogisierung von großen Datenbeständen wie Nachrichten und Patenten und zur automatisierten thematischen Gruppierung von Social Media Beiträgen und Publikationen genutzt werden kann.
  14. Markus, K.: Metadatenschemata für Forschungsdaten : Generische Standards und Spezifika in der Biologie und den Ingenieurwissenschaften (2020) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 1134) [ClassicSimilarity], result of:
          0.062734045 = score(doc=1134,freq=24.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 1134, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1134)
      0.25 = coord(1/4)
    
    Abstract
    Forschungsdaten sind von zunehmender Wichtigkeit für die Wissenschaft, Forschungsförderer und schließlich auch für die Arbeit an Bibliotheken. Sie sollen nicht nur veröffentlicht werden, sondern nach ihrer Publikation auch auffindbar und nachnutzbar sein, wie von den FAIR-Prinzipien gefordert. Die beschreibenden Metadaten müssen daher in ausreichendem Detail vorliegen, sowie standardisiert und maschinenverwendbar sein, um den Datenaustausch zu ermöglichen. Im Zuge dieser Entwicklung haben sich verschiedene Metadatenschemata und weitere Metadatenstandards sowohl für eine generische Beschreibung von Forschungsdaten, als auch für fachspezifische Metadaten einer Wissenschaftsdisziplin oder -teildisziplin etabliert. In diesem Beitrag wird eine Auswahl von weitverbreiteten generischen Standards sowie exemplarisch einzelne fachspezifische Standards aus der Biologie und den Ingenieurwissenschaft vorgestellt. Dabei wird auch die Kultur des Datenaustausches in den behandelten Fachdisziplinen beleuchtet, in dessen Kontext sich die entsprechenden Metadatenschemata herausbildet haben. Weiterhin wird auch ein kurzer Ausblick auf die Plattformen, die den Austausch von Daten- und Metadatenstandards, sowie ihre Weiterentwicklung und ihre Referenz unterstützen einbezogen. Bei der Forschungsdokumentation und entsprechender Anwendung von Metadatenstandards im Forschungsalltag bestehen weiterhin Hürden aufgrund des Aufwandes. Softwareanwendungen die die Dokumentation erleichtern und in die Metadatenschemata integriert werden könnten werden kurz diskutiert. In all diesen Bereichen können sich Bibliotheken unterstützend oder gestaltend einbringen und ihre Expertise gewinnbringend in Kommunikation mit der Wissenschaft zur Verfügung stellen.
  15. Baecker, D.: ¬Der Frosch, die Fliege und der Mensch : zum Tod von Humberto Maturana (2021) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 1237) [ClassicSimilarity], result of:
          0.062734045 = score(doc=1237,freq=6.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 1237, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1237)
      0.25 = coord(1/4)
    
    Abstract
    Die Frage, was Leben ist, hat Humberto Maturana beantwortet. Die Frage, was Erkennen ist, ließ ihn nie los. Nun ist der Forscher an den Schnittstellen von Neurobiologie und Philosophie in Santiago de Chile gestorben.
    Source
    https://www.faz.net/aktuell/feuilleton/buecher/biologe-und-philosoph-humberto-maturana-gestorben-17330542.html?printPagedArticle=true&service=printPreview
  16. Tuider, B.: Plansprachen und Sprachplanung : zum Stand interlinguistischer Forschungen (2021) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 1318) [ClassicSimilarity], result of:
          0.062734045 = score(doc=1318,freq=6.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 1318, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1318)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Beitrag berichtet über das Symposium "Planned Languages and Language Planning", das die Österreichische Nationalbibliothek am 24. und 25. Oktober 2019 organisierte. Der Bericht zu den sechzehn Vorträgen gibt einen Überblick über aktuelle Forschungsthemen auf dem Gebiet der Interlinguistik.
    Source
    Bibliothek: Forschung und Praxis. 45(2021) H.2, S.333-339
  17. Suchsland, R.: Kritik der paranoiden Vernunft (2020) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 1323) [ClassicSimilarity], result of:
          0.062734045 = score(doc=1323,freq=6.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 1323, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1323)
      0.25 = coord(1/4)
    
    Abstract
    Allgemeine Verunsicherung im Informationsdschungel: Schwarze Utopien und neue Ordnung am Abgrund des Chaos.
    Footnote
    Zu Verschwörungstheorien und Fake News. Mit einer Zusammenstellung von Beispielen aus der Geschichte.
    Series
    Telepolis: Kultur und Medien
  18. Pintscher, L.; Bourgonje, P.; Moreno Schneider, J.; Ostendorff, M.; Rehm, G.: Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata : die Inhaltserschließungspolitik der Deutschen Nationalbibliothek (2021) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 1367) [ClassicSimilarity], result of:
          0.062734045 = score(doc=1367,freq=24.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 1367, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1367)
      0.25 = coord(1/4)
    
    Abstract
    Wikidata ist eine freie Wissensbasis, die allgemeine Daten über die Welt zur Verfügung stellt. Sie wird von Wikimedia entwickelt und betrieben, wie auch das Schwesterprojekt Wikipedia. Die Daten in Wikidata werden von einer großen Community von Freiwilligen gesammelt und gepflegt, wobei die Daten sowie die zugrundeliegende Ontologie von vielen Projekten, Institutionen und Firmen als Basis für Applikationen und Visualisierungen, aber auch für das Training von maschinellen Lernverfahren genutzt werden. Wikidata nutzt MediaWiki und die Erweiterung Wikibase als technische Grundlage der kollaborativen Arbeit an einer Wissensbasis, die verlinkte offene Daten für Menschen und Maschinen zugänglich macht. Ende 2020 beschreibt Wikidata über 90 Millionen Entitäten unter Verwendung von über 8 000 Eigenschaften, womit insgesamt mehr als 1,15 Milliarden Aussagen über die beschriebenen Entitäten getroffen werden. Die Datenobjekte dieser Entitäten sind mit äquivalenten Einträgen in mehr als 5 500 externen Datenbanken, Katalogen und Webseiten verknüpft, was Wikidata zu einem der zentralen Knotenpunkte des Linked Data Web macht. Mehr als 11 500 aktiv Editierende tragen neue Daten in die Wissensbasis ein und pflegen sie. Diese sind in Wiki-Projekten organisiert, die jeweils bestimmte Themenbereiche oder Aufgabengebiete adressieren. Die Daten werden in mehr als der Hälfte der Inhaltsseiten in den Wikimedia-Projekten genutzt und unter anderem mehr als 6,5 Millionen Mal am Tag über den SPARQL-Endpoint abgefragt, um sie in externe Applikationen und Visualisierungen einzubinden.
    Series
    Bibliotheks- und Informationspraxis; 70
  19. Knorz, G.: Intellektuelles Indexieren (2023) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 1781) [ClassicSimilarity], result of:
          0.062734045 = score(doc=1781,freq=6.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 1781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1781)
      0.25 = coord(1/4)
    
    Abstract
    Dieser Artikel aus der 5. Ausgabe der Grundlagen (2004) wurde von Rainer Kuhlen und Wolfgang Semar leicht überarbeitet und gekürzt.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  20. Jetter, H.-C.: Informationsvisualisierung und Visual Analytics (2023) 0.02
    0.015683511 = product of:
      0.062734045 = sum of:
        0.062734045 = weight(_text_:und in 1792) [ClassicSimilarity], result of:
          0.062734045 = score(doc=1792,freq=24.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.42443132 = fieldWeight in 1792, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1792)
      0.25 = coord(1/4)
    
    Abstract
    Die Visualisierung digitaler Datenbestände mit dem Computer ist heute alltäglich geworden. Spätestens seit der COVID-19-Pandemie sind computergenerierte Datenvisualisierungen und deren Interpretation durch den Menschen nicht mehr nur Expert*innen für Statistik und Datenanalyse vorbehalten. Stattdessen sind interaktive Visualisierungen zur Darstellung von Trends, Mustern oder Vergleichen in Daten zu festen Bestandteilen unseres medialen Alltags geworden, ob im (Daten-)Journalismus, in den sozialen Medien oder bei der Kommunikation von Behörden mit der Bevölkerung. Wie bereits von Reiterer und Jetter (2013) in einer früheren Auflage dieses Beitrags thematisiert wurde, bietet dieser Trend zur interaktiven und narrativen Visualisierung in den Massenmedien den Benutzer*innen neue Möglichkeiten des datenbasierten Erkenntnisgewinns. Seitdem popularisiert zusätzlich die Vielzahl verfügbarer "Tracker"-Apps mit dem Ziel der Verhaltensoptimierung (z. B. im Bereich Fitness oder Energiekonsum) die interaktive Visualisierung und Analyse persönlicher und privater Daten. Auch im beruflichen Alltag haben sich einstige Nischenwerkzeuge, wie z. B. die Visualisierungssoftware Tableau, in äußerst populäre Anwendungen verwandelt und sind zum Gegenstand zweistelliger Milliardeninvestitionen geworden, insbesondere für die Visualisierung und Analyse von Geschäftsdaten. Im Lichte dieser Entwicklungen soll dieser Beitrag daher im Folgenden einerseits grundlegende Begriffe und Konzepte der Informationsvisualisierung vermitteln, andererseits auch Alltagsformen und Zukunftstrends wie Visual Analytics thematisieren.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg

Languages

  • d 434
  • e 52
  • m 2
  • pt 2
  • More… Less…

Types

  • a 361
  • el 230
  • m 60
  • s 7
  • x 5
  • p 3
  • r 1
  • More… Less…

Subjects

Classifications