Search (11780 results, page 5 of 589)

  • × language_ss:"d"
  1. Rittberger, M.; Köhne, B.; Graumann, S.; Högermeyer, C.; Lankenau, I.; Womser-Hacker, C.: ¬Das Projekt DECIDoc in Deutschland : Anpassung des Handbuchs und erste Evaluierung des Zertifizierungsverfahrens (2000) 0.14
    0.14309719 = product of:
      0.28619438 = sum of:
        0.065624654 = weight(_text_:und in 5725) [ClassicSimilarity], result of:
          0.065624654 = score(doc=5725,freq=14.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.4538307 = fieldWeight in 5725, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5725)
        0.22056974 = weight(_text_:hacker in 5725) [ClassicSimilarity], result of:
          0.22056974 = score(doc=5725,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 5725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5725)
      0.5 = coord(2/4)
    
    Abstract
    Das Projekt DECIDoc hat die Zertifizierung von Informationspezialisten in einem europaweiten Rahmen zum Ziel. In Deutschland hat die DGI die Projektleitung und -kooridination für DECIDoc. Nach der Diskussion der Argumente für eine Zertifizierung wird das Zertifizierungshandbuch vorgestellt und die Überarbeitungsschritte, die in Deutschland vorgenommen wurden, dargestellt. Dabei wird im einzelnen auf die Änderungen der Kompetenzniveaus, der Kompetenzbereiche und der Kompetenzgruppen eingegangen. Zur Validierung der Veränderungen wurde ein Zertifizierungsverfahren erarbeitet und anhand zweier Testzertifizierungen überprüft. Das Zulassungs- und Bewerbungsverfahren, die Zusammensetzung der zertifizierungskommission, das Fachgespräch, die Bewertung sowie die Erfahrungen aus den Testzertifizierungen werden detailliert besprochen
    Source
    nfd Information - Wissenschaft und Praxis. 51(2000) H.3, S.147-156
  2. Kleineberg, M.: Klassifikation (2023) 0.14
    0.14309719 = product of:
      0.28619438 = sum of:
        0.065624654 = weight(_text_:und in 1784) [ClassicSimilarity], result of:
          0.065624654 = score(doc=1784,freq=14.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.4538307 = fieldWeight in 1784, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1784)
        0.22056974 = weight(_text_:hacker in 1784) [ClassicSimilarity], result of:
          0.22056974 = score(doc=1784,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 1784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1784)
      0.5 = coord(2/4)
    
    Abstract
    Dieser Beitrag nimmt eine informationswissenschaftliche Perspektive ein und betrachtet das Phänomen der Klassifikation als Methode und System der Wissensorganisation. Ein Klassifikationssystem wird dabei als Wissensorganisationssystem (engl. knowledge organization system) verstanden, das vor allem im Bereich der Information und Dokumentation zum Einsatz kommt, um dokumentarische Bezugseinheiten (DBE) mit einem kontrollierten Vokabular zu beschreiben (s. Kapitel B 1 Einführung Wissensorganisation). Als eine solche Dokumentationssprache zeichnet sich ein Klassifikationssystem typischerweise durch seine systematische Ordnung aus und dient der inhaltlichen Groberschließung, eignet sich aber auch als Aufstellungssystematik und Hilfsmittel bei der Recherche wie etwa als systematischer Sucheinstieg oder thematischer Filter für Treffermengen. Beim Information Retrieval liegt die Stärke der klassifikatorischen Erschließung durch das hohe Abstraktionsniveau in Überblicks- und Vollständigkeitsrecherchen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  3. Barkey, R.; Hinrichs, E.; Hoppermann, C.; Trippel, T.; Zinn, C.: Komponenten-basierte Metadatenschemata und Facetten-basierte Suche : ein flexibler und universeller Ansatz (2010) 0.14
    0.14066318 = product of:
      0.28132635 = sum of:
        0.060756624 = weight(_text_:und in 666) [ClassicSimilarity], result of:
          0.060756624 = score(doc=666,freq=12.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.42016557 = fieldWeight in 666, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=666)
        0.22056974 = weight(_text_:hacker in 666) [ClassicSimilarity], result of:
          0.22056974 = score(doc=666,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 666, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=666)
      0.5 = coord(2/4)
    
    Abstract
    Wenn man verschiedenartige Forschungsdaten über Metadaten inhaltlich beschreiben möchte, sind bibliografische Angaben allein nicht ausreichend. Vielmehr benötigt man zusätzliche Beschreibungsmittel, die der Natur und Komplexität gegebener Forschungsressourcen Rechnung tragen. Verschiedene Arten von Forschungsdaten bedürfen verschiedener Metadatenprofile, die über gemeinsame Komponenten definiert werden. Solche Forschungsdaten können gesammelt (z.B. über OAI-PMH-Harvesting) und mittels Facetten-basierter Suche über eine einheitliche Schnittstelle exploriert werden. Der beschriebene Anwendungskontext kann über sprachwissenschaftliche Daten hinaus verallgemeinert werden.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  4. Mandl, T.: Text Mining und Data Mining (2023) 0.14
    0.14066318 = product of:
      0.28132635 = sum of:
        0.060756624 = weight(_text_:und in 1775) [ClassicSimilarity], result of:
          0.060756624 = score(doc=1775,freq=12.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.42016557 = fieldWeight in 1775, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1775)
        0.22056974 = weight(_text_:hacker in 1775) [ClassicSimilarity], result of:
          0.22056974 = score(doc=1775,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 1775, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1775)
      0.5 = coord(2/4)
    
    Abstract
    Text und Data Mining sind ein Bündel von Technologien, die eng mit den Themenfeldern Statistik, Maschinelles Lernen und dem Erkennen von Mustern verbunden sind. Die üblichen Definitionen beziehen eine Vielzahl von verschiedenen Verfahren mit ein, ohne eine exakte Grenze zu ziehen. Data Mining bezeichnet die Suche nach Mustern, Regelmäßigkeiten oder Auffälligkeiten in stark strukturierten und vor allem numerischen Daten. "Any algorithm that enumerates patterns from, or fits models to, data is a data mining algorithm." Numerische Daten und Datenbankinhalte werden als strukturierte Daten bezeichnet. Dagegen gelten Textdokumente in natürlicher Sprache als unstrukturierte Daten.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  5. Siegel, M.: Maschinelle Übersetzung (2023) 0.14
    0.14021344 = product of:
      0.2804269 = sum of:
        0.028347187 = weight(_text_:und in 1793) [ClassicSimilarity], result of:
          0.028347187 = score(doc=1793,freq=2.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.19603643 = fieldWeight in 1793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1793)
        0.2520797 = weight(_text_:hacker in 1793) [ClassicSimilarity], result of:
          0.2520797 = score(doc=1793,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5845891 = fieldWeight in 1793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0625 = fieldNorm(doc=1793)
      0.5 = coord(2/4)
    
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  6. Tartakovski, O.; Shramko, M.: Implementierung eines Werkzeugs zur Sprachidentifikation in mono- und multilingualen Texten (2006) 0.14
    0.13801636 = product of:
      0.27603272 = sum of:
        0.05546296 = weight(_text_:und in 978) [ClassicSimilarity], result of:
          0.05546296 = score(doc=978,freq=10.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.38355696 = fieldWeight in 978, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=978)
        0.22056974 = weight(_text_:hacker in 978) [ClassicSimilarity], result of:
          0.22056974 = score(doc=978,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 978, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=978)
      0.5 = coord(2/4)
    
    Abstract
    Die Identifikation der Sprache bzw. der Sprachen in Textdokumenten ist einer der wichtigsten Schritte maschineller Textverarbeitung für das Information Retrieval. Der vorliegende Artikel stellt Langldent vor, ein System zur Sprachidentifikation von mono- und multilingualen elektronischen Textdokumenten. Das System bietet sowohl eine Auswahl von gängigen Algorithmen für die Sprachidentifikation monolingualer Textdokumente als auch einen neuen Algorithmus für die Sprachidentifikation multilingualer Textdokumente.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  7. Ritter, M.; Eibl, M.: ¬Ein erweiterbares Tool zur Annotation von Videos (2010) 0.14
    0.13801636 = product of:
      0.27603272 = sum of:
        0.05546296 = weight(_text_:und in 669) [ClassicSimilarity], result of:
          0.05546296 = score(doc=669,freq=10.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.38355696 = fieldWeight in 669, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=669)
        0.22056974 = weight(_text_:hacker in 669) [ClassicSimilarity], result of:
          0.22056974 = score(doc=669,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 669, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=669)
      0.5 = coord(2/4)
    
    Abstract
    Die Beschreibung audiovisueller Medien durch Metadaten bedarf aufgrund der Masse der Daten einer Unterstützung für die manuelle Annotation sowie eine möglichst weitgreifende automatische Annotation. Das vorgestellte Werkzeug unterstützt Markierung, interaktive Vorsegmentierung und Objekterkennung und -verfolgung. Mithilfe der integrierten Shot Detection kann ein Video strukturell zerlegt werden, um beispielsweise die halbautomatische Objektverfolgung über Szenengrenzen hinweg zu unterbinden. Die Anbindung des Forschungsframeworks AMOPA gestattet dem Nutzer beliebige Ketten von Operationen zur Bild- und Videoverarbeitung zu erstellen. Der Datenexport erfolgt über MPEG-7-DAVP.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  8. Sperber, W.; Wegner, B.: Content Analysis in der Mathematik : Erschließung und Retrieval mathematischer Publikationen (2010) 0.14
    0.13801636 = product of:
      0.27603272 = sum of:
        0.05546296 = weight(_text_:und in 189) [ClassicSimilarity], result of:
          0.05546296 = score(doc=189,freq=10.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.38355696 = fieldWeight in 189, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=189)
        0.22056974 = weight(_text_:hacker in 189) [ClassicSimilarity], result of:
          0.22056974 = score(doc=189,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 189, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=189)
      0.5 = coord(2/4)
    
    Abstract
    Die traditionellen Informationsdienste in den Wissenschaften stehen angesichts der Publikationsflut und der Entwicklung der elektronischen Medien gerade auch in der Mathematik vor großen Herausforderungen. Es müssen neue Konzepte für eine erweiterte qualitativ hochwertige Erschließung entwickelt werden, die weitgehend automatisierbar sind. In dem Beitrag werden die Konzepte zur Texterschließung in der Mathematik analysiert und Methoden entwickelt, die neue Möglichkeiten für das Retrieval eröffnen. Der Beitrag schließt mit einem Ausblick auf die Möglichkeiten zur Formel-Analyse.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  9. Hubert, M.; Griesbaum, J.; Womser-Hacker, C.: Usability von Browsererweiterungen zum Schutz vor Tracking (2020) 0.14
    0.13801636 = product of:
      0.27603272 = sum of:
        0.05546296 = weight(_text_:und in 866) [ClassicSimilarity], result of:
          0.05546296 = score(doc=866,freq=10.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.38355696 = fieldWeight in 866, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=866)
        0.22056974 = weight(_text_:hacker in 866) [ClassicSimilarity], result of:
          0.22056974 = score(doc=866,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 866, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=866)
      0.5 = coord(2/4)
    
    Abstract
    Browsererweiterungen zum Schutz vor Tracking stellen beliebte Werkzeuge zum Schutz der Privatsphäre von Nutzerinnen und Nutzern dar. Ihre tatsächliche Effektivität ist in hohem Maße von ihrer Usability abhängig, da diese bestimmt, in welchem Ausmaß diese Werkzeuge effektiv, effizient und zufriedenstellend genutzt werden können. Die vorliegende Untersuchung prüft die Gebrauchstauglichkeit vier solcher Browsererweiterungen mit Hilfe von Benutzertests. Die Ergebnisse zeigen, dass die Add-ons auch heutzutage noch eine Vielzahl an Usability-Mängeln aufweisen. Kernprobleme stellen insbesondere die mangelnde Verständlichkeit und die fehlende Führung und Unterstützung der Nutzenden dar.
    Source
    Information - Wissenschaft und Praxis. 71(2020) H.2/3, S.95-106
  10. Eibl, M.; Haupt, J.; Kahl, S.; Taubert, S.; Wilhelm-Stein, T.: Audio- und Musik-Retrieval (2023) 0.14
    0.13801636 = product of:
      0.27603272 = sum of:
        0.05546296 = weight(_text_:und in 1803) [ClassicSimilarity], result of:
          0.05546296 = score(doc=1803,freq=10.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.38355696 = fieldWeight in 1803, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1803)
        0.22056974 = weight(_text_:hacker in 1803) [ClassicSimilarity], result of:
          0.22056974 = score(doc=1803,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 1803, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1803)
      0.5 = coord(2/4)
    
    Abstract
    Das Gebiet Audio-Retrieval kann grob in drei Bereiche unterteilt werden: Musik-Retrieval, Retrieval gesprochener Sprache und Retrieval akustischer Ereignisse. Alle drei Bereiche gehen i. d. R. vom Audiosignal als Quelle aus, welches über eine Signalanalyse, meist eine Spektralanalyse über eine Fouriertransformation, weiterverarbeitet und in eine für das Retrieval geeignete Beschreibung gebracht wird. Dabei gibt es auch alternative Ansätze, wie z. B. die Nutzung der hier nicht diskutierten MIDI-Codierung im Musik-Retrieval, die ohne ein akustisches Signal auskommt und bereits eine für das Retrieval geeignete Form der Kodierung als Grundlage hat.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  11. Brettschneider, P.: Urheberrecht (2023) 0.14
    0.13801636 = product of:
      0.27603272 = sum of:
        0.05546296 = weight(_text_:und in 1823) [ClassicSimilarity], result of:
          0.05546296 = score(doc=1823,freq=10.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.38355696 = fieldWeight in 1823, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1823)
        0.22056974 = weight(_text_:hacker in 1823) [ClassicSimilarity], result of:
          0.22056974 = score(doc=1823,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 1823, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1823)
      0.5 = coord(2/4)
    
    Abstract
    In einer digitalen Wissensgesellschaft kommt dem Urheberrecht eine herausragende Bedeutung zu. Es ist - wie auch das Datenschutzrecht (s. Kapitel F 4 Informationelle Selbstbestimmung und Informationsfreiheit) - Kernbestandteil eines Kommunikationsrechts, das die Weitergabe und Nutzung von Informationen regelt. Daher mag es paradox klingen, dass das Urheberrecht Informationen - wie auch Ideen oder (wissenschaftliche) Theorien - überhaupt nicht schützt.1 Vielmehr greift sein Schutz erst, wenn sich Information z. B. in Form eines gedruckten oder digitalen Textes oder auch einer Rede manifestiert. Dieser richtet sich dann aber nicht auf den Informationsgehalt an sich, sondern seine Verkörperung in Form eines originellen und individuellen Werkes (s. Abschnitt 2 und 3).
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  12. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.14
    0.13662747 = product of:
      0.27325493 = sum of:
        0.20238696 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.20238696 = score(doc=217,freq=4.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.07086797 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.07086797 = score(doc=217,freq=50.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  13. Çapulcu Redaktionskollektiv: DELETE! : Digitalisierte Fremdbestimmung (2019) 0.14
    0.13646016 = product of:
      0.2729203 = sum of:
        0.050111223 = weight(_text_:und in 334) [ClassicSimilarity], result of:
          0.050111223 = score(doc=334,freq=16.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.34654674 = fieldWeight in 334, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=334)
        0.22280909 = weight(_text_:hacker in 334) [ClassicSimilarity], result of:
          0.22280909 = score(doc=334,freq=4.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5167087 = fieldWeight in 334, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=334)
      0.5 = coord(2/4)
    
    Abstract
    Das çapulcu redaktionskollektiv untersucht in DELETE! die aktuelle Transformation des Kapitalismus - und damit auch der Machtverhältnisse - durch den >technologischen Angriff<. Der Einfluss der Tech-Giganten auf die Ökonomisierung der entlegensten Lebensbereiche nimmt stetig zu, während klassische politische Institutionen an Bedeutung verlieren. Soziale Punktesysteme verlängern mit ihrem permanenten >Rating< und >Scoring< die Reichweite der lenkenden Disziplinierung weit über die direkte Ausbeutung im Arbeitsverhältnis hinaus. Doch mit welchen Methoden und Zukunftsvisionen überformen Unternehmen wie Facebook, Google, Amazon & Co. unsere Kommunikation und unser Denken? Wie verändern sich angesichts einer zunehmend digitalisierten Fremdbestimmung die Bedingungen für Autonomie und soziale Revolte? Und wie lässt sich die beabsichtigte Vereinzelung und Entsolidarisierung bekämpfen? Im Zentrum des Buches steht erneut die Selbstbehauptung, also der vielfältige Widerstand gegen den umfassenden technologischen Angriff unserer Zeit. »Dabei fällen wir nicht«, so die Autor*innen, »das lächerliche Urteil, dass Technologie grundsätzlich >schlecht< ist. Aus welcher - ohnehin historisch bedingten - Ethik heraus sollten wir das auch tun? Wir sagen, sie ist Gewalt und sozialer Krieg. Unsere Kritik richtet sich deshalb vielmehr gegen die technologische Aneignung von Lebensprozessen.«
    RSWK
    Internet / Big Data / Personenbezogene Daten / Datenanalyse / Kommerzialisierung / Überwachung / Fremdbestimmung / Hacker / Widerstand
    Subject
    Internet / Big Data / Personenbezogene Daten / Datenanalyse / Kommerzialisierung / Überwachung / Fremdbestimmung / Hacker / Widerstand
  14. Mandl, T.; Womser-Hacker, C.: ¬Ein adaptives Information-Retrieval-Modell für Digitale Bibliotheken (2000) 0.14
    0.13508865 = product of:
      0.2701773 = sum of:
        0.049607575 = weight(_text_:und in 6481) [ClassicSimilarity], result of:
          0.049607575 = score(doc=6481,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.34306374 = fieldWeight in 6481, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6481)
        0.22056974 = weight(_text_:hacker in 6481) [ClassicSimilarity], result of:
          0.22056974 = score(doc=6481,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 6481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6481)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Beitrag wird ein adaptives Information-Retrieval-Modell im Kontext Digitaler Bibliotheken vorgestellt, das während des Informationsprozesses lernt, Beziehungen zwischen Repräsentationsformen und Informations-Objekten herzustellen. Die aus großen Evaluierungsstudien abgeleiteten Erkenntnisse, dass Relevance Feedback und Polyrepräsentation echte Mehrwerte darstellen und zu besserer Retrievalqualität führen, dienen dabei als Grundlage. Um eine stärkere Adaption zu leisten, wird das Modell um Strategien erweitert, die Benutzer-, Dokument- und Anfrageeigenschaften einbeziehen. Im Rahmen Digitaler Bibliotheken spielen insbesondere Transformationen unterschiedlich erschlossener Objekte eine wichtige Rolle zur Kompensation semantischer Heterogenität. Auch in diesem Rahmen kann das adaptive Information-Retrieval-Modell eingesetzt werden
  15. Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002) 0.14
    0.13508865 = product of:
      0.2701773 = sum of:
        0.049607575 = weight(_text_:und in 1266) [ClassicSimilarity], result of:
          0.049607575 = score(doc=1266,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.34306374 = fieldWeight in 1266, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1266)
        0.22056974 = weight(_text_:hacker in 1266) [ClassicSimilarity], result of:
          0.22056974 = score(doc=1266,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 1266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1266)
      0.5 = coord(2/4)
    
    Abstract
    Seit einigen Jahren hat sich in Europa eine Initiative zur Bewertung von Information Retrieval in mehrsprachigen Kontexten etabliert. Das Cross Language Evaluation forum (CLEF) wird von der EU gefördert und kooperiert mit Evaluierungsprojekten in den USA (TREC) und in Japan (NTCIR). Dieser Artikel stellt das CLEF in den Rahmen der anderen internationalen Initiativen. Neue Entwicklungen sowohl bei den Information Retrieval Systemen als auch bei den Evaluierungsmethoden werden aufgezeit. Die hohe Anzahl von Teilnehmern aus Forschungsinstitutionen und der Industrie beweist die steigende Bedeutung des sprachübergreifenden Retrievals
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.2, S.82-89
  16. Ernst-Gerlach, A.; Korbar, D.; Awakian, A.: Entwicklung einer Benutzeroberfläche zur interaktiven Regelgenerierung für die Suche in historischen Dokumenten (2010) 0.14
    0.13508865 = product of:
      0.2701773 = sum of:
        0.049607575 = weight(_text_:und in 668) [ClassicSimilarity], result of:
          0.049607575 = score(doc=668,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.34306374 = fieldWeight in 668, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=668)
        0.22056974 = weight(_text_:hacker in 668) [ClassicSimilarity], result of:
          0.22056974 = score(doc=668,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 668, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=668)
      0.5 = coord(2/4)
    
    Abstract
    Für Retrieval in historischen Dokumenten wird eine Abbildung der Suchbegriffe auf ihre historischen Varianten in den Dokumenten benötigt. Hierfür wurde ein regelbasierter Ansatz entwickelt. Mit dem RuleGenerator wurde dafür eine Benutzeroberfläche entworfen, die es dem Anwender selbst ermöglicht, automatisch Belege zu erstellen und daraus Regeln zu generieren und zu bearbeiten. Im Rahmen einer eyetrackergestützten Benutzerstudie wurde die Benutzerfreundlichkeit des Werkzeugs evaluiert.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  17. Plank, M.: AV-Portal für wissenschaftliche Filme : Analyse der Nutzerbedarfe (2010) 0.14
    0.13508865 = product of:
      0.2701773 = sum of:
        0.049607575 = weight(_text_:und in 670) [ClassicSimilarity], result of:
          0.049607575 = score(doc=670,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.34306374 = fieldWeight in 670, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=670)
        0.22056974 = weight(_text_:hacker in 670) [ClassicSimilarity], result of:
          0.22056974 = score(doc=670,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 670, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=670)
      0.5 = coord(2/4)
    
    Abstract
    Die Technische Informationsbibliothek (TIB) entwickelt derzeit ein innovatives AV-Portal für wissenschaftliche Filme. Hierfür soll eine Auswahl von in der Forschung vorliegenden Methoden der visuellen Suche, Visualisierung und der automatischen Inhaltsanalyse auf den Bereich der digitalen Bibliotheken übertragen werden. Für die Entwicklung der Benutzerschnittstelle des AV-Portals wurden die Bedarfe der Nutzer analysiert. Auf der Basis der Ergebnisse wurde ein low-fidelity Prototyp entwickelt und in mehreren Designstufen optimiert.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  18. Oßwald, A.: Significant properties digitaler Objekte : Ergebnisse aus Fallstudien (2010) 0.14
    0.13508865 = product of:
      0.2701773 = sum of:
        0.049607575 = weight(_text_:und in 675) [ClassicSimilarity], result of:
          0.049607575 = score(doc=675,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.34306374 = fieldWeight in 675, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=675)
        0.22056974 = weight(_text_:hacker in 675) [ClassicSimilarity], result of:
          0.22056974 = score(doc=675,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=675)
      0.5 = coord(2/4)
    
    Abstract
    Im Rahmen von 30 Fallstudien wurden von Praktikern aus dem Bibliotheks- und Informationsbereich - unter Bezugnahme auf den Bedarf zukünftiger Nutzergruppen aus ihrem Arbeitsumfeld - wesentliche Eigenschaften digitaler Objekte für die Langzeitarchivierung ermittelt. Diese Ergebnisse wurden mit den im Rahmen des InSPECT-Projektes ermittelten Objekttypen und den für sie als wesentlich erachteten Eigenschaften verglichen. Die Ergebnisse der Fallstudien zeigen, dass für die Langzeitarchivierung solcher Objekte, die von InSPECT in Betracht gezogenen Objekttypen erweitert bzw. differenziert werden sollten. Die Definition der wesentlichen Eigenschaften dieser Objekttypen kann nach den vorliegenden Ergebnissen noch nicht als stabil bezeichnet werden.
    Source
    Information und Wissen: global, sozial und frei? Proceedings des 12. Internationalen Symposiums für Informationswissenschaft (ISI 2011) ; Hildesheim, 9. - 11. März 2011. Hrsg.: J. Griesbaum, T. Mandl u. C. Womser-Hacker
  19. Hobohm, H.-C.: Theorien in der Informationswissenschaft (2023) 0.14
    0.13508865 = product of:
      0.2701773 = sum of:
        0.049607575 = weight(_text_:und in 1777) [ClassicSimilarity], result of:
          0.049607575 = score(doc=1777,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.34306374 = fieldWeight in 1777, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1777)
        0.22056974 = weight(_text_:hacker in 1777) [ClassicSimilarity], result of:
          0.22056974 = score(doc=1777,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 1777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1777)
      0.5 = coord(2/4)
    
    Abstract
    Die zentrale Frage in diesem Kapitel ist, welchen Einfluss Theoriediskussion, Theorieimport und Theoriebildung auf die Informationswissenschaft als Disziplin haben und ob es Theorieentwicklungen, d. h. also eigentlich Paradigmenwechsel gibt, die eine Richtung für ihre Weiterentwicklung geben können. Für eine Disziplin ist Theoretisieren so wichtig wie für einen Schachspieler das Überlegen seiner Spielstrategie (Hassan, Mathiassen & Lowry 2019, S. 200): "Wissenschaften entstehen dort, wo sie Theorien vonnöten haben." (Jahraus, 2011, S. 30) - denn sie decken nicht nur ihre Untersuchungsobjekte auf, sondern auch deren Bruchstellen und uneingestandenen Prämissen. Dieser Herausforderung sollte sich die Informationswissenschaft stellen.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
  20. Struß, J.M.; Lewandowski, D.: Methoden in der Informationswissenschaft (2023) 0.14
    0.13508865 = product of:
      0.2701773 = sum of:
        0.049607575 = weight(_text_:und in 1778) [ClassicSimilarity], result of:
          0.049607575 = score(doc=1778,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.34306374 = fieldWeight in 1778, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1778)
        0.22056974 = weight(_text_:hacker in 1778) [ClassicSimilarity], result of:
          0.22056974 = score(doc=1778,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 1778, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1778)
      0.5 = coord(2/4)
    
    Abstract
    Ohne Forschungsmethoden gibt es keinen wissenschaftlichen Erkenntnisgewinn. Methoden helfen dabei, zu möglichst gesicherten Erkenntnissen zu gelangen. Damit unterscheidet sich der wissenschaftliche Erkenntnisgewinn von anderen Arten der Produktion und Begründung von Wissen. Oft verlassen wir uns auf unseren gesunden Menschenverstand, auf die eigene Lebenserfahrung oder auf Autoritäten - alle diese Begründungen von Wissen haben jedoch gegenüber der wissenschaftlichen Produktion und Begründung von Wissen erhebliche Defizite. Die Verwendung wissenschaftlicher Methoden erlaubt uns, nachvollziehbare und für andere nachprüfbare Aussagen über Phänomene zu gewinnen. Der wissenschaftliche Diskurs beruht auf solchen Aussagen; damit ist die wissenschaftliche Diskussion grundsätzlich anders als Alltagsdiskussionen, da sie auf Erkenntnissen beruht, die zwar von unterschiedlichen Personen in ihrer Bedeutung unterschiedlich eingeschätzt werden können, jedoch in ihrer Faktizität von allen akzeptiert werden.
    Source
    Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg

Authors

Languages

  • e 32
  • m 3

Types

  • a 8493
  • m 1872
  • el 891
  • x 574
  • s 415
  • i 145
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications