Search (491 results, page 2 of 25)

  • × year_i:[2020 TO 2030}
  1. Hahn, J.: Semi-automated methods for BIBFRAME work entity description (2021) 0.03
    0.030339649 = product of:
      0.121358596 = sum of:
        0.121358596 = weight(_text_:headings in 1726) [ClassicSimilarity], result of:
          0.121358596 = score(doc=1726,freq=2.0), product of:
            0.32337824 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06664293 = queryNorm
            0.37528375 = fieldWeight in 1726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1726)
      0.25 = coord(1/4)
    
    Abstract
    This paper reports an investigation of machine learning methods for the semi-automated creation of a BIBFRAME Work entity description within the RDF linked data editor Sinopia (https://sinopia.io). The automated subject indexing software Annif was configured with the Library of Congress Subject Headings (LCSH) vocabulary from the Linked Data Service at https://id.loc.gov/. The training corpus was comprised of 9.3 million titles and LCSH linked data references from the IvyPlus POD project (https://pod.stanford.edu/) and from Share-VDE (https://wiki.share-vde.org). Semi-automated processes were explored to support and extend, not replace, professional expertise.
  2. Chou, C.; Chu, T.: ¬An analysis of BERT (NLP) for assisted subject indexing for Project Gutenberg (2022) 0.03
    0.030339649 = product of:
      0.121358596 = sum of:
        0.121358596 = weight(_text_:headings in 2141) [ClassicSimilarity], result of:
          0.121358596 = score(doc=2141,freq=2.0), product of:
            0.32337824 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06664293 = queryNorm
            0.37528375 = fieldWeight in 2141, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2141)
      0.25 = coord(1/4)
    
    Abstract
    In light of AI (Artificial Intelligence) and NLP (Natural language processing) technologies, this article examines the feasibility of using AI/NLP models to enhance the subject indexing of digital resources. While BERT (Bidirectional Encoder Representations from Transformers) models are widely used in scholarly communities, the authors assess whether BERT models can be used in machine-assisted indexing in the Project Gutenberg collection, through suggesting Library of Congress subject headings filtered by certain Library of Congress Classification subclass labels. The findings of this study are informative for further research on BERT models to assist with automatic subject indexing for digital library collections.
  3. Dobreski, B.; Snow, K.; Moulaison-Sandy, H.: On overlap and otherness : a comparison of three vocabularies' approaches to LGBTQ+ identity (2022) 0.03
    0.030339649 = product of:
      0.121358596 = sum of:
        0.121358596 = weight(_text_:headings in 2143) [ClassicSimilarity], result of:
          0.121358596 = score(doc=2143,freq=2.0), product of:
            0.32337824 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06664293 = queryNorm
            0.37528375 = fieldWeight in 2143, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2143)
      0.25 = coord(1/4)
    
    Abstract
    Bibliographic records can include information from controlled vocabularies to capture identities about individuals, especially about authors or intended audiences; personal name authority records can also contain information about identity. Employing a systematic analysis of the overlap of the Homosaurus, Library of Congress Subject Headings (LCSH), and Library of Congress Demographic Group Terms (LCDGT), this article explores the extent to which LGBTQ+ identities are represented in the three vocabularies. Despite LCSH's long, iterative history of development and the faceted, post-coordinate nature of LCDGT, neither vocabulary was found to be adequate in covering the complex, LGBTQ+ identities represented in the Homosaurus.
  4. Broudoux, E.: Systems of classification and categorization as revealing tensions within knowledge : a perspective of semantic compliance (2024) 0.03
    0.030339649 = product of:
      0.121358596 = sum of:
        0.121358596 = weight(_text_:headings in 2330) [ClassicSimilarity], result of:
          0.121358596 = score(doc=2330,freq=2.0), product of:
            0.32337824 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06664293 = queryNorm
            0.37528375 = fieldWeight in 2330, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2330)
      0.25 = coord(1/4)
    
    Abstract
    Knowledge organization systems are likely to reveal disagreements and controversies in the construction of knowledge. This article looks at the social tensions reflected in the use of terms such as "race" or typical expressions like "woke" or "cancel culture". It compares the use of these terms in the French-speaking world between Wikipedia and the Rameau subject headings. It first examines the operational functioning of Rameau's indexing language for libraries, then that of the French Wikipedia's categorization system, and finally explores their differences and similarities in the use of the terms presented.
  5. Wu, M.; Liu, Y.-H.; Brownlee, R.; Zhang, X.: Evaluating utility and automatic classification of subject metadata from Research Data Australia (2021) 0.03
    0.026005413 = product of:
      0.10402165 = sum of:
        0.10402165 = weight(_text_:headings in 1454) [ClassicSimilarity], result of:
          0.10402165 = score(doc=1454,freq=2.0), product of:
            0.32337824 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06664293 = queryNorm
            0.32167178 = fieldWeight in 1454, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1454)
      0.25 = coord(1/4)
    
    Abstract
    In this paper, we present a case study of how well subject metadata (comprising headings from an international classification scheme) has been deployed in a national data catalogue, and how often data seekers use subject metadata when searching for data. Through an analysis of user search behaviour as recorded in search logs, we find evidence that users utilise the subject metadata for data discovery. Since approximately half of the records ingested by the catalogue did not include subject metadata at the time of harvest, we experimented with automatic subject classification approaches in order to enrich these records and to provide additional support for user search and data discovery. Our results show that automatic methods work well for well represented categories of subject metadata, and these categories tend to have features that can distinguish themselves from the other categories. Our findings raise implications for data catalogue providers; they should invest more effort to enhance the quality of data records by providing an adequate description of these records for under-represented subject categories.
  6. Seeman, D.; Chan, T.; Dykes, K.: Implementation and maintenance of FAST as linked data in a digital collections platform at University of Victoria Libraries (2023) 0.03
    0.026005413 = product of:
      0.10402165 = sum of:
        0.10402165 = weight(_text_:headings in 2167) [ClassicSimilarity], result of:
          0.10402165 = score(doc=2167,freq=2.0), product of:
            0.32337824 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06664293 = queryNorm
            0.32167178 = fieldWeight in 2167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=2167)
      0.25 = coord(1/4)
    
    Abstract
    University of Victoria Libraries has implemented faceted vocabularies, particularly FAST, in its digital collections platform (Vault). The process involved migrating a variety of standardized (pre-coordinated Library of Congress subject headings) and non-standardized metadata to conform to a URI-centric metadata application profile. The authors argue that faceted vocabularies and FAST have helped to create a robust and intuitive user navigation in the platform and allowed for an efficient and straightforward metadata creation process. Maintaining FAST as linked data within Vault has required putting in place some technical processes to keep URIs and textual labels up to date and solutions (FAST Updater) have been locally developed.
  7. Hjoerland, B.; Bragato Barros, T.H.: Domain analysis versus facet analysis (2024) 0.03
    0.026005413 = product of:
      0.10402165 = sum of:
        0.10402165 = weight(_text_:headings in 2232) [ClassicSimilarity], result of:
          0.10402165 = score(doc=2232,freq=2.0), product of:
            0.32337824 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06664293 = queryNorm
            0.32167178 = fieldWeight in 2232, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=2232)
      0.25 = coord(1/4)
    
    Abstract
    This paper delves into the complexities and theoretical underpinnings of knowledge organization systems (KOS), focusing on domain analysis and facet analysis as methodologies, such as improving the Library of Congress Subject Headings (LCSH). The study repeats a former critique of the LCSH and argues for the incorporation of facet and domain analysis to enhance its utility and academic rigor. Facet analysis, although well-established, is critiqued for its rationalist philosophy and lack of empirical grounding. Domain analysis is presented as a complementary approach that addresses these gaps by considering empirical, historical, philosophical, and pragmatic issues. To any given system, the paper emphasizes that KO systems are not neutral; they reflect underlying theoretical paradigms that must be understood for effective classification. The study concludes by advocating for interdisciplinary research and broader cooperation among knowledge organization professionals, philosophers, and subject specialists to develop more robust and academically rigorous KOS.
  8. Buente, W.; Baybayan, C.K.; Hajibayova, L.; McCorkhill, M.; Panchyshyn, R.: Exploring the renaissance of wayfinding and voyaging through the lens of knowledge representation, organization and discovery systems (2020) 0.02
    0.021671178 = product of:
      0.08668471 = sum of:
        0.08668471 = weight(_text_:headings in 1106) [ClassicSimilarity], result of:
          0.08668471 = score(doc=1106,freq=2.0), product of:
            0.32337824 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06664293 = queryNorm
            0.26805982 = fieldWeight in 1106, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1106)
      0.25 = coord(1/4)
    
    Abstract
    The purpose of this paper is to provide a critical analysis from an ethical perspective of how the concept of indigenous wayfinding and voyaging is mapped in knowledge representation, organization and discovery systems. Design/methodology/approach In this study, the Dewey Decimal Classification, the Library of Congress Subject Headings, the Library of Congress Classifications systems and the Web of Science citation database were methodically examined to determine how these systems represent and facilitate the discovery of indigenous knowledge of wayfinding and voyaging. Findings The analysis revealed that there was no dedicated representation of the indigenous practices of wayfinding and voyaging in the major knowledge representation, organization and discovery systems. By scattering indigenous practice across various, often very broad and unrelated classes, coherence in the record is disrupted, resulting in misrepresentation of these indigenous concepts. Originality/value This study contributes to a relatively limited research literature on representation and organization of indigenous knowledge of wayfinding and voyaging. This study calls to foster a better understanding and appreciation for the rich knowledge that indigenous cultures provide for an enlightened society.
  9. Choemprayong, S.; Siridhara, C.: Work centered classification as communication : representing a central bank's mission with the library classification (2021) 0.02
    0.021671178 = product of:
      0.08668471 = sum of:
        0.08668471 = weight(_text_:headings in 1234) [ClassicSimilarity], result of:
          0.08668471 = score(doc=1234,freq=2.0), product of:
            0.32337824 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06664293 = queryNorm
            0.26805982 = fieldWeight in 1234, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1234)
      0.25 = coord(1/4)
    
    Abstract
    For a special library serving its parent organization, the design and use of classification schemes primarily need to support work activities. However, when the Prince Vivadhanajaya Library at the Bank of Thailand decided to open its doors to the public in 2018, the redesign of classification that serves both internal staff work and the public interest became a challenging task. We designed a classification scheme by integrating work centered classification design approach, classification as communication framework and the service design approach. The design process included developing empathy, ideation and implementation and evaluation. As a result, the new classification scheme, including seven main classes and thirty-seven level-one subclasses and twenty-two level-two subclasses, was primarily based on the organization's strategic plans, mapping with JEL Classification Codes, Library of Congress Classification (LCC) and Library of Congress Subject Headings (LCSH). The classification scheme also includes geographical code, author cutter number, publication year, volume number and copy number. Follow up interviews with twenty-three participants were conducted two years later to evaluate user experience as well as the staff's opinion of the new classification scheme. The feedback addressed favorable outcomes and challenges to be used for the next iteration of the library service design process.
  10. Sjögårde, P.; Ahlgren, P.; Waltman, L.: Algorithmic labeling in hierarchical classifications of publications : evaluation of bibliographic fields and term weighting approaches (2021) 0.02
    0.021671178 = product of:
      0.08668471 = sum of:
        0.08668471 = weight(_text_:headings in 1262) [ClassicSimilarity], result of:
          0.08668471 = score(doc=1262,freq=2.0), product of:
            0.32337824 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06664293 = queryNorm
            0.26805982 = fieldWeight in 1262, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1262)
      0.25 = coord(1/4)
    
    Abstract
    Algorithmic classifications of research publications can be used to study many different aspects of the science system, such as the organization of science into fields, the growth of fields, interdisciplinarity, and emerging topics. How to label the classes in these classifications is a problem that has not been thoroughly addressed in the literature. In this study, we evaluate different approaches to label the classes in algorithmically constructed classifications of research publications. We focus on two important choices: the choice of (a) different bibliographic fields and (b) different approaches to weight the relevance of terms. To evaluate the different choices, we created two baselines: one based on the Medical Subject Headings in MEDLINE and another based on the Science-Metrix journal classification. We tested to what extent different approaches yield the desired labels for the classes in the two baselines. Based on our results, we recommend extracting terms from titles and keywords to label classes at high levels of granularity (e.g., topics). At low levels of granularity (e.g., disciplines) we recommend extracting terms from journal names and author addresses. We recommend the use of a new approach, term frequency to specificity ratio, to calculate the relevance of terms.
  11. Rae, A.R.; Mork, J.G.; Demner-Fushman, D.: ¬The National Library of Medicine indexer assignment dataset : a new large-scale dataset for reviewer assignment research (2023) 0.02
    0.021671178 = product of:
      0.08668471 = sum of:
        0.08668471 = weight(_text_:headings in 1886) [ClassicSimilarity], result of:
          0.08668471 = score(doc=1886,freq=2.0), product of:
            0.32337824 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06664293 = queryNorm
            0.26805982 = fieldWeight in 1886, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1886)
      0.25 = coord(1/4)
    
    Abstract
    MEDLINE is the National Library of Medicine's (NLM) journal citation database. It contains over 28 million references to biomedical and life science journal articles, and a key feature of the database is that all articles are indexed with NLM Medical Subject Headings (MeSH). The library employs a team of MeSH indexers, and in recent years they have been asked to index close to 1 million articles per year in order to keep MEDLINE up to date. An important part of the MEDLINE indexing process is the assignment of articles to indexers. High quality and timely indexing is only possible when articles are assigned to indexers with suitable expertise. This article introduces the NLM indexer assignment dataset: a large dataset of 4.2 million indexer article assignments for articles indexed between 2011 and 2019. The dataset is shown to be a valuable testbed for expert matching and assignment algorithms, and indexer article assignment is also found to be useful domain-adaptive pre-training for the closely related task of reviewer assignment.
  12. Trkulja, V.: Klassifikation für interdisziplinäre Forschungsfelder veröffentlicht : You, We & Digital (2021) 0.02
    0.020488854 = product of:
      0.08195542 = sum of:
        0.08195542 = weight(_text_:und in 6943) [ClassicSimilarity], result of:
          0.08195542 = score(doc=6943,freq=16.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.5544748 = fieldWeight in 6943, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6943)
      0.25 = coord(1/4)
    
    Abstract
    Arbeit und Wirtschaft, Erde und Kosmos, Globalisierung und Nachhaltigkeit, Industrie, Informationstechnologie, Infrastruktur, Kognition und Wissen, Kultur, Leben und Wohlergehen, Materialien, Mensch und Gesellschaft, Natur und Umwelt, Technologie und zu guter Letzt Wissenschaft - das sind die 14 Oberkategorien der interdisziplinären Forschungsfeldklassifikation.
  13. Maas, J.F.: Inhaltserschließung für Discovery-Systeme gestalten (2021) 0.02
    0.020328153 = product of:
      0.08131261 = sum of:
        0.08131261 = weight(_text_:und in 1376) [ClassicSimilarity], result of:
          0.08131261 = score(doc=1376,freq=28.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.55012584 = fieldWeight in 1376, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1376)
      0.25 = coord(1/4)
    
    Abstract
    Bibliotheken und Informationseinrichtungen erfahren in den letzten Jahren einen Wandel in ihren Aufgaben. Die zunehmende digitale Vernetzung ermöglicht es den Agierenden des Publikations- und Informationswesens, verstärkt die eigene Rolle zu verlassen und in Bereichen tätig zu werden, die bisher nicht dem eigenen Kerngebiet entsprochen haben. So können z. B. Verlage und Autor: innen in Umgehung des Einzelhandels und der Bibliotheken ihre Werke direkt an die Kund:innen verkaufen und ausliefern und Bibliotheken können über Open-Access-Repositorien selbst Werke publizieren. Ich möchte in diesem Beitrag dafür argumentieren, Tätigkeiten in Bibliotheken und Informationseinrichtungen - speziell Erschließung und das Entwickeln von Discovery-Systemen - konsequent in Bezug auf Anwendungsfälle zu denken und zu gestalten. Nur so lässt sich effektiv und effizient sowohl bei der Erschließung als auch bei der Gestaltung der die Erschließung nutzenden Systeme und Prozesse arbeiten. Zunächst möchte ich dafür in den folgenden Abschnitten Berührungspunkte aufzeigen, um auf die vielfältigen Probleme aber auch Möglichkeiten im Zusammenspiel von (Inhalts-)Erschließung und Discovery-Systemen hinzuweisen.
    Series
    Bibliotheks- und Informationspraxis; 70
  14. Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 3: Wie erst spezifisches Fachwissen zu Medien- und Informationskompetenz führen kann. Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021) 0.02
    0.020328153 = product of:
      0.08131261 = sum of:
        0.08131261 = weight(_text_:und in 1407) [ClassicSimilarity], result of:
          0.08131261 = score(doc=1407,freq=28.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.55012584 = fieldWeight in 1407, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1407)
      0.25 = coord(1/4)
    
    Abstract
    In dieser Reihe wird die Bibliotheks- und Informationswissenschaft und ihr Umgang mit der "Informationskompetenz" kritisiert und die Verwertbarkeit ihrer Beiträge für die Aufdeckung und "Bekämpfung" von Desinformationen und Fake News infrage gestellt (Open Password - nachzutragen). Alternativ dazu wurde in Teil 2 das Forschungsdesign zu einer ersten, nationalen empirischen Untersuchung zum Thema: "Digitale Nachrichten- und Informationskompetenzen der deutschen Bevölkerung im Test" der Stiftung "Neue Verantwortung", einem Berliner Forschungs-"Think Tank für die Gesellschaft im technologischen Wandel" (März 2021), vorgestellt (https://www.stiftung-nv.de/de/publikation/quelle-internet-digitale-nachrichten- und-informationskompetenzen-der-deutschen). In Teil 3 werden die Inhalte und Testverfahren der Berliner Studie interpretiert und bewertet. In Teil 4 werden ausgewählte Ergebnisse der Studie vorgestellt, die in eine Bestandsaufnahme zum Stand der operativen "Informationskompetenz"-Forschung allgemein und in den Nachbarwissenschaften münden sollte.
    Series
    Zukunft der Bibliotheks- und Informationswissenschaft
  15. Netzsch, R.: Müssen wir umdenken - und wenn ja, wie? (2021) 0.02
    0.020247327 = product of:
      0.08098931 = sum of:
        0.08098931 = weight(_text_:und in 3466) [ClassicSimilarity], result of:
          0.08098931 = score(doc=3466,freq=10.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.54793847 = fieldWeight in 3466, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=3466)
      0.25 = coord(1/4)
    
    Abstract
    Wie gesellschaftliche Verhältnisse unser Handeln und Denken bestimmen. Und wie wir uns des Wandels bewusst werden können. Eine philosophiegeschichtliche Anmerkung zu Kant, Hegel und Marx.
    Source
    https://www.heise.de/tp/features/Muessen-wir-umdenken-und-wenn-ja-wie-6272388.html?view=print
  16. Leighton, T.: ChatGPT und Künstliche Intelligenz : Utopie oder Dystopie? (2023) 0.02
    0.020247327 = product of:
      0.08098931 = sum of:
        0.08098931 = weight(_text_:und in 1909) [ClassicSimilarity], result of:
          0.08098931 = score(doc=1909,freq=10.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.54793847 = fieldWeight in 1909, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1909)
      0.25 = coord(1/4)
    
    Abstract
    Das Tool wird immer ausgefeilter; es erstellt Software und erfindet die unglaublichsten Fiktionen. Wie "klug" ist es? Wie sieht es mit den Ängsten aus? Und mit Moral?
    Series
    Telepolis / Kultur und Medien
    Source
    https://www.heise.de/tp/features/ChatGPT-und-Kuenstliche-Intelligenz-Utopie-oder-Dystopie-7445181.html?view=print
  17. Kerst, V.; Ruhose, F.: Schleichender Blackout : wie wir das digitale Desaster verhindern (2023) 0.02
    0.019791698 = product of:
      0.07916679 = sum of:
        0.07916679 = weight(_text_:und in 2188) [ClassicSimilarity], result of:
          0.07916679 = score(doc=2188,freq=78.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.5356081 = fieldWeight in 2188, product of:
              8.83176 = tf(freq=78.0), with freq of:
                78.0 = termFreq=78.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2188)
      0.25 = coord(1/4)
    
    Abstract
    Schluss mit der Digitalisierung ohne Sinn und Verstand! Kritische Bestandsaufnahme und Wege aus der Krise. Elektronische Krankenakte, digitaler Unterricht oder einfach nur der Versuch, sich online beim Finanzamt anzumelden: Das Thema digitale Infrastruktur brennt uns unter den Nägeln - privat wie beruflich. Oft haben wir den Eindruck, dass die Digitalisierung in Deutschland lediglich eine "Elektrifizierung der Verwaltung" ist. Weshalb stockt die digitale Transformation von Behörden, Schulen und Firmen? Wie ist es um die Datensicherheit bestellt und wie gefährlich sind Cyberattacken für das öffentliche Leben? Und noch wichtiger: Wie könnten die Lösungen aussehen, die aus den vielen Herausforderungen eine Chance machen würden? - Das Buch zur digitalen Transformation: Warum tut sich Deutschland so schwer damit? - Digitalisierungsstrategie: Die richtige Balance zwischen Blockade und Gießkannenprinzip - Cybersicherheit: Wie sich kritische Infrastruktur vor Hackerangriffen schützen lässt - Digitale Verwaltung: Der Weg zum (wieder) leistungsfähigen Sozialstaat - Demokratie in Gefahr: Plattformstrategie für einen resilienten Staat - digital wie analog Herausforderung Digitalisierung: Strategien für Verwaltung, Wirtschaft und Gesellschaft Das Autorenduo Valentina Kerst, frühere Staatssekretärin in Thüringen und heutige Digitale Strategie-Beraterin für Organisationen und Unternehmen, und Fedor Ruhose, Staatssekretär in Rheinland-Pfalz für Digitalisierungskonzepte, legt ein gut zu lesendes, hochinformatives und zukunftsweisendes Sachbuch vor. Nach einer gründlichen Analyse der Faktoren, die die Digitalisierung bremsen, wird sowohl für Bürgerinnen und Bürger als auch für die Staatsorgane aufgezeigt, was sie zu einer positiven Entwicklung beitragen können. Für Entscheidungsträger genauso gewinnbringend zu lesen wie für alle, die bei dieser gesellschaftspolitischen Debatte mitreden und die digitale Transformation mitgestalten wollen!
    Content
    Ein digitaler Blackout in Deutschland kann Folge eines Angriffs sein - aber auch Folge einer maroden Infrastruktur. Deutschland rangiert bei der Digitalisierung weit unter dem EU-Durchschnitt,und eine umfassende Digitalisierungsstrategie ist nicht in Sicht. Kerst und Ruhose sehen die Gefahr, dass der Staat den digitalen Anschluss verpasst und als Garant guter Verwaltung undsicherer Netze ausfällt. Das Autoren-Duo stellt ein konkretes Programm für eine gestaltende Digitalisierungspolitik vor, die Deutschland sicher aufstellt und Teilhabe für alle garantiert. Das Digitale durchdringt inzwischen Gesellschaft, Medien, Sicherheit, Gesundheitswesen, Verwaltung und Wirtschaft; kurz: unser demokratisches Gemeinwesen. In Deutschland findet jedocheine stückweise Digitalisierung "ohne Sinn und Verstand" statt, so die AutorInnen, etwa wenn Netze nicht gesichert werden oder die Infrastruktur nicht zukunftsfest ist. Gleichzeitig entstehengroße Risiken durch Abhängigkeiten von globalen Konzernen und damit für unsere Demokratie. Ohne digitale Geschäftsmodelle und Infrastruktur gerät unsere Wirtschaft ins Hintertreffen,entstehen Angriffsziele im Cyberraum. Wie können wir das verhindern? Und was ist jetzt zu tun?
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2024, H.1 (Wolfgang Skrandies): "Die Autoren analysieren die Faktoren, die die digitale Transformation in Deutschland bremsen und zeigen Lösungsmöglichkeiten auf".
    RSWK
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
    Subject
    Computerkriminalität, Hacking / Digital- und Informationstechnologien: soziale und ethische Aspekte / Digitale- oder Internetökonomie / Informatik und Informationstechnologie / Informationstechnik (IT), allgemeine Themen / Internet, allgemein / Kommunal- und Regionalverwaltung / Maker und Hacker-Kultur / Medienwissenschaften: Internet, digitale Medien und Gesellschaft / Politik der Kommunal-, Regional- Landes- und Lokalpolitik / Öffentliche Verwaltung / Öffentlicher Dienst und öffentlicher Sektor / Deutschland / Abhängigkeit / Angriff / Blackout / Cyberraum / Cybersicherheit / Demokratie / Demokratiesicherung
  18. Gesellschaftliche Verantwortung und wirtschaftliche,soziale und ökologische Potenziale : Bericht der Enquete-Kommission Künstliche Intelligenz (2020) 0.02
    0.0195887 = product of:
      0.0783548 = sum of:
        0.0783548 = weight(_text_:und in 1028) [ClassicSimilarity], result of:
          0.0783548 = score(doc=1028,freq=26.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.53011453 = fieldWeight in 1028, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1028)
      0.25 = coord(1/4)
    
    Abstract
    Der Bundestag greift mit der Enquete-Kommission "Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale" eine der zentralen Debatten unserer Zeit auf. Die Enquete-Kommission, die sich zu gleichen Teilen aus Mitgliedern des Deutschen Bundestages und sachverständigen externen Expertinnen und Experten zusammensetzt, soll den zukünftigen Einfluss der Künstlichen Intelligenz (KI) auf unser (Zusammen-)Leben, die deutsche Wirtschaft und die zukünftige Arbeitswelt untersuchen. Erörtert werden sowohl die Chancen als auch die Herausforderungen der KI für Gesellschaft, Staat und Wirtschaft. Zur Diskussion stehen eine Vielzahl technischer, rechtlicher und ethischer Fragen. Zum Auftrag der Enquete-Kommission gehört, nach dem Einsetzungsbeschluss (19/2978) auf Basis ihrer Untersuchungsergebnisse den staatlichen Handlungsbedarf auf nationaler, europäischer und internationaler Ebene zu identifizieren und zu beschreiben, um einerseits die Chancen der KI wirtschaftlich und gesellschaftlich nutzbar zu machen und ihre Risiken zu minimieren.
  19. Rösch, H.: Informationsethik und Bibliotheksethik : Grundlagen und Praxis (2021) 0.02
    0.0195887 = product of:
      0.0783548 = sum of:
        0.0783548 = weight(_text_:und in 1223) [ClassicSimilarity], result of:
          0.0783548 = score(doc=1223,freq=26.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.53011453 = fieldWeight in 1223, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1223)
      0.25 = coord(1/4)
    
    Abstract
    Neben den theoretischen und allgemeinen Grundlagen von Informationsethik und Bibliotheksethik wird das Spektrum ethischer Konflikte und Dilemmata an Beispielen aus der Praxis des Berufsfelds Bibliothek und Information konkret erläutert. Dabei wird deutlich, dass wissenschaftlich fundierte Aussagen der Informationsethik und der Bibliotheksethik grundlegend für die wertbezogene Standardisierung bibliothekarischer Arbeit und äußerst hilfreich für ethisch abgesicherte Entscheidungen im Berufsalltag sind.
    Classification
    AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    RVK
    AN 65100: Begriff, Wesen der Bibliothek / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    AN 92650: Darstellungen zu mehreren Gebieten / Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft
    Series
    Bibliotheks- und Informationspraxis; 68
  20. Niemann, R.: Searles Welten : zur Kritik an einer geistfundierten Sprachtheorie (2021) 0.02
    0.0192083 = product of:
      0.0768332 = sum of:
        0.0768332 = weight(_text_:und in 1756) [ClassicSimilarity], result of:
          0.0768332 = score(doc=1756,freq=36.0), product of:
            0.1478073 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06664293 = queryNorm
            0.5198201 = fieldWeight in 1756, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1756)
      0.25 = coord(1/4)
    
    Abstract
    John R. Searle wird traditionell, wie etwa auch Austin oder Wittgenstein, mit einem sozial-interaktiven und handlungsorientierten Sprachbegriff in Verbindung gebracht. In einer instruktiven Studie kommt Sybille Krämer hingegen zu dem Ergebnis, dass Searle als Vertreter eines sprachlichen >Zwei-Welten-Modells< einen >autonomen< Sprachbegriff im Sinne der strukturalistischen Sprachtheorien de Saussures und Chomskys vertritt. Robert Niemann schlägt in diesem Essay eine Lesart vor, die Searle in einem neuen sprachtheoretischen Licht erscheinen lässt: Searles Sprachverständnis wird unter systematischer Berücksichtigung seiner geistphilosophischen und gesellschaftstheoretischen Überlegungen behandelt. Insbesondere werden Searles naturwissenschaftlicher Zugriff auf Geistphänomene sowie die daraus folgenden Konsequenzen für das Sprach- und Gesellschaftsverständnis kritisch erörtert. Schließlich wird ein Sprachbegriff herausgearbeitet, der vor dem Hintergrund eines >Weltenpluralismus< bzw. einer pluralen >Weltenkette< zu denken ist. Searles Sprachbegriff wäre demnach nicht als >autonom< und >entkörpert< (Krämer) zu betrachten, sondern vielmehr als heteronom und repräsentational sowie grundlegend körperorientiert.
    BK
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    Classification
    ER 600: Allgemeines / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
    17.03 Theorie und Methoden der Sprach- und Literaturwissenschaft
    18.00 Einzelne Sprachen und Literaturen allgemein
    RVK
    ER 600: Allgemeines / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft

Languages

  • d 434
  • e 52
  • m 2
  • pt 2
  • More… Less…

Types

  • a 361
  • el 230
  • m 60
  • s 7
  • x 5
  • p 3
  • r 1
  • More… Less…

Subjects

Classifications