Search (29 results, page 1 of 2)

  • × theme_ss:"Inhaltsanalyse"
  1. Svenonius, E.; McGarry, D.: Objectivity in evaluating subject heading assignment (1993) 0.07
    0.0707921 = product of:
      0.2831684 = sum of:
        0.2831684 = weight(_text_:heading in 5611) [ClassicSimilarity], result of:
          0.2831684 = score(doc=5611,freq=6.0), product of:
            0.34946126 = queryWeight, product of:
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.057771947 = queryNorm
            0.8102998 = fieldWeight in 5611, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5611)
      0.25 = coord(1/4)
    
    Abstract
    Recent papers have called attention to discrepancies in the assignment of LCSH. While philosophical arguments can be made that subject analysis, if not a logical impossibility, at least is point-of-view dependent, subject headings continue to be assigned and continue to be useful. The hypothesis advanced in the present project is that to a considerable degree there is a clear-cut right and wrong to LCSH subject heading assignment. To test the hypothesis, it was postulated that the assignment of a subject heading is correct if it is supported by textual warrant (at least 20% of the book being cataloged is on the topic) and is constructed in accordance with the LoC Subject Cataloging Manual: Subject Headings. A sample of 100 books on scientific subjects was used to test the hypothesis
  2. Dooley, J.M.: Subject indexing in context : subject cataloging of MARC AMC format archical records (1992) 0.05
    0.04671067 = product of:
      0.18684268 = sum of:
        0.18684268 = weight(_text_:heading in 2267) [ClassicSimilarity], result of:
          0.18684268 = score(doc=2267,freq=2.0), product of:
            0.34946126 = queryWeight, product of:
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.057771947 = queryNorm
            0.5346592 = fieldWeight in 2267, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.0625 = fieldNorm(doc=2267)
      0.25 = coord(1/4)
    
    Abstract
    Integration of archival materials catalogued in the USMARC AMC format into online catalogues has given a new urgency to the need for direct subject access. Offers a broad definition of the concepts to be considered under the subject access heading, including not only topical subjects but also proper names, forms of material, time periods, geographic places, occupations, and functions. It is both necessary and possible to provide more consistent subject access to archives and manuscripts than currently is being achieved. Describes current efforts that are under way in the profession to address this need
  3. Bland, R.N.: ¬The concept of intellectual level in cataloging and classification (1983) 0.05
    0.04671067 = product of:
      0.18684268 = sum of:
        0.18684268 = weight(_text_:heading in 446) [ClassicSimilarity], result of:
          0.18684268 = score(doc=446,freq=2.0), product of:
            0.34946126 = queryWeight, product of:
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.057771947 = queryNorm
            0.5346592 = fieldWeight in 446, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.0625 = fieldNorm(doc=446)
      0.25 = coord(1/4)
    
    Abstract
    This paper traces the history of the concept of intellectual level in cataloging and classification in the United States. Past cataloging codes, subject-heading practice, and classification systems have provided library users with little systematic information concerning the intellectual level or intended audience of works. Reasons for this omission are discussed, and arguments are developed to show that this kind of information would be a useful addition to the catalog record of the present and the future.
  4. Marshall, L.: Specific and generic subject headings : increasing subject access to library materials (2003) 0.04
    0.040871836 = product of:
      0.16348734 = sum of:
        0.16348734 = weight(_text_:heading in 497) [ClassicSimilarity], result of:
          0.16348734 = score(doc=497,freq=2.0), product of:
            0.34946126 = queryWeight, product of:
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.057771947 = queryNorm
            0.4678268 = fieldWeight in 497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.0546875 = fieldNorm(doc=497)
      0.25 = coord(1/4)
    
    Abstract
    The principle of specificity for subject headings provides a clear advantage to many researchers for the precision it brings to subject searching. However, for some researchers very specific subject headings hinder an efficient and comprehensive search. An appropriate broader heading, especially when made narrower in scope by the addition of subheadings, can benefit researchers by providing generic access to their topic. Assigning both specific and generic subject headings to a work would enhance the subject accessibility for the diverse approaches and research needs of different catalog users. However, it can be difficult for catalogers to assign broader terms consistently to different works and without consistency the gathering function of those terms may not be realized.
  5. Wilson, P.: Subjects and the sense of position (1985) 0.02
    0.020435918 = product of:
      0.08174367 = sum of:
        0.08174367 = weight(_text_:heading in 4648) [ClassicSimilarity], result of:
          0.08174367 = score(doc=4648,freq=2.0), product of:
            0.34946126 = queryWeight, product of:
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.057771947 = queryNorm
            0.2339134 = fieldWeight in 4648, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4648)
      0.25 = coord(1/4)
    
    Abstract
    One knows one is in the presence of "theory" when fundamental questions of a "why" nature are asked. Too often it happens that those involved in the design of bibliographic information systems have no time for brooding. It is thus noteworthy when someone appears an the bibliographic scene who troubles to address, and pursue with philosophic rigor, fundamental questions about the way we organize information. Such a person is Patrick Wilson, formerly philosophy professor at the University of California, Los Angeles, and since 1965, an the faculty of the School of Library and Information Studies, University of California, Berkeley. Bibliographic control is the central concept of Wilson's book Two Kinds of Power. It is represented as a kind of power-a power over knowledge. That power is of two kinds: descriptive and exploitive. Descriptive power is the power to retrieve all writings that satisfy some "evaluatively neutral" description, for instance, all writings by Hobbes or all writings an the subject of eternat recurrence. Descriptive power is achieved insofar as the items in our bibliographic universe are fitted with descriptions and these descriptions are syndetically related. Exploitive power is a less-familiar concept, but it is more important since it can be used to explain why we attempt to order our bibliographic universe in the first place. Exploitive power is the power to obtain the best textual means to an end. Unlike the concept of descriptive power, that of exploitive power has a normative aspect to it. Someone possessing such power would understand the goal of all bibliographic activity; that is, he would understand the diversity of user purposes and the relativity of what is valuable; he would be omniscient both as a bibliographer and as a psychologist. Since exploitive power is ever out of reach, descriptive power is used as a substitute or approximation for it. How adequate this approximation is is the subject of Wilson's book. The particular chapter excerpted in this volume deals with the adequacy of subject access methods. Cutter's statement that one of the objects of a library catalog is to show what the library has an a given subject is generally accepted, as though it were obvious what "being an a given subject" means. It is far from obvious. Wilson challenges the underlying presumption that for any document a heading can be found that is coextensive with its subject. This presumption implies that there is such a thing as the (singular) subject of a document and that it can be identified. But, as Wilson Shows in his elaborate explication, the notion of "subject" is essentially indeterminate, with the consequence that we are limited in our attempts to achieve either descriptive or exploitive power.
  6. Klüver, J.; Kier, R.: Rekonstruktion und Verstehen : ein Computer-Programm zur Interpretation sozialwissenschaftlicher Texte (1994) 0.02
    0.017761538 = product of:
      0.07104615 = sum of:
        0.07104615 = weight(_text_:und in 6898) [ClassicSimilarity], result of:
          0.07104615 = score(doc=6898,freq=4.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.5544748 = fieldWeight in 6898, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=6898)
      0.25 = coord(1/4)
    
    Source
    Sprache und Datenverarbeitung. 18(1994) H.1, S.3-15
  7. Früh, W.: Inhaltsanalyse (2001) 0.02
    0.017622229 = product of:
      0.070488915 = sum of:
        0.070488915 = weight(_text_:und in 2751) [ClassicSimilarity], result of:
          0.070488915 = score(doc=2751,freq=28.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.55012584 = fieldWeight in 2751, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2751)
      0.25 = coord(1/4)
    
    Abstract
    Der Autor bietet eine theoretisch fundierte Anleitung zur praktischen Durchführung von Inhaltsanalysen. diskutiert u.a.: die Themen-Frequenzanalyse, die semantische Struktur- und Inhaltsanalyse und die computergestützte Inhaltsanalyse. Zahlreiche Beispiele erleichtern den Einstieg in diese Methode der empirischen Kommunikationsforschung
    BK
    70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
    Classification
    MR 2600 Soziologie / Sozialwissenschaftliche Theorien und Methoden / Methoden der Sozialforschung / Inhaltsanalyse, Aktenanalyse
    AP 13550 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Grundlagen, Methodik, Theorie
    AP 13500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Allgemeines
    70.03 Methoden, Techniken und Organisation der sozialwissenschaftlichen Forschung
    RVK
    MR 2600 Soziologie / Sozialwissenschaftliche Theorien und Methoden / Methoden der Sozialforschung / Inhaltsanalyse, Aktenanalyse
    AP 13550 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Grundlagen, Methodik, Theorie
    AP 13500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Theorie und Methodik / Allgemeines
  8. Fairthorne, R.A.: Temporal structure in bibliographic classification (1985) 0.02
    0.017516501 = product of:
      0.070066005 = sum of:
        0.070066005 = weight(_text_:heading in 4651) [ClassicSimilarity], result of:
          0.070066005 = score(doc=4651,freq=2.0), product of:
            0.34946126 = queryWeight, product of:
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.057771947 = queryNorm
            0.20049721 = fieldWeight in 4651, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.0489783 = idf(docFreq=284, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4651)
      0.25 = coord(1/4)
    
    Abstract
    This paper, presented at the Ottawa Conference an the Conceptual Basis of the Classification of Knowledge, in 1971, is one of Fairthorne's more perceptive works and deserves a wide audience, especially as it breaks new ground in classification theory. In discussing the notion of discourse, he makes a "distinction between what discourse mentions and what discourse is about" [emphasis added], considered as a "fundamental factor to the relativistic nature of bibliographic classification" (p. 360). A table of mathematical functions, for example, describes exactly something represented by a collection of digits, but, without a preface, this table does not fit into a broader context. Some indication of the author's intent ls needed to fit the table into a broader context. This intent may appear in a title, chapter heading, class number or some other aid. Discourse an and discourse about something "cannot be determined solely from what it mentions" (p. 361). Some kind of background is needed. Fairthorne further develops the theme that knowledge about a subject comes from previous knowledge, thus adding a temporal factor to classification. "Some extra textual criteria are needed" in order to classify (p. 362). For example, "documents that mention the same things, but are an different topics, will have different ancestors, in the sense of preceding documents to which they are linked by various bibliographic characteristics ... [and] ... they will have different descendants" (p. 363). The classifier has to distinguish between documents that "mention exactly the same thing" but are not about the same thing. The classifier does this by classifying "sets of documents that form their histories, their bibliographic world lines" (p. 363). The practice of citation is one method of performing the linking and presents a "fan" of documents connected by a chain of citations to past work. The fan is seen as the effect of generations of documents - each generation connected to the previous one, and all ancestral to the present document. Thus, there are levels in temporal structure-that is, antecedent and successor documents-and these require that documents be identified in relation to other documents. This gives a set of documents an "irrevocable order," a loose order which Fairthorne calls "bibliographic time," and which is "generated by the fact of continual growth" (p. 364). He does not consider "bibliographic time" to be an equivalent to physical time because bibliographic events, as part of communication, require delay. Sets of documents, as indicated above, rather than single works, are used in classification. While an event, a person, a unique feature of the environment, may create a class of one-such as the French Revolution, Napoleon, Niagara Falls-revolutions, emperors, and waterfalls are sets which, as sets, will subsume individuals and make normal classes.
  9. Piekara, F.H.: Wie idiosynkratisch ist Wissen? : Individuelle Unterschiede im Assoziieren und bei der Anlage und Nutzung von Informationssystemen (1988) 0.02
    0.016614396 = product of:
      0.066457585 = sum of:
        0.066457585 = weight(_text_:und in 2605) [ClassicSimilarity], result of:
          0.066457585 = score(doc=2605,freq=14.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.51866364 = fieldWeight in 2605, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2605)
      0.25 = coord(1/4)
    
    Abstract
    Gegenstand dieser Arbeit sind die Unterschiede im Wissen zwischen Personen. Um eine Bestimmung der bestehenden Unterschiede im alltäglichen Wissen zwischen Personen vornehmen zu können, wird der begriff "Wissen" expliziert, der Beitrag verschiedener Wissensrepräsentationskonzeptionen zur Beschreibung von Wissen und somit von Wissensunterschieden diskutiert und schließlich verschiedene Methoden zur Bestimmung von Wissen und Wissensunterschieden aus dem Verhalten dargstellt und bewertet. Durch den inter- und Intraindividuellen Vergleich von Assoziationen wird das Ausmaß an Unterschieden im Wissen zwischen 2 Personen auf 24-27% geschätzt
  10. Wersig, G.: Inhaltsanalyse : Einführung in ihre Systematik und Literatur (1968) 0.02
    0.01569913 = product of:
      0.06279652 = sum of:
        0.06279652 = weight(_text_:und in 2385) [ClassicSimilarity], result of:
          0.06279652 = score(doc=2385,freq=2.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.4900911 = fieldWeight in 2385, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.15625 = fieldNorm(doc=2385)
      0.25 = coord(1/4)
    
  11. Franke-Maier, M.; Harbeck, M.: Superman = Persepolis = Naruto? : Herausforderungen und Probleme der formalen und inhaltlichen Vielfalt von Comics und Comicforschung für die Regensburger Verbundklassifikation (2016) 0.01
    0.014893501 = product of:
      0.059574004 = sum of:
        0.059574004 = weight(_text_:und in 4306) [ClassicSimilarity], result of:
          0.059574004 = score(doc=4306,freq=20.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.4649412 = fieldWeight in 4306, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4306)
      0.25 = coord(1/4)
    
    Abstract
    Das populäre Medium Comic hat in den vergangenen Jahren zunehmend Interesse als wissenschaftliches Forschungsobjekt und damit auch als bibliothekarisches Sammlungsgut auf sich gezogen. Bibliotheken stehen vor der Aufgabe, die Primärquellen und vor allem die wissenschaftliche Forschungsliteratur zu Comics inhaltlich zu erschließen und nach wie vor auch systematisch zu präsentieren. Bis vor kurzem fand man in der in Deutschland am weitesten verbreiteten Klassifikation, der im Selbstverständnis wissenschaftsnahen Regensburger Verbundklassifikation, nur Einzelstellen in einzelnen Fachsystematiken und einen größeren Bereich in der Japanologie für das Phänomen Manga. Dieser Zustand war nicht ausreichend für eine differenzierte Aufstellung in Bibliotheken mit entsprechenden Beständen und Schwerpunkten. Der hier präsentierte RVK-Baum für Comics und Comicforschung wird diesem Desiderat gerecht und bietet eine Möglichkeit, Comicbestände adäquat klassifikatorisch abzubilden.
  12. Lebrecht, H.: Methoden und Probleme der Bilderschließung am Beispiel des verteilten digitalen Bildarchivs Prometheus (2003) 0.01
    0.014151005 = product of:
      0.05660402 = sum of:
        0.05660402 = weight(_text_:und in 3508) [ClassicSimilarity], result of:
          0.05660402 = score(doc=3508,freq=26.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.44176215 = fieldWeight in 3508, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3508)
      0.25 = coord(1/4)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Footnote
    Diplomarbeit, Studiengang Bibliothekswesen, Fakultät für Informations- und Kommunikationswissenschaften der Fachhochschule Köln
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
  13. Lebrecht, H.: Methoden und Probleme der Bilderschließung (2003) 0.01
    0.014151005 = product of:
      0.05660402 = sum of:
        0.05660402 = weight(_text_:und in 3871) [ClassicSimilarity], result of:
          0.05660402 = score(doc=3871,freq=26.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.44176215 = fieldWeight in 3871, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3871)
      0.25 = coord(1/4)
    
    Abstract
    Die Erschließung von Bildern ist ein Gebiet, welches aufgrund der speziellen Eigenschaften des Mediums Bild von der Texterschließung zu unterscheiden ist. In Museen, Archiven, Universitäten und anderen Einrichtungen werden Bildsammlungen schon länger erschlossen. Viele Sammlungen bleiben jedoch unangetastet, da es für die Bilderschließung noch immer an passend zugeschnittenen Erschließungsinstrumenten und Erschließungsmethoden mangelt. Es existieren keine allgemeingültigen Standards, auch deshalb, weil die zu verzeichnenden Sammlungen vielen verschiedenen Instituten unterschiedlicher Wissenschaftsfächer angehören und sie dort unterschiedlichen Zwecken dienen. Diese Arbeit beginnt mit einer Einführung zur Kommunikationstheorie, um damit das Bewusstsein über die Komplexität der von Bildern vermittelten, visuellen Informationen zu schärfen. Anschließend werden Bildsammlungen typologisch sortiert, bevor im einzelnen auf die Theorie der Formal- und Inhaltserschließung von Bildern eingegangen wird. Dabei werden verschiedene Erschließungsinstrumente und -methoden, jeweils unter Einbindung von Beispielen, vorgestellt und ihre Anwendbarkeit für die Bilderschließung beurteilt. Der zweite Teil der Arbeit ist an das Projekt "Prometheus - Das verteilte digitale Bildarchiv für Forschung und Lehre" gebunden. Über Prometheus werden heterogen erschlossene, digitalisierte Bildbestände unter einer gemeinsamen Retrievaloberfläche verfügbar gemacht. Nach einer Einführung in das Projekt, die intendierten Ziele und die Vorstel lung der Techniken, welche das Retrieval über autonom erstellte Datenbanken ermöglichen, werden praktizierte Erschließungsmethoden einzelner, an Prometheus beteiligter Institute, beispielhaft dargestellt. Die sich zuvor in den verschiedenen Kapiteln andeutenden oder schon festgestellten Problematiken der Bilderschließung werden zum Schluss noch einmal zusammengefasst und diskutiert, wobei sie verschiedenen Ebenen, weshalb sie auftreten und worauf sie sich auswirken, zugeordnet werden können.
    Imprint
    Köln : Fakultät für Informations- und Kommunikationswissenschaften
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.42
  14. Scholz, O.R.: Bild, Darstellung, Zeichen : Philosophische Theorien bildlicher Darstellung (2004) 0.01
    0.014151005 = product of:
      0.05660402 = sum of:
        0.05660402 = weight(_text_:und in 2436) [ClassicSimilarity], result of:
          0.05660402 = score(doc=2436,freq=26.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.44176215 = fieldWeight in 2436, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2436)
      0.25 = coord(1/4)
    
    Abstract
    Bilder prägen zunehmend alle öffentlichen und privaten Lebensbereiche. Dieser "Bilderflut" steht eine große praktische und theoretische Inkompetenz gegenüber. Was sind Bilder? Wie stellen Bilder dar? Was heißt es, Bilder zu verstehen? Das Buch verbindet eine Untersuchung dieser Fragen mit einem kritischen Durchgang durch prominente Bildtheorien und arbeitet schrittweise eine Gebrauchstheorie bildhafter Darstellungen aus. In den kritischen Teilen zeigt sich: Ob ein Gegenstand als Bild fungiert, liegt weder allein in seinen inneren Eigenschaften noch in Ähnlichkeitsbeziehungen zu dargestellten Realitäten noch allein in seiner kausalen und intentionalen Entstehungsgeschichte begründet. Positiv ergibt sich: Etwas ist nur dann ein Bild, wenn es als Element eines analogen Zeichensystems im Rahmen besondere sozial geregelter Handlungs- und Interaktionsmuster ("Bildspiele") verwendet und verstanden wird. Das Buch, das sich seit seinem ersten Erscheinen im Jahre 1991 in Forschung und Lehre bew ährt hat, wurde für die Neuauflage vollständig überarbeitet und auf den neuesten Stand gebracht. Es richtet sich an alle, die mit Bildern und dem Verstehen von Bildern zu tun haben.
    Classification
    CC 6900 Philosophie / Systematische Philosophie / Ästhetik und Kunstphilosophie / Abhandlungen zur Ästhetik und Kunstphilosophie
    RVK
    CC 6900 Philosophie / Systematische Philosophie / Ästhetik und Kunstphilosophie / Abhandlungen zur Ästhetik und Kunstphilosophie
  15. Langridge, D.W.: Inhaltsanalyse: Grundlagen und Methoden (1994) 0.01
    0.013595845 = product of:
      0.05438338 = sum of:
        0.05438338 = weight(_text_:und in 910) [ClassicSimilarity], result of:
          0.05438338 = score(doc=910,freq=24.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.42443132 = fieldWeight in 910, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=910)
      0.25 = coord(1/4)
    
    Abstract
    Nahezu unbeachtet in der gesamten bibliothekswissenschaftlichen Literatur blieb bislang ein Arbeitsschritt der Inhaltserschließung, obgleich er ihren Ausgangspunkt bildet und damit von grundlegender Bedeutung ist: die Analyse des Inhalts von Dokumenten. Klare Aussagen über den Inhalt und die Beschaffenheit eines Dokuments auf der Basis fundierter Kriterien treffen zu können, ist das Anliegen von Langridges, nunmehr erstmalig in deutscher Übersetzung vorliegendem Werk. Gestützt auf ein Fundament philosophisch abgeleiteter Wissensformen, zeigt Langridge anhand einer Vielzahl konkreter Beispiele Wege - aber auch Irrwege- auf, sich dem Inhalt von Dokumenten zu nähern und zu Resultaten zu gelangen, die dank objektiver Kriterien überprüfbar werden. Er wendet sich damit sowohl an Studenten dieses Fachgebiets, indem er die grundlegenden Strukturen von Wissen aufzeigt, als auch an erfahrene Praktiker, die ihre Arbeit effektiver gestalten und ihre Entscheidungen auf eine Basis stellen möchten, die persönliche Einschätzungen objektiviert.
    Classification
    AN 95550 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung / Verfahren
    AN 75000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Allgemeines
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    Content
    Inhalt: Inhaltsanalyse - Ziel und Zweck / Wissensformen / Themen / Dokumentenformen / Inhaltsverdichtung / Inhaltsverdichtung in praktischen Beispielen / Wissensstrukturen in Ordnungssystemen / Tiefenanalyse
    RVK
    AN 95550 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung / Verfahren
    AN 75000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Allgemeines
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
  16. Bös, K.: Aspektorientierte Inhaltserschließung von Romanen und Bildern : ein Vergleich der Ansätze von Annelise Mark Pejtersen und Sara Shatford (2012) 0.01
    0.013595845 = product of:
      0.05438338 = sum of:
        0.05438338 = weight(_text_:und in 1400) [ClassicSimilarity], result of:
          0.05438338 = score(doc=1400,freq=24.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.42443132 = fieldWeight in 1400, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1400)
      0.25 = coord(1/4)
    
    Abstract
    Für die inhaltliche Erschließung von Sach- und Fachliteratur stehen heutzutage etablierte Verfahren und Standards zur Verfügung. Anders verhält es sich dagegen mit der Erschließung von Schöner Literatur und Bildern. Beide Medien sind sehr verschieden und haben doch eines gemeinsam. Sie lassen sich mit den Regeln für Sach- und Fachliteratur nicht zufriedenstellend inhaltlich erschließen. Dieses Problem erkannten in den 1970er und 80er Jahren beide Autoren, deren Methoden ich hier verglichen habe. Annelise Mark Pejtersen bemühte sich um eine Lösung für die Schöne Literatur und wählte dabei einen empirischen Ansatz. Sara Shatford versuchte durch theoretische Überlegungen eine Lösung für Bilder zu erarbeiten. Der empirische wie der theoretische Ansatz führten zu Methoden, die das jeweilige Medium unter verschiedenen Aspekten betrachten. Diese Aspekten basieren in beiden Fällen auf denselben Fragen. Dennoch unterscheiden sie sich stark voneinander sowohl im Hinblick auf die Inhalte, die sie aufnehmen können, als auch hinsichtlich ihrer Struktur. Eine Anwendung einer der Methoden auf das jeweils andere Medium erscheint daher nicht sinnvoll. In dieser Arbeit werden die Methoden von Pejtersen und Shatford zunächst einzeln erläutert. Im Anschluss werden die Aspekte beider Methoden vergleichend gegenübergestellt. Dazu werden ausgewählte Beispiele mit beiden Methoden erschlossen. Abschließend wird geprüft, ob die wechselseitige Erschließung, wie sie im Vergleich angewendet wurde, in der Praxis sinnvoll ist und ob es Medien gibt, deren Erschließung mit beiden Methoden interessant wäre.
    Imprint
    Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
  17. Lassak, L.: ¬Ein Versuch zur Repräsentation von Charakteren der Kinder- und Jugendbuchserie "Die drei ???" in einer Datenbank (2017) 0.01
    0.0134592 = product of:
      0.0538368 = sum of:
        0.0538368 = weight(_text_:und in 2784) [ClassicSimilarity], result of:
          0.0538368 = score(doc=2784,freq=12.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.42016557 = fieldWeight in 2784, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2784)
      0.25 = coord(1/4)
    
    Abstract
    Die vorliegende Masterarbeit setzt sich mit dem Information Retrieval anhand der Repräsentation von Charakteren der Kinder und Jugendbuchserie "Die drei ???" mit dem Datenbanksystem Access auseinander. Dabei werden sämtliche Aspekte von der Informations- und Datenbeschaffung aus 55 "Die drei ???"-Büchern über die Datenbankerstellung und -aufbereitung bis hin zu den abschließenden Evaluationen beschrieben. Insbesondere versucht die Arbeit die Nutzergruppe Autoren abzudecken, so dass die Datenbank ihnen eine erleichterte Figurenübersicht und eine Hilfestellung bei der Figurensuche geben soll.
    Imprint
    Berlin : Humboldt-Universität zu Berlin, Philosophische Fakultät, Institut für Bibliotheks- und Informationswissenschaft
  18. Miene, A.; Hermes, T.; Ioannidis, G.: Wie kommt das Bild in die Datenbank? : Inhaltsbasierte Analyse von Bildern und Videos (2002) 0.01
    0.013321153 = product of:
      0.05328461 = sum of:
        0.05328461 = weight(_text_:und in 1213) [ClassicSimilarity], result of:
          0.05328461 = score(doc=1213,freq=16.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.41585606 = fieldWeight in 1213, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1213)
      0.25 = coord(1/4)
    
    Abstract
    Die verfügbare multimediale Information nimmt stetig zu, nicht zuletzt durch die Tag für Tag wachsende Zahl an neuer Information im Internet. Damit man dieser Flut Herr werden und diese Information wieder abrufbar machen kann, muss sie annotiert und geeignet in Datenbanken abgelegt werden. Hier besteht das Problem der manuellen Annotation, das einerseits durch die Ermüdung aufgrund der Routinearbeit und andererseits durch die Subjektivität des Annotierenden zu Fehlern in der Annotation führen kann. Unterstützende Systeme, die dem Dokumentar genau diese Routinearbeit abnehmen, können hier bis zu einem gewissen Grad Abhilfe schaffen. Die wissenschaftliche Erschließung von beispielsweise filmbeiträgen wird der Dokumentar zwar immer noch selbst machen müssen und auch sollen, aber die Erkennung und Dokumentation von sog. Einstellungsgrenzen kann durchaus automatisch mit Unterstützung eines Rechners geschehen. In diesem Beitrag zeigen wir anhand von Projekten, die wir durchgeführt haben, wie weit diese Unterstützung des Dokumentars bei der Annotation von Bildern und Videos gehen kann
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.1, S.15-21
  19. Mochmann. E.: Inhaltsanalyse in den Sozialwissenschaften (1985) 0.01
    0.012559303 = product of:
      0.050237212 = sum of:
        0.050237212 = weight(_text_:und in 2923) [ClassicSimilarity], result of:
          0.050237212 = score(doc=2923,freq=8.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.39207286 = fieldWeight in 2923, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2923)
      0.25 = coord(1/4)
    
    Abstract
    Die sozialwissenschaftliche Inhaltsanalyse ist ein etabliertes Verfahren zur Datengewinnung aus Kommunikationsinhalten und zu ihrer Analyse. Forschungsdesigns lassen sich festmachen an Lasswell's klassischer Frage "Who says what to whom, how and with what effect?" Neben die traditionellen Verfahren der Vercodung von Kommunikationsinhalten durch menschliche Verschlüsseler treten seit Mitte der 60er Jahre computerunterstützte Inhaltsanalyseverfahren. Die Grundprinzipien der Inhaltserschließung auf Basis von "Inhaltsanalysewörterbüchern" (General Inquirer) und auf der Basis von statistischen Assoziationsverfahren (WORDS) werden erläutert. Möglichkeiten der Beobachtung gesellschaftlicher Entwicklungen auf Basis von "Textindikatoren" werden an Beispielen aus der Analyse von Tageszeitungen, Kleingruppendiskussionen und Parteiprogrammen vorgestellt
    Source
    Sprache und Datenverarbeitung. 9(1985), S.5-10
  20. Hauff-Hartig, S.: Automatische Transkription von Videos : Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel KI-generierte Metadaten: Von der Technologiebeobachtung bis zum produktiven Einsatz (2021) 0.01
    0.012559303 = product of:
      0.050237212 = sum of:
        0.050237212 = weight(_text_:und in 1252) [ClassicSimilarity], result of:
          0.050237212 = score(doc=1252,freq=8.0), product of:
            0.12813234 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057771947 = queryNorm
            0.39207286 = fieldWeight in 1252, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1252)
      0.25 = coord(1/4)
    
    Abstract
    Die dritte Session, die von Michael Vielhaber vom Österreichischen Rundfunk moderiert wurde, machte die Teilnehmerinnen und Teilnehmer mit zukunftsweisenden Werkzeugen und Konzepten zur KI-unterstützten Erschließung von Audio- und Videodateien bekannt. Alle vier vorgestellten Technologien bewähren sich bereits in ihren praktischen Anwendungsumgebungen.

Languages

  • d 21
  • e 8

Types