-
Langridge, D.W.: Inhaltsanalyse: Grundlagen und Methoden (1994)
0.01
0.014495174 = product of:
0.057980698 = sum of:
0.057980698 = weight(_text_:und in 910) [ClassicSimilarity], result of:
0.057980698 = score(doc=910,freq=24.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.42443132 = fieldWeight in 910, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=910)
0.25 = coord(1/4)
- Abstract
- Nahezu unbeachtet in der gesamten bibliothekswissenschaftlichen Literatur blieb bislang ein Arbeitsschritt der Inhaltserschließung, obgleich er ihren Ausgangspunkt bildet und damit von grundlegender Bedeutung ist: die Analyse des Inhalts von Dokumenten. Klare Aussagen über den Inhalt und die Beschaffenheit eines Dokuments auf der Basis fundierter Kriterien treffen zu können, ist das Anliegen von Langridges, nunmehr erstmalig in deutscher Übersetzung vorliegendem Werk. Gestützt auf ein Fundament philosophisch abgeleiteter Wissensformen, zeigt Langridge anhand einer Vielzahl konkreter Beispiele Wege - aber auch Irrwege- auf, sich dem Inhalt von Dokumenten zu nähern und zu Resultaten zu gelangen, die dank objektiver Kriterien überprüfbar werden. Er wendet sich damit sowohl an Studenten dieses Fachgebiets, indem er die grundlegenden Strukturen von Wissen aufzeigt, als auch an erfahrene Praktiker, die ihre Arbeit effektiver gestalten und ihre Entscheidungen auf eine Basis stellen möchten, die persönliche Einschätzungen objektiviert.
- Classification
- AN 95550 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung / Verfahren
AN 75000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Allgemeines
AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
- Content
- Inhalt: Inhaltsanalyse - Ziel und Zweck / Wissensformen / Themen / Dokumentenformen / Inhaltsverdichtung / Inhaltsverdichtung in praktischen Beispielen / Wissensstrukturen in Ordnungssystemen / Tiefenanalyse
- RVK
- AN 95550 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung / Verfahren
AN 75000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Allgemeines
AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
-
Bös, K.: Aspektorientierte Inhaltserschließung von Romanen und Bildern : ein Vergleich der Ansätze von Annelise Mark Pejtersen und Sara Shatford (2012)
0.01
0.014495174 = product of:
0.057980698 = sum of:
0.057980698 = weight(_text_:und in 1400) [ClassicSimilarity], result of:
0.057980698 = score(doc=1400,freq=24.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.42443132 = fieldWeight in 1400, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1400)
0.25 = coord(1/4)
- Abstract
- Für die inhaltliche Erschließung von Sach- und Fachliteratur stehen heutzutage etablierte Verfahren und Standards zur Verfügung. Anders verhält es sich dagegen mit der Erschließung von Schöner Literatur und Bildern. Beide Medien sind sehr verschieden und haben doch eines gemeinsam. Sie lassen sich mit den Regeln für Sach- und Fachliteratur nicht zufriedenstellend inhaltlich erschließen. Dieses Problem erkannten in den 1970er und 80er Jahren beide Autoren, deren Methoden ich hier verglichen habe. Annelise Mark Pejtersen bemühte sich um eine Lösung für die Schöne Literatur und wählte dabei einen empirischen Ansatz. Sara Shatford versuchte durch theoretische Überlegungen eine Lösung für Bilder zu erarbeiten. Der empirische wie der theoretische Ansatz führten zu Methoden, die das jeweilige Medium unter verschiedenen Aspekten betrachten. Diese Aspekten basieren in beiden Fällen auf denselben Fragen. Dennoch unterscheiden sie sich stark voneinander sowohl im Hinblick auf die Inhalte, die sie aufnehmen können, als auch hinsichtlich ihrer Struktur. Eine Anwendung einer der Methoden auf das jeweils andere Medium erscheint daher nicht sinnvoll. In dieser Arbeit werden die Methoden von Pejtersen und Shatford zunächst einzeln erläutert. Im Anschluss werden die Aspekte beider Methoden vergleichend gegenübergestellt. Dazu werden ausgewählte Beispiele mit beiden Methoden erschlossen. Abschließend wird geprüft, ob die wechselseitige Erschließung, wie sie im Vergleich angewendet wurde, in der Praxis sinnvoll ist und ob es Medien gibt, deren Erschließung mit beiden Methoden interessant wäre.
- Imprint
- Köln : Fachhochschule / Fakultät für Informations- und Kommunikationswissenschaften
-
Lassak, L.: ¬Ein Versuch zur Repräsentation von Charakteren der Kinder- und Jugendbuchserie "Die drei ???" in einer Datenbank (2017)
0.01
0.01434949 = product of:
0.05739796 = sum of:
0.05739796 = weight(_text_:und in 2784) [ClassicSimilarity], result of:
0.05739796 = score(doc=2784,freq=12.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.42016557 = fieldWeight in 2784, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2784)
0.25 = coord(1/4)
- Abstract
- Die vorliegende Masterarbeit setzt sich mit dem Information Retrieval anhand der Repräsentation von Charakteren der Kinder und Jugendbuchserie "Die drei ???" mit dem Datenbanksystem Access auseinander. Dabei werden sämtliche Aspekte von der Informations- und Datenbeschaffung aus 55 "Die drei ???"-Büchern über die Datenbankerstellung und -aufbereitung bis hin zu den abschließenden Evaluationen beschrieben. Insbesondere versucht die Arbeit die Nutzergruppe Autoren abzudecken, so dass die Datenbank ihnen eine erleichterte Figurenübersicht und eine Hilfestellung bei der Figurensuche geben soll.
- Imprint
- Berlin : Humboldt-Universität zu Berlin, Philosophische Fakultät, Institut für Bibliotheks- und Informationswissenschaft
-
Miene, A.; Hermes, T.; Ioannidis, G.: Wie kommt das Bild in die Datenbank? : Inhaltsbasierte Analyse von Bildern und Videos (2002)
0.01
0.014202313 = product of:
0.05680925 = sum of:
0.05680925 = weight(_text_:und in 1213) [ClassicSimilarity], result of:
0.05680925 = score(doc=1213,freq=16.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.41585606 = fieldWeight in 1213, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1213)
0.25 = coord(1/4)
- Abstract
- Die verfügbare multimediale Information nimmt stetig zu, nicht zuletzt durch die Tag für Tag wachsende Zahl an neuer Information im Internet. Damit man dieser Flut Herr werden und diese Information wieder abrufbar machen kann, muss sie annotiert und geeignet in Datenbanken abgelegt werden. Hier besteht das Problem der manuellen Annotation, das einerseits durch die Ermüdung aufgrund der Routinearbeit und andererseits durch die Subjektivität des Annotierenden zu Fehlern in der Annotation führen kann. Unterstützende Systeme, die dem Dokumentar genau diese Routinearbeit abnehmen, können hier bis zu einem gewissen Grad Abhilfe schaffen. Die wissenschaftliche Erschließung von beispielsweise filmbeiträgen wird der Dokumentar zwar immer noch selbst machen müssen und auch sollen, aber die Erkennung und Dokumentation von sog. Einstellungsgrenzen kann durchaus automatisch mit Unterstützung eines Rechners geschehen. In diesem Beitrag zeigen wir anhand von Projekten, die wir durchgeführt haben, wie weit diese Unterstützung des Dokumentars bei der Annotation von Bildern und Videos gehen kann
- Source
- Information - Wissenschaft und Praxis. 53(2002) H.1, S.15-21
-
Mochmann. E.: Inhaltsanalyse in den Sozialwissenschaften (1985)
0.01
0.013390068 = product of:
0.05356027 = sum of:
0.05356027 = weight(_text_:und in 2923) [ClassicSimilarity], result of:
0.05356027 = score(doc=2923,freq=8.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.39207286 = fieldWeight in 2923, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2923)
0.25 = coord(1/4)
- Abstract
- Die sozialwissenschaftliche Inhaltsanalyse ist ein etabliertes Verfahren zur Datengewinnung aus Kommunikationsinhalten und zu ihrer Analyse. Forschungsdesigns lassen sich festmachen an Lasswell's klassischer Frage "Who says what to whom, how and with what effect?" Neben die traditionellen Verfahren der Vercodung von Kommunikationsinhalten durch menschliche Verschlüsseler treten seit Mitte der 60er Jahre computerunterstützte Inhaltsanalyseverfahren. Die Grundprinzipien der Inhaltserschließung auf Basis von "Inhaltsanalysewörterbüchern" (General Inquirer) und auf der Basis von statistischen Assoziationsverfahren (WORDS) werden erläutert. Möglichkeiten der Beobachtung gesellschaftlicher Entwicklungen auf Basis von "Textindikatoren" werden an Beispielen aus der Analyse von Tageszeitungen, Kleingruppendiskussionen und Parteiprogrammen vorgestellt
- Source
- Sprache und Datenverarbeitung. 9(1985), S.5-10
-
Hauff-Hartig, S.: Automatische Transkription von Videos : Fernsehen 3.0: Automatisierte Sentimentanalyse und Zusammenstellung von Kurzvideos mit hohem Aufregungslevel KI-generierte Metadaten: Von der Technologiebeobachtung bis zum produktiven Einsatz (2021)
0.01
0.013390068 = product of:
0.05356027 = sum of:
0.05356027 = weight(_text_:und in 1252) [ClassicSimilarity], result of:
0.05356027 = score(doc=1252,freq=8.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.39207286 = fieldWeight in 1252, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1252)
0.25 = coord(1/4)
- Abstract
- Die dritte Session, die von Michael Vielhaber vom Österreichischen Rundfunk moderiert wurde, machte die Teilnehmerinnen und Teilnehmer mit zukunftsweisenden Werkzeugen und Konzepten zur KI-unterstützten Erschließung von Audio- und Videodateien bekannt. Alle vier vorgestellten Technologien bewähren sich bereits in ihren praktischen Anwendungsumgebungen.
-
Nohr, H.: Inhaltsanalyse (1999)
0.01
0.0115961395 = product of:
0.046384558 = sum of:
0.046384558 = weight(_text_:und in 4430) [ClassicSimilarity], result of:
0.046384558 = score(doc=4430,freq=6.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.33954507 = fieldWeight in 4430, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4430)
0.25 = coord(1/4)
- Abstract
- Die Inhaltsanalyse ist der elementare Teilprozeß der Indexierung von Dokumenten. Trotz dieser zentralen Stellung im Rahmen einer inhaltlichen Dokumenterschließung wird der Vorgang der Inhaltsanalyse in theorie und Praxis noch zu wenig beachtet. Der Grund dieser Vernachlässigung liegt im vermeintlich subjektiven Charakter des Verstehensprozesses. Zur Überwindung dieses Problems wird zunächst der genaue Gegenstand der Inhaltsanalyse bestimmt. Daraus abgeleitet lassen sich methodisch weiterführende Ansätze und Verfahren einer inhaltlichen Analyse gewinnen. Abschließend werden einige weitere Aufgaben der Inhaltsanalyse, wir z.B. eine qualitative Bewertung, behandelt
- Source
- nfd Information - Wissenschaft und Praxis. 50(1999) H.2, S.69-78
-
Knautz, K.; Dröge, E.; Finkelmeyer, S.; Guschauski, D.; Juchem, K.; Krzmyk, C.; Miskovic, D.; Schiefer, J.; Sen, E.; Verbina, J.; Werner, N.; Stock, W.G.: Indexieren von Emotionen bei Videos (2010)
0.01
0.011227914 = product of:
0.044911657 = sum of:
0.044911657 = weight(_text_:und in 624) [ClassicSimilarity], result of:
0.044911657 = score(doc=624,freq=10.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.3287631 = fieldWeight in 624, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=624)
0.25 = coord(1/4)
- Abstract
- Gegenstand der empirischen Forschungsarbeit sind dargestellte wie empfundene Gefühle bei Videos. Sind Nutzer in der Lage, solche Gefühle derart konsistent zu erschließen, dass man deren Angaben für ein emotionales Videoretrieval gebrauchen kann? Wir arbeiten mit einem kontrollierten Vokabular für neun tionen (Liebe, Freude, Spaß, Überraschung, Sehnsucht, Trauer, Ärger, Ekel und Angst), einem Schieberegler zur Einstellung der jeweiligen Intensität des Gefühls und mit dem Ansatz der broad Folksonomy, lassen also unterschiedliche Nutzer die Videos taggen. Versuchspersonen bekamen insgesamt 20 Videos (bearbeitete Filme aus YouTube) vorgelegt, deren Emotionen sie indexieren sollten. Wir erhielten Angaben von 776 Probanden und entsprechend 279.360 Schiebereglereinstellungen. Die Konsistenz der Nutzervoten ist sehr hoch; die Tags führen zu stabilen Verteilungen der Emotionen für die einzelnen Videos. Die endgültige Form der Verteilungen wird schon bei relativ wenigen Nutzern (unter 100) erreicht. Es ist möglich, im Sinne der Power Tags die jeweils für ein Dokument zentralen Gefühle (soweit überhaupt vorhanden) zu separieren und für das emotionale Information Retrieval (EmIR) aufzubereiten.
- Source
- Information - Wissenschaft und Praxis. 61(2010) H.4, S.221-236
-
Volpers, H.: Inhaltsanalyse (2013)
0.01
0.010146623 = product of:
0.04058649 = sum of:
0.04058649 = weight(_text_:und in 2018) [ClassicSimilarity], result of:
0.04058649 = score(doc=2018,freq=6.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.29710194 = fieldWeight in 2018, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2018)
0.25 = coord(1/4)
- Abstract
- Der Begriff Inhaltsanalyse wird je nach wissenschaftlicher Provenienz oder Bedeutungszusammenhang unterschiedlich definiert: Innerhalb der bibliothekarischen Praxis wird die Erfassung des Inhaltes eines vorliegenden Dokumentes für die Zwecke der Indexierung als Inhaltsanalyse bezeichnet, philologische Textinterpretationen oder sprachwissenschaftliche Textanalysen werden gelegentlich als Inhaltsanalysen etikettiert, ebenso die Interpretation von Interviewaussagen in der Psychologie und qualitativen Sozialforschung. Der vorliegende Beitrag bezieht sich explizit auf die sozialwissenschaftliche Methode der systematischen Inhaltsanalyse. Allerdings ist auch durch diese Eingrenzung noch keine hinreichende definitorische Klarheit geschaffen, da eine Unterscheidung in qualitative und quantitative Verfahren vorzunehmen ist.
- Source
- Handbuch Methoden der Bibliotheks- und Informationswissenschaft: Bibliotheks-, Benutzerforschung, Informationsanalyse. Hrsg.: K. Umlauf, S. Fühles-Ubach u. M.S. Seadle
-
Hildebrandt, B.; Moratz, R.; Rickheit, G.; Sagerer, G.: Kognitive Modellierung von Sprach- und Bildverstehen (1996)
0.01
0.010042551 = product of:
0.040170204 = sum of:
0.040170204 = weight(_text_:und in 361) [ClassicSimilarity], result of:
0.040170204 = score(doc=361,freq=2.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.29405463 = fieldWeight in 361, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.09375 = fieldNorm(doc=361)
0.25 = coord(1/4)
-
Mayring, P.: Qualitative Inhaltsanalyse : Grundlagen und Techniken (1990)
0.01
0.008368793 = product of:
0.03347517 = sum of:
0.03347517 = weight(_text_:und in 33) [ClassicSimilarity], result of:
0.03347517 = score(doc=33,freq=2.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.24504554 = fieldWeight in 33, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=33)
0.25 = coord(1/4)
-
Schulzki-Haddouti, C.; Brückner, A.: ¬Die Suche nach dem Sinn : Automatische Inhaltsanalyse nicht nur für Geheimdienste (2001)
0.01
0.008368793 = product of:
0.03347517 = sum of:
0.03347517 = weight(_text_:und in 4133) [ClassicSimilarity], result of:
0.03347517 = score(doc=4133,freq=2.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.24504554 = fieldWeight in 4133, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=4133)
0.25 = coord(1/4)
- Abstract
- Die Geheimdienste stehen vor einer Informationsflut, die sie mit herkömmlichen Mitteln nicht bewältigen können. Neue Möglichkeiten, die in Software-Projekten unter BND-Beteiligung entstanden, sollen das Defizit beseitigen und beliebig verknüpfte Informationen der analyse zugänglich machen
-
Bade, D.: ¬The creation and persistence of misinformation in shared library catalogs : language and subject knowledge in a technological era (2002)
0.01
0.008011662 = product of:
0.03204665 = sum of:
0.03204665 = weight(_text_:headings in 2858) [ClassicSimilarity], result of:
0.03204665 = score(doc=2858,freq=2.0), product of:
0.29887593 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06159341 = queryNorm
0.10722393 = fieldWeight in 2858, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.015625 = fieldNorm(doc=2858)
0.25 = coord(1/4)
- Footnote
- Rez. in JASIST 54(2003) no.4, S.356-357 (S.J. Lincicum): "Reliance upon shared cataloging in academic libraries in the United States has been driven largely by the need to reduce the expense of cataloging operations without muck regard for the Impact that this approach might have an the quality of the records included in local catalogs. In recent years, ever increasing pressures have prompted libraries to adopt practices such as "rapid" copy cataloging that purposely reduce the scrutiny applied to bibliographic records downloaded from shared databases, possibly increasing the number of errors that slip through unnoticed. Errors in bibliographic records can lead to serious problems for library catalog users. If the data contained in bibliographic records is inaccurate, users will have difficulty discovering and recognizing resources in a library's collection that are relevant to their needs. Thus, it has become increasingly important to understand the extent and nature of errors that occur in the records found in large shared bibliographic databases, such as OCLC WorldCat, to develop cataloging practices optimized for the shared cataloging environment. Although this monograph raises a few legitimate concerns about recent trends in cataloging practice, it fails to provide the "detailed look" at misinformation in library catalogs arising from linguistic errors and mistakes in subject analysis promised by the publisher. A basic premise advanced throughout the text is that a certain amount of linguistic and subject knowledge is required to catalog library materials effectively. The author emphasizes repeatedly that most catalogers today are asked to catalog an increasingly diverse array of materials, and that they are often required to work in languages or subject areas of which they have little or no knowledge. He argues that the records contributed to shared databases are increasingly being created by catalogers with inadequate linguistic or subject expertise. This adversely affects the quality of individual library catalogs because errors often go uncorrected as records are downloaded from shared databases to local catalogs by copy catalogers who possess even less knowledge. Calling misinformation an "evil phenomenon," Bade states that his main goal is to discuss, "two fundamental types of misinformation found in bibliographic and authority records in library catalogs: that arising from linguistic errors, and that caused by errors in subject analysis, including missing or wrong subject headings" (p. 2). After a superficial discussion of "other" types of errors that can occur in bibliographic records, such as typographical errors and errors in the application of descriptive cataloging rules, Bade begins his discussion of linguistic errors. He asserts that sharing bibliographic records created by catalogers with inadequate linguistic or subject knowledge has, "disastrous effects an the library community" (p. 6). To support this bold assertion, Bade provides as evidence little more than a laundry list of errors that he has personally observed in bibliographic records over the years. When he eventually cites several studies that have addressed the availability and quality of records available for materials in languages other than English, he fails to describe the findings of these studies in any detail, let alone relate the findings to his own observations in a meaningful way. Bade claims that a lack of linguistic expertise among catalogers is the "primary source for linguistic misinformation in our databases" (p. 10), but he neither cites substantive data from existing studies nor provides any new data regarding the overall level of linguistic knowledge among catalogers to support this claim. The section concludes with a brief list of eight sensible, if unoriginal, suggestions for coping with the challenge of cataloging materials in unfamiliar languages.
-
Ackermann, A.: Zur Rolle der Inhaltsanalyse bei der Sacherschließung : theoretischer Anspruch und praktische Wirklichkeit in der RSWK (2001)
0.01
0.007485276 = product of:
0.029941104 = sum of:
0.029941104 = weight(_text_:und in 3061) [ClassicSimilarity], result of:
0.029941104 = score(doc=3061,freq=40.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.2191754 = fieldWeight in 3061, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=3061)
0.25 = coord(1/4)
- Abstract
- Die vorliegende Arbeit ist einem Teilbereich der Sacherschließung gewidmet, dem erst in den letzten zehn Jahren etwas mehr Aufmerksamkeit zuteil geworden ist: der Inhaltsanalyse. Dabei handelt es sich um die Frage, wie sich Inhalte von Dokumenten' adäquat beschreiben lassen. Damit der Inhalt eines Dokuments im Anschluß an eine solche Beschreibung in einem Sachkatalog erfaßt werden kann, muß zunächst die Frage beantwortet werden, aufgrund welcher Kriterien wir entscheiden, was denn den Inhalt eines Dokuments ausmacht. Es läßt sich mit guten Gründen vermuten, daß die Antworten auf diese Frage sehr unterschiedlich ausfallen können. Anliegen dieser Arbeit ist es jedoch nicht, im Durchgang durch die bisher zu diesem Thema erschienene Literatur'- eine ganze Reihe von Antworten auf die eingangs formulierte Frage zu liefern. Derek Langridge hat mit seiner 1989 veröffentlichen Arbeit "Subject Analysis: Principles and Procedures" (dt. 1994) ein sehr grundlegendes und komplexes Konzept für die Inhaltsanalyse vorgelegt, das immer noch als einzigartig gelten kann. Durch die Beschränkung auf diesen einen, bislang differenziertesten Ansatz wird eine bessere Einsicht in die mit der Inhaltsanalyse verbundenen Probleme geboten als bei einer Behandlung sehr unterschiedlicher Modelle. Die Diskussion von Langridge's Konzeption wird deutlich machen, mit wievielen Problemen ein universaler Entwurf für die Inhaltsanalyse schon von der Sache her behaftet ist. Der erste Teil der Arbeit beschäftigt sich also mit einem theoretischen Konzept zur Inhaltsanalyse, das die begriffliche Folie für den zweiten Teil der Arbeit bildet. wo es um die Frage geht, inwieweit die "Regeln für die Schlagwortkatalogisierung" Inhaltsanalyse thematisieren und deren Forderungen auch an eine Schlagwortkata- logisierung angemessen berücksichtigen. Die ausführliche Erörterung der mit der Inhaltsanalyse zusammenhängenden theoretischen Probleme und ihrer oft philosophischen Implikationen ist deshalb notwendig, weil andernfalls die im zweiten Teil der Arbeit geäußerte Kritik an einer bestimmten Praxis deutlich an Gewicht verlöre. Daß auch der zweite Teil der Arbeit, wenn auch in anderer Form als der erste, einen theoretischen Fokus hat, hängt mit dem Umstand zusammen, daß sich die weitreichenden praktischen Auswirkungen eines Regelwerks wie den RSWK immer theoretischen Überlegungen verdanken, die in bestimmten Regeln Gestalt annehmen. Das einleitende zweite Kapitel der Arbeit beantwortet die Frage nach dem genauen Ort der Inhaltsanalyse im Kontext der Sacherschliessung und benennt allgemeine methodische Schwierigkeiten, die eine Inhaltsanalyse zu bewältigen hat. Außerdem wird hier die wachsende Bedeutung der Inhaltsanalyse angesichts der "Informationsflut'` im Internet expliziert. Das dritte Kapitel diskutiert Langridge's Modell. Nach der Ausführung von grundsätzlichen Überzeugungen Langridge's zum Auftrag von Bibliothekaren und zur Rolle der Bibliothekspraxis im Wissenschaftsbetrieb wird seine Konzeption einer Neuordnung des gesamten menschlichen Wissens im Detail vorgestellt. An die Klärung seiner Grundbegriffe schließt sich eine praktische Anleitung zur Inhaltsanalyse an. Ein kurzes Resümee bildet den Abschluß des Kapitels. Im vierten, den RSWK gewidmeten Kapitel werden zunächst in einem Exkurs Normierungsversuche der Inhaltsanalyse durch den ISO-Standard 5963 und die DIN-Norm 31623 vorgestellt, auf die die RSWK ausdrücklich Bezug nehmen. Der Diskussion des theoretischen Konzepts der Inhaltsanalyse schließen sich Erörterungen von praktischen Problemen an, die sich aus der Behandlung von inhaltsanalytisch relevanten Gesichtspunkten in den RSWK wie etwa dem .,engen Schlagwort". Weltanschauungen oder Zielgruppen von Dokumenten ergeben. Dabei werden vor allem Beispiele untersucht, die von den RSWK zur Illustration ihrer Regeln selbst angeführt werden. Das abschließende Resümee im fünften Kapitel reformuliert nocheinmal wesentliche Ergebnisse der vorliegenden Arbeit
- Content
- "Resümee: Zum Abschluß möchte ich noch einmal wesentliche Ergebnisse der Arbeit in Kürze Revue passieren lassen. Während ihr erster Teil auf die theoretische Klärung des Begriffs der Inhaltsanalyse abzielte, war der zweite der praktischen Frage gewidmet, ob die "Regeln für die Schlagwortkatalogisierung" ein Konzept der Inhaltsanalyse zu bieten haben und inwieweit Forderungen der Inhaltsanalyse in den RSWK Berücksichtigung finden. Der erste Teil ist, durch seinen Gegenstand bedingt, immer wieder von grundsätzlichen philosophischen Überlegungen geprägt gewesen und bildete die begriffliche Folie, vor deren Hintergrund der gesamte zweite Teil zu sehen ist. Mit Langridge's Entwurf wurde das bislang differenzierteste Modell zur Inhaltsanalyse vorgestellt und im einzelnen diskutiert. Dabei wurden vorab die besonderen methodischen Probleme benannt, mit der jedes Konzept einer Inhaltsanalyse konfrontiert ist. Sie hängen mit dem aus analytischer Sicht schwierigen strukturellen oder auch hermeneutischen Status von Texten ganz allgemein zusammen, der ein generelles Problem besonders in den Geisteswissenschaften darstellt. Dem Umstand, daß der Inhaltsanalyse gerade angesichts der immer stärker ausufernden Informationsflut im Internet als Grundlage für eine qualitative Sichtung und Ordnung von relevanten Informationen eine neue wichtige Aufgabe zuteil geworden ist, wurde ebenfalls Rechnung getragen. Neben seinem ausgeprägten pädagogischen Selbstverständnis ist es vor allem der epistemologische Anspruch einer Neuordnung des gesamten menschlichen Wissens, der Langridge's Entwurf ausgesprochen ambitioniert erscheinen läßt. Sein Begriff der Wissensformen, verstanden als Art der Wahrnehmung der Phänomene in der Welt, ordnet auch die klassischen Wissenschaftsdisziplinen neu, während sein Begriff des Themas die Phänomene selbst faßt. Der dritte zentrale Begriff seiner Konzeption, die Dokumentenform, zielt auf die ideologische Perspektive eines Dokuments, sofern sie für dessen Struktur relevant ist. Langridge's selbst formulierter Anspruch ist es, mit seinem Begriff der Wissensform auf der Ebene von Wissensdisziplinen und menschlichen Aktivitäten das zu leisten, was Ranganathans berühmte Universalklassifikation auf der thematischen Ebene geleistet hat. Die Stärke von Ranganathans Modell liegt jedoch im Unterschied zu dem seines Nachfolgers meines Erachtens darin, daß gerade nicht apriorisch verstandene, unveränderliche Formen des Wissens postuliert werden. Die zu ziehende Lehre aus dem Umstand sich ständig wandelnder Wissenschaftsdisziplinen sollte eine pragmatisch agierende, bibliothekarische Selbstbescheidung sein und nicht eine Selbstüberhebung über den Wissenschaftsbetreib. Langridge kann, so gesehen, seinem universalen Anspruch gar nicht gerecht werden, weil es die von ihm vermutete göttliche Ordnung des Wissens, die von einem immer in praktischen Zweckzusammenhängen agierenden Wissenschaftsbetrieb unabhängig wäre, in einem ontologischen Sinne wohl kaum gibt. Unstrittig scheint mir hingegen seine wohlbegründete Überlegung, daß ein Indexierer schon bei der Ermittlung zentraler Begriffe eines Dokuments notwendig - in einem rein analytischen, noch nicht bibliothekstechnischen Sinn - Wissen klassifiziert. Die Stärke von Langridge's Modell liegt nun gerade darin, diese klassifikatorische Tätigkeit so transparent wie möglich zu machen. Die genauere Betrachtung der Grundregeln der RSWK hat ergeben, daß sie kein schlüssiges Konzept für die Inhaltsanalyse zu bieten haben. Auch die von Langridge wie der DIN-Norm 31623 geforderte Unabhängigkeit der Inhaltsanalyse von der sich an sie anschließenden Übersetzung ihrer Ergebnisse in eine Dokumentationssprache wird schon im Konzept der RSWK unterlaufen. Die Inhaltsanalyse ist hier ganz entgegen theoretischer Postulate eng verwoben mit der streng geregelten Bildung von Schlagwörtern, was in einigen Fällen eine aus inhaltsanalytischer Sicht angemessene Kurzbeschreibung eines Dokuments fraglich macht.
Bei der Diskussion über Zielgruppen und Weltanschauungen waren es ebenfalls inhaltliche Argumente, die Anlaß zur Kritik an deren mangelhafter Repräsentation in den Schlagwortketten lieferten. Die fehlende Verschlagwortung von Klassikern hingegen machte noch auf ein ganz anderes Problem aufmerksam: die kanonisierende Funktion von Bibliothekskatalogen. Gerade weil die Vorstellung einer Universalbibliothek längst verabschiedet ist, tragen Bibliotheken mit ihren beschränkten Beständen und deren inhaltlicher Erschließung mehr denn je zu einer Kanonisierung des Wissens bei. Daß nun gerade die Klassiker mit Hinweis auf ihre Bekanntheit aus diesem Kanon des Sachkatalogs herausgenommen werden, ist vor allem aus inhaltsanalytischer Sicht absurd. Langridge's Befund einer generell unzureichenden Berücksichtigung von inhaltsanalytischen Gesichtspunkten in gängigen angelsächsischen Klassifikationen wie auch seiner häufig konstatierten Inkompetenz von Indexierem kann ich mit Blick auf die RSWK nur zum Teil zustimmen. Das Problem des "engen Schlagworts" und die Behandlung von Klassikern sollten tatsächlich ganz neu überdacht werden, während gerade die Diskussion über Zielgruppen deutlich machte, daß etwas mehr Kulanz bei der Anwendung schon vorhandener Mittel eine erhebliche Verbesserung für das Regelwerk mit sich brächte. Auch die dritte Auflage der RSWK ist meines Erachtens noch deutlich Problemen und Anforderungen traditioneller, physisch verkörperter Kataloge verpflichtet. Die immer noch fakultativ eingeräumte Permutation von Schlagwortketten verdankt sich einem Denken, das sich in Listenkatalogen, aber gewiß nicht in einer Datenbank bewegt. Ebenso scheint das enge Schlagwort und die oft zu knappe Vergabe beispielsweise von Formschlagwörtern (vgl. die Diskussion zu "Einführung" in 4.3.2.3) zumindest zu einem Teil einer Arbeitsökonomie verpflichtet, die noch bei der aufwendigen Pflege von Zettelkatalogen Sinn machte, wo jeder zusätzliche Eintrag ein zeitraubendes Einlegen von mehr Zetteln erforderte. Angesichts der immer größeren Kapazität von Datenbanken, stellt sich die Frage, ob diese immens erweiterten technischen Möglichkeiten nicht auch Konsequenzen für die künftige intellektuelle Erschließung von Dokumenten haben werden. Inzwischen ist es kein Problem mehr, umfangreiche Eintragungen wie etwa Abstracts auch in Bibliothekskatalogen vollständig zu indexieren, wie dies professionelle Datenbankanbieter längst tun oder gar Inhaltsverzeichnisse und Resümees von Arbeiten vollständig einzuscannen. Inwieweit diese Möglichkeiten die traditionelle intellektuelle Erschließung in Form von Schlagwörtern bzw. Notationen von Klassifikationen obsolet machen oder eben nicht, darüber sollten sich die betroffenen Indexierer verständigen."
- Imprint
- Köln : FH Köln, Fachbereich Bibliotheks- und Informationswesen
-
Langridge, D.W.: Subject analysis : principles and procedures (1989)
0.01
0.005858155 = product of:
0.02343262 = sum of:
0.02343262 = weight(_text_:und in 3021) [ClassicSimilarity], result of:
0.02343262 = score(doc=3021,freq=2.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.17153187 = fieldWeight in 3021, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=3021)
0.25 = coord(1/4)
- Footnote
- Enthält Empfehlungen zur Vorgehensweise bei der Inhaltsanalyse und diskutiert Beispiele // Eine deutsche Übersetzung ist 1994 im Saur Verlag erschienen. - Rez. in: Knowledge organization 20(1993) no.2, S.98-99. (M.P. Satija)
-
Chen, H.; Ng, T.: ¬An algorithmic approach to concept exploration in a large knowledge network (automatic thesaurus consultation) : symbolic branch-and-bound search versus connectionist Hopfield Net Activation (1995)
0.01
0.0050212755 = product of:
0.020085102 = sum of:
0.020085102 = weight(_text_:und in 2271) [ClassicSimilarity], result of:
0.020085102 = score(doc=2271,freq=2.0), product of:
0.13660796 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06159341 = queryNorm
0.14702731 = fieldWeight in 2271, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2271)
0.25 = coord(1/4)
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus