-
O'Neill, E.T.; Chan, L.M.: FAST - a new approach to controlled subject access (2008)
0.05
0.0450427 = product of:
0.1801708 = sum of:
0.1801708 = weight(_text_:headings in 3181) [ClassicSimilarity], result of:
0.1801708 = score(doc=3181,freq=6.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.5571519 = fieldWeight in 3181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=3181)
0.25 = coord(1/4)
- Abstract
- Recent trends, driven to a large extent by the rapid proliferation of digital resources, are forcing changes in bibliographic control to make it easier to use, understand, and apply subject data. Subject headings are no exception. The enormous volume and rapid growth of digital libraries and repositories and the emergence of numerous metadata schemes have spurred a reexamination of the way subject data are to be provided for such resources efficiently and effectively. To address this need, OCLC in cooperation with the Library of Congress, has taken a new approach, called FAST (Faceted Application of Subject Terminology). FAST headings are based on the existing vocabulary in Library of Congress Subject Headings (LCSH), but are applied with a simpler syntax than required by Library of Congress application policies. Adapting the LCSH vocabulary in a simplified faceted syntax retains the rich vocabulary of LCSH while making it easier to understand, control, apply, and use.
-
Yi, K.; Chan, L.M.: ¬A visualization software tool for Library of Congress Subject Headings (2008)
0.05
0.0450427 = product of:
0.1801708 = sum of:
0.1801708 = weight(_text_:headings in 3503) [ClassicSimilarity], result of:
0.1801708 = score(doc=3503,freq=6.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.5571519 = fieldWeight in 3503, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=3503)
0.25 = coord(1/4)
- Content
- The aim of this study is to develop a software tool, VisuaLCSH, for effective searching, browsing, and maintenance of LCSH. This tool enables visualizing subject headings and hierarchical structures implied and embedded in LCSH. A conceptual framework for converting the hierarchical structure of headings in LCSH to an explicit tree structure is proposed, described, and implemented. The highlights of VisuaLCSH are summarized below: 1) revealing multiple aspects of a heading; 2) normalizing the hierarchical relationships in LCSH; 3) showing multi-level hierarchies in LCSH sub-trees; 4) improving the navigational function of LCSH in retrieval; and 5) enabling the implementation of generic search, i.e., the 'exploding' feature, in searching LCSH.
-
Rolla, P.J.: User tags versus Subject headings : can user-supplied data improve subject access to library collections? (2009)
0.05
0.0450427 = product of:
0.1801708 = sum of:
0.1801708 = weight(_text_:headings in 588) [ClassicSimilarity], result of:
0.1801708 = score(doc=588,freq=6.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.5571519 = fieldWeight in 588, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=588)
0.25 = coord(1/4)
- Abstract
- Some members of the library community, including the Library of Congress Working Group on the Future of Bibliographic Control, have suggested that libraries should open up their catalogs to allow users to add descriptive tags to the bibliographic data in catalog records. The web site LibraryThing currently permits its members to add such user tags to its records for books and therefore provides a useful resource to contrast with library bibliographic records. A comparison between the LibraryThing tags for a group of books and the library-supplied subject headings for the same books shows that users and catalogers approach these descriptors very differently. Because of these differences, user tags can enhance subject access to library materials, but they cannot entirely replace controlled vocabularies such as the Library of Congress subject headings.
-
Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004)
0.04
0.04444115 = product of:
0.0888823 = sum of:
0.054208413 = weight(_text_:und in 3789) [ClassicSimilarity], result of:
0.054208413 = score(doc=3789,freq=112.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.36675057 = fieldWeight in 3789, product of:
10.583005 = tf(freq=112.0), with freq of:
112.0 = termFreq=112.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=3789)
0.034673885 = weight(_text_:headings in 3789) [ClassicSimilarity], result of:
0.034673885 = score(doc=3789,freq=2.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.10722393 = fieldWeight in 3789, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.015625 = fieldNorm(doc=3789)
0.5 = coord(2/4)
- Content
- "... unter diesem Motto hat die Deutsche Bücherei Leipzig am 23. März 2004 auf dem Leipziger Kongress für Bibliothek und Information eine Vortragsreihe initiiert. Vorgestellt wurden Projekte, die sich im Spannungsfeld von Standardisierung und Heterogenität der Sacherschließung bewegen. Die Benutzer unserer Bibliotheken und Informationseinrichtungen stehen heute einer Fülle von Informationen gegenüber, die sie aus zahlreichen Katalogen und Fachdatenbanken abfragen können. Diese Recherche kann schnell zeitraubend werden, wenn der Benutzer mit verschiedenen Suchbegriffen und -logiken arbeiten muss, um zur gewünschten Ressource zu gelangen. Ein Schlagwort A kann in jedem der durchsuchten Systeme eine andere Bedeutung annehmen. Homogenität erreicht man klassisch zunächst durch Normierung und Standardisierung. Für die zwei traditionellen Verfahren der inhaltlichen Erschließung - der klassifikatorischen und der verbalen - haben sich in Deutschland verschiedene Standards durchgesetzt. Klassifikatorische Erschließung wird mit ganz unterschiedlichen Systemen betrieben. Verbreitet sind etwa die Regensburger Verbundklassifikation (RVK) oder die Basisklassifikation (BK). Von Spezial- und Facheinrichtungen werden entsprechende Fachklassifikationen eingesetzt. Weltweit am häufigsten angewandt ist die Dewey Decimal Classification (DDC), die seit 2003 ins Deutsche übertragen wird. Im Bereich der verbalen Sacherschließung haben sich, vor allem bei den wissenschaftlichen Universalbibliotheken, die Regeln für den Schlagwortkatalog (RSWK) durchgesetzt, durch die zugleich die Schlagwortnormdatei (SWD) kooperativ aufgebaut wurde. Daneben erschließen wiederum viele Spezial- und Facheinrichtungen mit selbst entwickelten Fachthesauri.
Neben die Pflege der Standards tritt als Herausforderung die Vernetzung der Systeme, um heterogene Dokumentenbestände zu verbinden. »Standardisierung muss von der verbleibenden Heterogenität her gedacht werden«." Diese Aufgaben können nur in Kooperation von Bibliotheken und Informationseinrichtungen gelöst werden. Die vorgestellten Projekte zeigen, wie dies gelingen kann. Sie verfolgen alle das Ziel, Informationen über Inhalte schneller und besser für die Nutzer zur Verfügung zu stellen. Fachliche Recherchen über mehrere Informationsanbieter werden durch die Heterogenität überwindende Suchdienste ermöglicht. Die Einführung der DDC im deutschen Sprachraum steht genau im Kern des Spannungsfeldes. Die DDC stellt durch ihren universalen Charakter nicht nur einen übergreifenden Standard her. Ihre Anwendung ist nur nutzbringend, wenn zugleich die Vernetzung mit den in Deutschland bewährten Klassifikationen und Thesauri erfolgt. Ziel des Projektes DDC Deutsch ist nicht nur eine Übersetzung ins Deutsche, die DDC soll auch in Form elektronischer Dienste zur Verfügung gestellt werden. Dr. Lars Svensson, Deutsche Bibliothek Frankfurt am Main, präsentierte anschaulichdie Möglichkeiten einer intelligenten Navigation über die DDC. Für die Dokumentenbestände Der Deutschen Bibliothek, des Gemeinsamen Bibliotheksverbundes (GBV) und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen wurde prototypisch ein Webservice realisiert.
Dieses DDC-Tool ermöglicht den Zugriff auf lokale, mit DDC-erschlossene Titeldaten. Für einige bereits übersetzte DDC-Klassen kann mithilfe eines Browsers gearbeitet werden. Auch die gezielte verbale Suche nach DDC-Elementen ist möglich. Die Frage nach Aspekten, wie z. B. geografischen, soll durch getrennte Ablage der Notationselemente in den Titeldatensätzen ermöglicht werden. Schließlich lassen sich künftig auch integrierte Suchen über DDC und SWD oder andere Erschließungssysteme denken, um Literatur zu einem Thema zu finden. Das von Lars Svensson vorgestellte Retrieval-Interface bietet eine zentrale Lösung: nicht für jeden lokalen OPAC müssen eigene Suchstrukturen entwickelt werden, um auf DDC-Daten zugreifen zu können. Wie Datenbestände mit verschiedenen Erschließungen unter einer Oberfläche zusammengeführt werden und dabei die DDC als Meta-Ebene genutzt wird, das ist heute schon im Subject Gateway Renardus sichtbar." Der Renardus-Broker ermöglicht das Cross-Browsen und Cross-Searchen über verteilte Internetquellen in Europa. Für die Navigation über die DDC mussten zunächst Crosswalks zwischen den lokalen Klassifikationsklassen und der DDC erstellt werden. Das an der Universitätsbibliothek Regensburg entwickelte Tool CarmenX wurde dazu von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen weiterentwickelt und ermöglicht den Zugriff auf die ver schiedenen Klassifikationssysteme. Über diese Entwicklungen berichtete Dr. Friedrich Geißelmann, Universitäsbibliothek Regensburg. Er leitete das CARMEN-Teilprojekt »Grosskonkordanzen zwischen Thesauri und Klassifikationen«, in dem das Werkzeug CarmenX entstand. In diesem CARMEN-Arbeitspaket erfolgten sowohl grundlegende methodische Untersuchungen zu Crosskonkordanzen als auch prototypische Umsetzungen in den Fachgebieten Mathematik, Physik und Sozialwissenschaften. Ziel war es, bei Recherchen in verteilten Datenbanken mit unterschiedlichen Klassifikationen und Thesauri von einem vertrauten System auszugehen und in weitere wechseln zu können, ohne genaue Kenntnis von den Systemen haben zu müssen. So wurden z. B. im Bereich Crosskonkordanzen zwischen Allgemein- und Fachklassifikationen die RVK und die Mathematical Subject Classification (MSC) und Physics and Astronomy Classification Scheme (PACS) ausgewählt.
Es wurden immer zwei Klassifikationen aufeinander abgebildet und die jeweiligen Klassen (Notationen) miteinander verknüpft. Friedrich Geißelmann unterstrich die Notwendigkeit weiterer Crosswalks für die integrierte, insbesondere fachübergreifende Suche, wie sie im Internetportal vascoda angeboten wird. Stefan Jakowatz, Informationszentrum Sozialwissenschaften (IZ) Bonn, informierte über die Arbeiten des IZ im Bereich der Heterogenitätsbehandlung. Er stellte die in CARMEN erarbeiteten Crosskonkordanzen im Bereich Thesauri vor. Hier wurden Crosskonkordanzen zwischen der SWD, dem Thesaurus Sozialwissenschaften des IZ und der Schlagwortliste des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF) erstellt. Begriffe aus der Soziologie, Methoden der Sozialforschung, Politikwissenschaft und Bildungsforschung bildeten das Basismaterial. Zusätzlich liegen inzwischen am IZ Verknüpfungen zum Psyndex-Thesaurus und zum Thesaurus der Sociological Abstracts (CSA) vor. Transferkomponenten wurden am IZ Sozialwissenschaften nicht nur durch intellektuell erstellte Crosskonkordanzen, sondern auch mittels quantitativ-statistischer Analysen von Titeldaten geschaffen. Eingesetzt werden diese in der Metasuche der virtuellen Fachbibliothek VibSoz. Dort erfolgt die Suche nach sozialwissenschaftlicher Literatur über die Kernbestände von fünf verschiedenen Bibliotheken und Fachdatenbanken. Die Suchanfragen werden automatisch in die jeweils andere Terminologie übersetzt und führen die Treffer in einer integrierten Liste zusammen. Ähnlich arbeiten die Transfermodule in infoconnex", dem Fachinformationsverbund für Pädagogik, Sozialwissenschaften und Psychologie. Auch hier wird durch die Crosskonkordanzen eine effiziente fachübergreifende Recherche angeboten.
Katja Heyke, Universitäts- und Stadtbibliothek Köln, und Manfred Faden, Bibliothek des HWWA-Instituts für Wirtschaftsforschung Hamburg, stellten ähnliche Entwicklungen für den Fachbereich Wirtschaftswissenschaften vor. Hier wird eine Crosskonkordanz zwischen dem Standard Thesaurus Wirtschaft (STW) und dem Bereich Wirtschaft der SWD aufgebaut." Diese Datenbank soll den Zugriff auf die mit STW und SWD erschlossenen Bestände ermöglichen. Sie wird dazu weitergegeben an die virtuelle Fachbibliothek EconBiz und an den Gemeinsamen Bibliotheksverbund. Die Crosskonkordanz Wirtschaft bietet aber auch die Chance zur kooperativen Sacherschließung, denn sie eröffnet die Möglichkeit der gegenseitigen Übernahme von Sacherschließungsdaten zwischen den Partnern Die Deutsche Bibliothek, Universitäts- und Stadtbibliothek Köln, HWWA und Bibliothek des Instituts für Weltwirtschaft Kiel. Am Beispiel der Wirtschaftswissenschaften zeigt sich der Gewinn solcher KonkordanzProjekte für Indexierer und Benutzer. Der Austausch über die Erschließungsregeln und die systematische Analyse der Normdaten führen zur Bereinigung von fachlichen Schwachstellen und Inkonsistenzen in den Systemen. Die Thesauri werden insgesamt verbessert und sogar angenähert. Die Vortragsreihe schloss mit einem Projekt, das die Heterogenität der Daten aus dem Blickwinkel der Mehrsprachigkeit betrachtet. Martin Kunz, Deutsche Bibliothek Frankfurt am Main, informierte über das Projekt MACS (Multilingual Access to Subject Headings). MACS bietet einen mehrsprachigen Zugriff auf Bibliothekskataloge. Dazu wurde eine Verbindung zwischen den Schlagwortnormdateien LCSH, RAMEAU und SWD erarbeitet. Äquivalente Vorzugsbezeichnungen der Normdateien werden intellektuell nachgewiesen und als Link abgelegt. Das Projekt beschränkte sich zunächst auf die Bereiche Sport und Theater und widmet sich in einer nächsten Stufe den am häufigsten verwendeten Schlagwörtern. MACS geht davon aus, dass ein Benutzer in der Sprache seiner Wahl (Deutsch, Englisch, Französisch) eine Schlagwortsuche startet, und ermöglicht ihm, seine Suche auf die affilierten Datenbanken im Ausland auszudehnen. Martin Kunz plädierte für einen Integrationsansatz, der auf dem gegenseitigen Respekt vor der Terminologie der kooperierenden Partner beruht. Er sprach sich dafür aus, in solchen Vorhaben den Begriff der Thesaurus föderation anzuwenden, der die Autonomie der Thesauri unterstreicht.
Wie kann man den Suchenden einen einheitlichen Zugriff auf Inhalte bieten, ganz gleich, in welchem System und mit welcher Methode sie erschlossen sind? Diese Frage hat die Vortragsreihe in unterschiedlichen Ansätzen untersucht. Die bewährten Orientierungssysteme sind für den Zugriff der Benutzer auf verteilte und auch fachübergreifende Bestände nicht mehr ausreichend. Einheitliche und einfache Zugänge zu Informationen in der Onlinewelt erfordern die Integration der vorhandenen Klassifikationen und Thesauri. Solche Transferkomponenten können die verschiedenen Schalen der Inhaltserschließung - verschiedene Erschließungsqualitäten und -niveaus - zusammenführen. Sie helfen Konsistenzbrüche auszugleichen und unsere Erschließungsdaten optimal anzubieten."
-
Kim, W.; Wilbur, W.J.: Corpus-based statistical screening for content-bearing terms (2001)
0.04
0.044009883 = product of:
0.17603953 = sum of:
0.17603953 = weight(_text_:judge in 188) [ClassicSimilarity], result of:
0.17603953 = score(doc=188,freq=2.0), product of:
0.5152282 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06664293 = queryNorm
0.34167293 = fieldWeight in 188, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.03125 = fieldNorm(doc=188)
0.25 = coord(1/4)
- Abstract
- Kim and Wilber present three techniques for the algorithmic identification in text of content bearing terms and phrases intended for human use as entry points or hyperlinks. Using a set of 1,075 terms from MEDLINE evaluated on a zero to four, stop word to definite content word scale, they evaluate the ranked lists of their three methods based on their placement of content words in the top ranks. Data consist of the natural language elements of 304,057 MEDLINE records from 1996, and 173,252 Wall Street Journal records from the TIPSTER collection. Phrases are extracted by breaking at punctuation marks and stop words, normalized by lower casing, replacement of nonalphanumerics with spaces, and the reduction of multiple spaces. In the ``strength of context'' approach each document is a vector of binary values for each word or word pair. The words or word pairs are removed from all documents, and the Robertson, Spark Jones relevance weight for each term computed, negative weights replaced with zero, those below a randomness threshold ignored, and the remainder summed for each document, to yield a score for the document and finally to assign to the term the average document score for documents in which it occurred. The average of these word scores is assigned to the original phrase. The ``frequency clumping'' approach defines a random phrase as one whose distribution among documents is Poisson in character. A pvalue, the probability that a phrase frequency of occurrence would be equal to, or less than, Poisson expectations is computed, and a score assigned which is the negative log of that value. In the ``database comparison'' approach if a phrase occurring in a document allows prediction that the document is in MEDLINE rather that in the Wall Street Journal, it is considered to be content bearing for MEDLINE. The score is computed by dividing the number of occurrences of the term in MEDLINE by occurrences in the Journal, and taking the product of all these values. The one hundred top and bottom ranked phrases that occurred in at least 500 documents were collected for each method. The union set had 476 phrases. A second selection was made of two word phrases occurring each in only three documents with a union of 599 phrases. A judge then ranked the two sets of terms as to subject specificity on a 0 to 4 scale. Precision was the average subject specificity of the first r ranks and recall the fraction of the subject specific phrases in the first r ranks and eleven point average precision was used as a summary measure. The three methods all move content bearing terms forward in the lists as does the use of the sum of the logs of the three methods.
-
White, H.D.: Relevance in theory (2009)
0.04
0.044009883 = product of:
0.17603953 = sum of:
0.17603953 = weight(_text_:judge in 859) [ClassicSimilarity], result of:
0.17603953 = score(doc=859,freq=2.0), product of:
0.5152282 = queryWeight, product of:
7.731176 = idf(docFreq=52, maxDocs=44421)
0.06664293 = queryNorm
0.34167293 = fieldWeight in 859, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.731176 = idf(docFreq=52, maxDocs=44421)
0.03125 = fieldNorm(doc=859)
0.25 = coord(1/4)
- Abstract
- Relevance is the central concept in information science because of its salience in designing and evaluating literature-based answering systems. It is salient when users seek information through human intermediaries, such as reference librarians, but becomes even more so when systems are automated and users must navigate them on their own. Designers of classic precomputer systems of the nineteenth and twentieth centuries appear to have been no less concerned with relevance than the information scientists of today. The concept has, however, proved difficult to define and operationalize. A common belief is that it is a relation between a user's request for information and the documents the system retrieves in response. Documents might be considered retrieval-worthy because they: 1) constitute evidence for or against a claim; 2) answer a question; or 3) simply match the request in topic. In practice, literature-based answering makes use of term-matching technology, and most evaluation of relevance has involved topical match as the primary criterion for acceptability. The standard table for evaluating the relation of retrieved documents to a request has only the values "relevant" and "not relevant," yet many analysts hold that relevance admits of degrees. Moreover, many analysts hold that users decide relevance on more dimensions than topical match. Who then can validly judge relevance? Is it only the person who put the request and who can evaluate a document on multiple dimensions? Or can surrogate judges perform this function on the basis of topicality? Such questions arise in a longstanding debate on whether relevance is objective or subjective. One proposal has been to reframe the debate in terms of relevance theory (imported from linguistic pragmatics), which makes relevance increase with a document's valuable cognitive effects and decrease with the effort needed to process it. This notion allows degree of topical match to contribute to relevance but allows other considerations to contribute as well. Since both cognitive effects and processing effort will differ across users, they can be taken as subjective, but users' decisions can also be objectively evaluated if the logic behind them is made explicit. Relevance seems problematical because the considerations that lead people to accept documents in literature searches, or to use them later in contexts such as citation, are seldom fully revealed. Once they are revealed, relevance may be seen as not only multidimensional and dynamic, but also understandable.
-
Plieninger, J.: Vermischtes und noch mehr ... : Ein Essay über die (vergebliche) Nutzung bibliothekarischer Erschließungssysteme in der neuen digitalen Ordnung (2007)
0.04
0.04385101 = product of:
0.08770202 = sum of:
0.04435967 = weight(_text_:und in 1680) [ClassicSimilarity], result of:
0.04435967 = score(doc=1680,freq=48.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.30011827 = fieldWeight in 1680, product of:
6.928203 = tf(freq=48.0), with freq of:
48.0 = termFreq=48.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1680)
0.043342356 = weight(_text_:headings in 1680) [ClassicSimilarity], result of:
0.043342356 = score(doc=1680,freq=2.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.13402991 = fieldWeight in 1680, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.01953125 = fieldNorm(doc=1680)
0.5 = coord(2/4)
- Content
- "Dass dieses Buch den Bibliothekaren gewidmet ist, stimmt tröstlich. Denn auf den Punkt gebracht, bedeutet sein Inhalt für unseren Berufsstand: Es kommt nicht mehr auf Euch an! Die Kernthese, die der Autor, ein bekannter Publizist zum Internet und Mitglied einer Harvard-Institution, in diesem Essay überaus anregend und mit vielen Beispielen gespickt ausführt, lautet: Dem Informationsüberfluss durch elektronische Dokumente kann nur noch durch noch mehr Information begegnet werden. Die Erschließung elektronischer Dokumente durch die Benutzer mithilfe von Metadaten und so genannten Tags (freie Verschlagwortung, also nicht standardisierte Metadaten) führt zu einer Überlagerung mit der systematischen Erschließung, für die der bibliothekarische Berufsstand steht. Diese Art der Erschließung wird in der gegenwärtigen Diskussion über Web 2.0 Folksonomy genannt. Nur so, schreibt David Weinberger, können die elektronischen Dokumente vielfältig und vieldeutig erschlossen werden, nach Gesichtspunkten, die vielleicht für viele, vielleicht auch nur für einige relevant sind. Aber auf jeden Fall vielfältiger und zukunftssicherer, als dies durch bibliothekarische Erschließung möglich wäre. Sagenhafte Zuwachsraten Der Autor entwickelt seine Argumente anhand von Beispielen aus vielen Bereichen. Besonders eindrücklich ist seine Schilderung von Fotoarchiven. Er beschreibt das Buttmann-Archiv, eine umfangreiche historische Fotosammlung in den USA, das durch Zettelkataloge erschlossen ist. Hier ist eine Recherche, die von Fachpersonal durchgeführt werden muss, langwierig, und die Erschließung wurde den vielfältigen Bezügen der Darstellungen auf den Fotos nicht gerecht.
Dann berichtet er über Corbis, ein elektronisches Fotoarchiv, dessen Fotos von professionellen Sachkatalogisierern breit verschlagwortet werden. Und jedermann kann unter www.corbis.com im Bestand des Archivs recherchieren. Als Beispiel für die neue digitale Ordnung stellt er Flickr (www.flickr.com) vor, das einen ungleich größeren Bestand als die beiden anderen Archive mit sagenhaften Zuwachsraten hat. Dort können die Benutzer selbst Fotos hoch laden, Schlagworte (Tags) vergeben und Beschreibungen hinzufügen, anhand derer dann die Recherche erfolgt. Andere Benutzer haben die Möglichkeit, ihrerseits zu allen Bildern jederzeit Kommentare abzugeben. In Flickr gibt es keine Kategorien mehr, alles ist vermischt (eben »miscellaneous«), aber durch die Tags erschlossen. Freie Verschlagwortung? Weinberger führt sehr eindringlich aus, dass durch die elektronische Speicherung und die Erschließung durch Metadaten Erschließungssysteme wie Systematiken und kontrollierte Vokabulare obsolet werden, da sich diese noch am knappen Platz auf den Karteikarten der Zettelkataloge oder an der zweidimensionalen Darstellung auf dem Papier orientieren. Dies erlaube lediglich eine Anordnung in Baumstruktur und somit Entscheidungen für den einen oder anderen systematischen Platz. Computer könnten hingegen vielfältige Zuordnungen vornehmen, bräuchten keine Systematik mit ihren »Entweder hier/ oder da!«-Zuordnungen, da man jedem elektronischen Text-/Bild-/Tondokument Metadaten hinzufügen könne, die eine vielfältige Erschließung und freie Zuordnungen möglich machen. Das ist eine Zumutung für einen Berufsstand, der für eine kontrollierte, strukturierte Erschließung und damit Qualität steht. Jede/r soll frei verschlagworten können? Gibt es dann nicht ein großes Kuddelmuddel der verschiedenen Schreibformen, der Vermischung von Bedeutungen, beispielsweise bei Homonymen? Es gibt! Aber Weinberger beschreibt sehr anschaulich, wie Computer zunehmend hier unterschiedliche Bedeutungen auseinanderdividieren und unterschiedliche Benennungen zusammenführen können.
Katalog 2.0 Und wir stehen erst am Anfang der Entwicklung, denn man erschrickt, wie kurz erst die »Erfindung« von Tags durch den Gründer des sozialen Bookmarkdienstes Delicious (http://del.icio.us), Joshua Schachter, her ist. Uns wird hier ein Lernprozess abverlangt. Wer beispielsweise seine Bookmarks mithilfe eines sozialen Bookmarkdienstes wie Delicious, Furl (www.furl.net) oder Mr. Wong (www.mister-wong.de) verwaltet, wird zunächst einmal sehr verunsichert sein, die Links nicht in Schubladen zu haben, sondern mithilfe von Tags zu verwalten und zu suchen. Der Rezensent kann sich noch erinnern, wie erleichtert er war, dass Delicious sogenannte Bundles anbietet, doch wieder Schubladen, in denen man die Tags grob gliedern kann. Das stellt sich leider nicht immer als besonders sinnvoll heraus... Wahrscheinlich wird immer wieder die Qualität als Gegenargument ins Feld geführt werden. Die F.A.Z. hat sich über das Buch ziemlich lustig gemacht und auf die wenig qualitätvolle Arbeit von Reader-Editoren und von der Banalität der hoch gerankten Nachrichten bei Digg (www.digg.com) verwiesen. Diese Kritik hat schon ihre Berechtigung, aber auch bei anderen sozialen Diensten wie den Weblogs war es so, dass anfangs Banalität herrschte und jetzt mehr und mehr Fachblogs qualitativ höherwertigen Inhalt bieten. Wenn einmal die Experten die Potenz der Erschließung durch Metatags entdecken, wird die Qualität ansteigen. Das heißt nicht, dass kontrollierte Vokabulare wie die Medical Subject Headings oder RSWK bedeutungslos werden, sie werden aber durch die Verschlagwortung der Nutzer notwendigerweise ergänzt werden müssen, weil sich der Mehrwert dieser Nutzererschließung zeigen wird. Solches wird unter dem Stichwort Katalog 2.0 bereits diskutiert, und es existieren auch schon einige Beispiele dafür.
Kontrolle aufgeben Es gibt noch weitere Aspekte dieses Buches, die überaus bedenkenswert sind. Über das Wissensmanagement beispielsweise, die Schwierigkeit implizites Wissen explizit zu machen. Der Gedanke auch, dass Wissen vor allem in der Kommunikation, im Gespräch erarbeitet wird, während unsere ganze Bildungskonzeption immer noch von dem Bild ausgeht, dass Wissen etwas sei, was jeder Einzelne in seinen Kopf trichtert. Weinberger benutzt als Beispiel die Schulkinder, die schon längst kollektiv Hausaufgaben machen, indem neben dem Erledigen der Aufgaben her zwei oder drei Chatfenster offen sind und die Lösungswege gemeinsam erarbeitet werden. Gibt es einen Trost für die Bibliothekare? Nach diesem Buch nicht. Prof. Hans-Christoph Hobohm bezweifelt aber in einer Besprechung des Buches im Weblog LIS der FH Potsdam (http://tinyurl.com/ywb8ld), dass es sich um einen Paradigmenwechsel handelt. Aber auch wenn die Zukunft von Bibliotheken im Buch nicht explizit erörtert wird: Zum Schluss behandelt der Autor anhand mehrerer Beispiele die Wirtschaft, die unter diesen Rahmenbedingungen ihr Marketing umstellen müsse: Nur wer seine Kontrolle über die Information aufgebe, könne unter den wechselnden Rahmenbedingungen wieder an Reputation, an Wert gewinnen. Wer sie festzuhalten versucht, verliere notwendigerweise die Kunden! Das lässt sich eins zu eins auf die Bibliotheken übertragen: Nur wer seine Informationen freigibt und die Benutzer (auch) erschließen lässt, wird Erfolg haben. Also muss man in Richtung Katalog 2.0 denken oder beispielsweise an die Zugänglichmachung von RSS-Feeds bestimmter Medien (in Öffentlichen Bibliotheken) oder Zeitschriftenin halten (in wissenschaftlichen Bibliotheken)."
-
Altenhöner, R.; Gömpel, R.; Jahns, Y.; Junger, U.; Mahnke, C.; Meyer, A.; Oehlschläger, S.: Weltkongress Bibliothek und Information 75. IFLA-Generalkonferenz in Mailand, Italien : Aus den Veranstaltungen der Division IV Bibliographic Control und ihren Sektionen und der Arbeitsgruppe für die Informationsgesellschaft (2009)
0.04
0.043384016 = product of:
0.08676803 = sum of:
0.04342568 = weight(_text_:und in 134) [ClassicSimilarity], result of:
0.04342568 = score(doc=134,freq=46.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.29379928 = fieldWeight in 134, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=134)
0.043342356 = weight(_text_:headings in 134) [ClassicSimilarity], result of:
0.043342356 = score(doc=134,freq=2.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.13402991 = fieldWeight in 134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.01953125 = fieldNorm(doc=134)
0.5 = coord(2/4)
- Content
- Darin: - Division IV Bibliographic Control (S.1003-1004) Das Open Programme der Division IV hat sich dieses Mal auf "New bibliographic control principles and guidelines" konzentriert und dabei die erfolgreiche Entwicklung mehrerer Standards gewürdigt. Barbara Tillett konnte mit den Teilnehmern "Mission accomplished - the new IFLA International Cataloguing Principles" feiern. In den Jahren 2003 bis 2007 haben im Vorfeld der jährlichen IFLA-Konferenzen die IFLA Meetings of Experts on an International Cataloguing Code (IME ICC) stattgefunden. Ziel dieser Konferenzen war es, neue internationale Katalogisierungsprinzipien zu entwickeln, die die Paris Principles aus dem Jahr 1961 ablösen. Im Mittelpunkt der Erschließung sollte dabei die Orientierung an den Bedürfnissen der Nutzer stehen. Die innerhalb der IFLA erarbeiteten Modelle der "Functional Requirements for Bibliographic Records" (FRBR) und der "Functional Requirements for Authority Data" (FRAD) wurden dabei zugrundegelegt. Im Frühsommer 2009 wurde das neue Statement of International Cataloguing Principles (ICP) und das dazugehörige Glossar in insgesamt 20 Sprachen (darunter auch deutsch) auf der IFLA-Website veröffentlicht. Eine gedruckte Publikation, die darüber hinaus auch einen Bericht über die Entstehungsgeschichte der ICP enthält, wurde im Sommer veröffentlicht. Maja Zumer (University of Ljubljana) hat in ihrem Beitrag "National bibliographies in the digital age: guidance and new directions" die Ergebnisse der von ihr geleiteten "Working group on National Bibliographies in the Digital Age" vorgestellt.
Die Arbeitsgruppe hat nach erfolgreicher Arbeit Richtlinien für Nationalbibliografien vorgelegt, die sich an den neuen Nutzeranforderungen und nach den Erfordernissen einer digitalen Umgebung ausrichten und damit sowohl den konventionellen als auch den - nicht mehr ganz so - neuen Medien gerecht werden. "From FRBR to FRAD: Extending the model" war der Titel des Vortrags von Glenn Patton (OCLC), der über die Arbeit der IFLA Working Group on Functional Requirements and Numbering of Authority Records (FRANAR) berichtete. Die Aufgabe der Arbeitsgruppe bestand darin, das Modell der FRBR auf Normdaten auszuweiten. Das Ergebnis, die FRAD, ist kürzlich in gedruckter Form erschienen. Die Inhalte dieses konzeptionellen Modells für Normdaten sind bereits als Grundlagen im Statement of International Cataloguing Principles sowie dem neuen Regelwerk Resource Description and Access (RDA) enthalten. Den Abschluss der Veranstaltung bildete der Beitrag "Guidelines for Multilingual Thesauri: a new contribution to multilingual access and retrieval standards" von Patrice Landry (Schweizer Nationalbibliothek), der von 2006 bis 2008 die Working Group on Guidelines for Multilingual Thesauri leitete. In dem Vortrag wurden die Entstehungsgeschichte sowie die wichtigsten Inhalte der Publikation vorgestellt, die 2009 in der Serie der IFLA Professional Reports veröffentlicht wurde. Damit wurden in diesem Jahr insgesamt vier wichtige IFLA-Publikationen publiziert, die aus der Arbeit der Division und ihrer Sektionen entstanden sind. An dieser Stelle sei darauf hingewiesen, dass alle diese in Printform erschienen IFLA-Richtlinien oder Empfehlungen nach etwa sechs Monaten auch frei im IFLAnet verfügbar sein werden.
- Cataloguing Section (Sektion Katalogisierung) (S.1007-1010) . . . Pat Riva (Bibliotheque et Archives nationales du Quebec) leitet die FRBR Review Group. Diese Gruppe pflegt u.a. eine umfangreiche Bibliografie zum Thema FRBR Im Herbst 2008 wurde der Entwurf des FRBR Namespace in der sog. NDSL-Sandbox" erstellt. Noch offen ist derzeit, wie die Deklaration der Entität "Familie" aus den FRAD aussehen soll. Diese ist aus Gründen der Logik Bestandteil der Gruppe 2 und bereits im ICP und den RDA verankert. Allerdings ist sie nicht ausdrückIich in den FRBR definiert. Nachdem die Ergebnisse aus den Arbeitsgruppen zu Functional Requirements for Authority Data (FRAD) und Functional Requirements for Subject Authority Data (FRSAD) vorliegen, soll nun die Verantwortlichkeit für die Gesamtheit der Modelle an die FRBR Review Group übergehen. Die FRBR Review Group hat zwei Arbeitsgruppen, die Working Group on Aggregates, die von Ed O'Neill (OCLC) geleitet wird, und die Working Group on FRBR/CRM dialogue, die von Patrick Le Boeuf (Bibliotheque nationale de France) und Martin Dörr (für CIDOC CRM) gemeinsam geleitet wird. Als Ergebnis der letztgenannten Gruppe wurde auf der Website von CIDOC CRM die Version 1.0 der "FRBRoo", der objektorientierten Umsetzung der FRBR, veröffentlicht.
- Classification and Indexing Section (Sektion Klassifikation und Indexierung) (S.1010-1012) . . . "FRBRisierung" der bibliografischen Daten - klare Erkennbarkeit einzelner Werke und ihrer Ausgaben - mit übersichtlichen Angaben zum Inhalt einschließlich direkter Zugänge zu Inhaltsverzeichnissen sowie semantische Navigation sind nur einige Stichworte in diesem Kontext. Interessant dürfte hier der neue OCLC-Ansatz der Work Pages in WorldCat sein. Erschließungsdaten werden so aufbereitet, dass sie üblichen Webangeboten und Suchgewohnheiten folgen, und so aggregiert, dass sie Nutzern einen raschen Überblick über Inhalte von Werken geben. Apropos Nutzer: der Hype des Social Taggings scheint vorbei, jedenfalls ist klar, dass von Nutzern selbst erstellte Daten kein Ersatz für bibliothekarische Erschließung sind. Verschiedene Umfragen und Untersuchungen zeigen, dass Nutzern die wirklich thematische Auswertung von Publikationen viel zu aufwändig ist. Sie zeigen andererseits aber auch, welche Suchgewohnheiten von Katalogen unterstützt werden sollten, z.B. das Recherchieren nach Abkürzungen oder nach Genres. Aufgrund dieser vielfältigen Beiträge im Vorfeld des Weltkongresses fiel das diesjährige Sektionsprogramm in Mailand etwas kürzer aus. Wie bereits in Florenz anschaulich und fundiert von italienischen Kollegen vorgetragen, ging es zum einen um das neue Katalogisierungsregelwerk REICAT, Regole italiane di catalogazione, sowie den neuen Universalthesaurus Nouvo Soggettario. Federica Paradisi (Biblioteca Nazionale Centrale di Firenze) stellte die Entwicklung der italienischen Sacherschließungswerkzeuge einschließlich der italienischen DDC vor. Zum anderen präsentierten Marcia Zeng (Kent State University) und Maja Zumer (University of Ljubljana) den Entwurf der FRSAD - funktionelle Anforderungen an thematische Normdaten" Bei diesem Modell handelt es sich um ein weiteres Glied in der FRBR-Familie, das eine international gültige Normdatenstruktur für alle Daten bereithält, die Themen eines Werkes beschreiben. Die Arbeitsgruppe der Sektion hat dazu im Juni den Modellentwurf zur internationalen Stellungnahme ins Netz gestellt. Während des Weltkongresses arbeiteten die Mitglieder an den zahlreich eingegangenen Kommentaren. Eine revidierte Fassung kann im November 2009 erwartet werden.
Zu einem Muss für die Sektionsmitglieder gehörte in Mailand auch wieder das DDC translators meeting, dass sich immer mehr zu einem DDC-Anwendertreffen bzw. zu einem weiteren Vortragspanel für Sacherschließer entwickelt. Neben einem Vortrag von Marie Balikova (Národni knihovna Praha) über den tschechischen Ansatz, UDC und DDC mit Conspectus Level zu verbinden, gab es von OCLC Berichte über die Entwicklung einer neuen WebDewey-Anwendung sowie zum Update des Services, der allen Bibliotheken weltweit eine unkomplzierte Datenübernahme ermöglichst, und der neuerdings auch FAST Subject Headings anzeigt.
-
Buizza, P.; Guerrini, M.: ¬Un modello concettuale per il nuovo Soggettario : l'indicizzazione per soggetto alla luce di FRBR (2001)
0.04
0.043342356 = product of:
0.17336942 = sum of:
0.17336942 = weight(_text_:headings in 4738) [ClassicSimilarity], result of:
0.17336942 = score(doc=4738,freq=2.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.53611964 = fieldWeight in 4738, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.078125 = fieldNorm(doc=4738)
0.25 = coord(1/4)
- Footnote
- Übers. des Titels: A conceptual model for the new BNCF subject headings: subject indexing in the light of FRBR
-
Quijano-Solís, A.; Moreno-Jiménex, P.M.; Figueroa-Servín, R.: Automated authority files of Spanish-language subject headings (2000)
0.04
0.043342356 = product of:
0.17336942 = sum of:
0.17336942 = weight(_text_:headings in 6922) [ClassicSimilarity], result of:
0.17336942 = score(doc=6922,freq=8.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.53611964 = fieldWeight in 6922, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=6922)
0.25 = coord(1/4)
- Abstract
- Authority control of Spanish-language subject headings is described, with a special focus on Mexico. Efforts currently underway in Colombia, Chile, Spain and Mexico, although they share the same language, are somewhat lacking in standardization and cooperation among countries. In the absence of a national authority for bibliographic control in Mexico, a group of university libraries has initiated a cooperative project to build in the near future a national file of Spanish subject headings for the Social Sciences. The project, based upon the experience and rich collections of El Colegio de Mexico, has attracted support from the U.S. Library of Congress and is being partially financed by the U.S.-Mexican Fund for Culture (sponsored by the Rockefeller and Bancomer Foundations). The paper mentions some of the difficulties found in translating LCSH, which is the main resource for the project. These difficulties can include semantics, syndetic structure, or pragmatic problems; most have been solved by supplementing the LCSH with Spanish-language subject heading lists or thesauri
- Source
- The LCSH century: one hundred years with the Library of Congress Subject Headings system. Ed.: A.T.Stone
-
Heijligers, T.; Pineda, I. de; Kasparova, N.T.; Rinn, R.; Tillett, B.; Witt, M.: Structures of corporate name headings : final report of the Working Group on the Revision of FSCH (IFLA Section on Cataloguing) (2001)
0.04
0.043342356 = product of:
0.17336942 = sum of:
0.17336942 = weight(_text_:headings in 1520) [ClassicSimilarity], result of:
0.17336942 = score(doc=1520,freq=2.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.53611964 = fieldWeight in 1520, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.078125 = fieldNorm(doc=1520)
0.25 = coord(1/4)
-
Olson, T.: Integrating LCSH and MeSH in information systems (2003)
0.04
0.043342356 = product of:
0.17336942 = sum of:
0.17336942 = weight(_text_:headings in 4956) [ClassicSimilarity], result of:
0.17336942 = score(doc=4956,freq=8.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.53611964 = fieldWeight in 4956, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=4956)
0.25 = coord(1/4)
- Abstract
- The Library of Congress Subject Headings system, and the National Library of Medicine's Medical Subject Headings thesaurus have been mapped. The mapping data have been entered into 7XX fields of USMARC authority records. The data continue to be updated as subject headings are added, deleted, or changed in information languages. lt is planned to distribute the mapping data in both MARC and non-MARC formats to libraries, vendors, bibliographic utilities and other developers of information systems.
- Content
- "1. The LCSH/MeSH Mapping Project The problems that are created when two or more information languages reside in the same system have been widely studied. Most of the solutions to these problems involve the integration or harmonization of the languages (Maniez, 1997). One method for integrating multiple information languages in library catalogues and other databases is to map terms in each language to corresponding terms in the other languages (Mandel, 1987). This is the approach taken by the Northwestem University libraries in a project to map the Library of Congress Subject Heading (LCSH) system to the National Library of Medicine's Medical Subject Headings (MeSH) thesaurus. The mapping project was begun in 1990 and continues at the present time. The project was divided into two phases: (1) a retrospective phase that mapped LCSH as it existed an April 14, 1990 and the 1989 MeSH; and (2) an ongoing phase during which the mapping data have been updated to take into account additions, deletions and changes to the two information languages."
-
Hsieh-Yee, I.: Organizing audiovisual and electronic resources for access : a cataloging guide (2006)
0.04
0.043342356 = product of:
0.17336942 = sum of:
0.17336942 = weight(_text_:headings in 5600) [ClassicSimilarity], result of:
0.17336942 = score(doc=5600,freq=2.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.53611964 = fieldWeight in 5600, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.078125 = fieldNorm(doc=5600)
0.25 = coord(1/4)
- Abstract
- The definitive guide to performing descriptive cataloguing and subject analysis an audiovisual and multimedia resources using AACR2r, MARC, LC subject headings, classification schemes, and other guidelines accepted by the cataloguing community.
-
Ostrove, G.E.: Music subject cataloging and form/genre implementation at the Library of Congress (2001)
0.04
0.043342356 = product of:
0.17336942 = sum of:
0.17336942 = weight(_text_:headings in 431) [ClassicSimilarity], result of:
0.17336942 = score(doc=431,freq=8.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.53611964 = fieldWeight in 431, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=431)
0.25 = coord(1/4)
- Abstract
- Form and genre data describing what library materials are, as distinct from topical data for what they are about, has now been specifically provided for in the MARC authority and bibliographic formats. While the Library of Congress Subject Headings list (LCSH) has always had vocabulary for forms and genres, now, at the request of the library community, the Library of Congress (LC) has begun planning to implement the separate treatment of form and genre data in its subject cataloging. Creation of subdivision authority records, including those for form subdivisions, is the first step. Since the 1940s, the controlled vocabulary for subject cataloging in the field of music has been LCSH, where there are thousands of form and genre headings for musical works. Thus, in attempting to answer the many questions that arise as LC faces form/genre implementation, music provides a particularly suitable discipline through which to explore the options. Questions touch on conceptual issues, content of authority records, topical uses of form headings, how to deal with the varied syntax of LC subject headings, syndetic structure, vocabulary choices, and how best to exploit the complexities of MARC coding. Yet to be addressed are OPAC displays, as user interfaces are largely beyond the scope of the cataloging considerations under discussion.
-
Hoover, L.: ¬A beginners' guide for subject analysis of theses and dissertations in the hard sciences (2005)
0.04
0.043342356 = product of:
0.17336942 = sum of:
0.17336942 = weight(_text_:headings in 740) [ClassicSimilarity], result of:
0.17336942 = score(doc=740,freq=8.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.53611964 = fieldWeight in 740, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=740)
0.25 = coord(1/4)
- Abstract
- This guide, for beginning catalogers with humanities or social sciences backgrounds, provides assistance in subject analysis (based on Library of Congress Subject Headings) of theses and dissertations (T/Ds) that are produced by graduate students in university departments in the hard sciences (physical sciences and engineering). It is aimed at those who have had little or no experience in cataloging, especially of this type of material, and for those who desire to supplement local mentoring resources for subject analysis in the hard sciences. Theses and dissertations from these departments present a special challenge because they are the results of current research representing specific new concepts with which the cataloger may not be familiar. In fact, subject headings often have not yet been created for the specific concept(s) being researched. Additionally, T/D authors often use jargon/terminology specific to their department. Catalogers often have many other duties in addition to subject analysis of T/Ds in the hard sciences, yet they desire to provide optimal access through accurate, thorough subject analysis. Tips are provided for determining the content of the T/D, strategic searches on WorldCat for possible subject headings, evaluating the relevancy of these subject headings for final selection, and selecting appropriate subdivisions where needed. Lists of basic reference resources are also provided.
-
Rotaru, D.: Constituirea listei de vedete de subiect enciclopedice românesti (LIVES-RO) : Programul RAMEAU (2007)
0.04
0.043342356 = product of:
0.17336942 = sum of:
0.17336942 = weight(_text_:headings in 1115) [ClassicSimilarity], result of:
0.17336942 = score(doc=1115,freq=2.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.53611964 = fieldWeight in 1115, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.078125 = fieldNorm(doc=1115)
0.25 = coord(1/4)
- Footnote
- Übers. d. Titels: Building the encyclopedic list of subject headings in Romanian (LIVES-RO) - the RAMEAU Program
-
Di Geso, M.L.: Subject indexing in the Servizio Bibliotecario Nazionale (2004)
0.04
0.043342356 = product of:
0.17336942 = sum of:
0.17336942 = weight(_text_:headings in 2274) [ClassicSimilarity], result of:
0.17336942 = score(doc=2274,freq=8.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.53611964 = fieldWeight in 2274, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=2274)
0.25 = coord(1/4)
- Abstract
- Over the last ten years, the Servizio Bibliotecario Nazionale (SBN) has become the largest Italian network of bibliographic services. The creation of the SBN Index database and its growth through shared cataloging were the focus of attention during the early phase, and for years, discussion was limited to questions of author cataloging and bibliographic description. Subject cataloging was excluded from the cooperative activity of the member libraries. In 1990 the Working Group on Subject Headings and Classes was established to examine this situation. First, a partial solution was found, to permit the launch of the network itself. This was followed, several years later, by the development of the SBN OPAC and the creation of the file of subject headings and classes in the SBN Index. From an operational perspective, the choice was made to forego managing the subject headings file in accordance with shared cataloging principles, with mixed results. In order for the subject file to have broader coverage and to further encourage cooperative subject cataloging, the SBN Index Development Program, in which the Istituto Centrale per il Catalogo Unico delle Biblioteche Italiane (ICCU) has been engaged for about two years, aims at enriching services of the database and opening up new and diversified types of usage. Almost simultaneously the Biblioteca Nazionale Centrale di Firenze (BNCF) initiated a feasibility study on the revision of the Soggettario delle biblioteche italiane (List of Subject Headings in Italian Libraries) for the catalogs of Italian libraries. Both the BNCF and the ICCU share the goal of building a new, consistent vocabulary for documentation of subject matter.
-
Olson, H.A.: ¬The power to name : locating the limits of subject representation in libraries (2002)
0.04
0.043342356 = product of:
0.17336942 = sum of:
0.17336942 = weight(_text_:headings in 3573) [ClassicSimilarity], result of:
0.17336942 = score(doc=3573,freq=8.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.53611964 = fieldWeight in 3573, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=3573)
0.25 = coord(1/4)
- Abstract
- The names we give things colour the ways we perceive them. Those in a position to name hold the power to construct others' perceptions and realities. This book looks at the pervasive naming of information that libraries undertake as a matter of course through representation of subjects. It examines the 19th century foundations, current standards, and canonical application of internationally used classification (Melvil Dewey and his decimal scheme) and subject headings (Charles Cutter and the Library of Congress Subject Headings). A feminist poststructural critique is used to reveal the presumption that these standards are universally applicable even though their marginalizations and exclusions are well-documented. The book will be of interest to librarians, information scholars and professionals, researchers interested in representation and the construction of meaning, and anyone who uses a library. TOC: Preface.- 1. Naming is Power.- 2. Armies, Railroads and Procrustean Beds.- 3. The Iterability of the Public and Efficiency.- 4. The Authority to Name.- 5. Ite/Arating Women.- 6. Toward Eccentric Techniques.- Notes.- Index.
- RSWK
- Bibliothek / Inhaltserschließung / Dewey-Dezimalklassifikation / Library of Congress Subject Headings / Geschichte
- Subject
- Bibliothek / Inhaltserschließung / Dewey-Dezimalklassifikation / Library of Congress Subject Headings / Geschichte
-
Broughton, V.: Essential thesaurus construction (2006)
0.04
0.042986542 = product of:
0.085973084 = sum of:
0.03693681 = weight(_text_:und in 3924) [ClassicSimilarity], result of:
0.03693681 = score(doc=3924,freq=52.0), product of:
0.1478073 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06664293 = queryNorm
0.2498984 = fieldWeight in 3924, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=3924)
0.04903628 = weight(_text_:headings in 3924) [ClassicSimilarity], result of:
0.04903628 = score(doc=3924,freq=4.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.15163754 = fieldWeight in 3924, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.015625 = fieldNorm(doc=3924)
0.5 = coord(2/4)
- Footnote
- Rez. in: Mitt. VÖB 60(2007) H.1, S.98-101 (O. Oberhauser): "Die Autorin von Essential thesaurus construction (and essential taxonomy construction, so der implizite Untertitel, vgl. S. 1) ist durch ihre Lehrtätigkeit an der bekannten School of Library, Archive and Information Studies des University College London und durch ihre bisherigen Publikationen auf den Gebieten (Facetten-)Klassifikation und Thesaurus fachlich einschlägig ausgewiesen. Nach Essential classification liegt nun ihr Thesaurus-Lehrbuch vor, mit rund 200 Seiten Text und knapp 100 Seiten Anhang ein handliches Werk, das seine Genese zum Grossteil dem Lehrbetrieb verdankt, wie auch dem kurzen Einleitungskapitel zu entnehmen ist. Das Buch ist der Schule von Jean Aitchison et al. verpflichtet und wendet sich an "the indexer" im weitesten Sinn, d.h. an alle Personen, die ein strukturiertes, kontrolliertes Fachvokabular für die Zwecke der sachlichen Erschliessung und Suche erstellen wollen bzw. müssen. Es möchte dieser Zielgruppe das nötige methodische Rüstzeug für eine solche Aufgabe vermitteln, was einschliesslich der Einleitung und der Schlussbemerkungen in zwanzig Kapiteln geschieht - eine ansprechende Strukturierung, die ein wohldosiertes Durcharbeiten möglich macht. Zu letzterem tragen auch die von der Autorin immer wieder gestellten Übungsaufgaben bei (Lösungen jeweils am Kapitelende). Zu Beginn der Darstellung wird der "information retrieval thesaurus" von dem (zumindest im angelsächsischen Raum) weit öfter mit dem Thesaurusbegriff assoziierten "reference thesaurus" abgegrenzt, einem nach begrifflicher Ähnlichkeit angeordneten Synonymenwörterbuch, das gerne als Mittel zur stilistischen Verbesserung beim Abfassen von (wissenschaftlichen) Arbeiten verwendet wird. Ohne noch ins Detail zu gehen, werden optische Erscheinungsform und Anwendungsgebiete von Thesauren vorgestellt, der Thesaurus als postkoordinierte Indexierungssprache erläutert und seine Nähe zu facettierten Klassifikationssystemen erwähnt. In der Folge stellt Broughton die systematisch organisierten Systeme (Klassifikation/ Taxonomie, Begriffs-/Themendiagramme, Ontologien) den alphabetisch angeordneten, wortbasierten (Schlagwortlisten, thesaurusartige Schlagwortsysteme und Thesauren im eigentlichen Sinn) gegenüber, was dem Leser weitere Einordnungshilfen schafft. Die Anwendungsmöglichkeiten von Thesauren als Mittel der Erschliessung (auch als Quelle für Metadatenangaben bei elektronischen bzw. Web-Dokumenten) und der Recherche (Suchformulierung, Anfrageerweiterung, Browsing und Navigieren) kommen ebenso zur Sprache wie die bei der Verwendung natürlichsprachiger Indexierungssysteme auftretenden Probleme. Mit Beispielen wird ausdrücklich auf die mehr oder weniger starke fachliche Spezialisierung der meisten dieser Vokabularien hingewiesen, wobei auch Informationsquellen über Thesauren (z.B. www.taxonomywarehouse.com) sowie Thesauren für nicht-textuelle Ressourcen kurz angerissen werden.
In den stärker ins Detail gehenden Kapiteln weist Broughton zunächst auf die Bedeutung des systematischen Teils eines Thesaurus neben dem alphabetischen Teil hin und erläutert dann die Elemente des letzteren, wobei neben den gängigen Thesaurusrelationen auch die Option der Ausstattung der Einträge mit Notationen eines Klassifikationssystems erwähnt wird. Die Thesaurusrelationen selbst werden später noch in einem weiteren Kapitel ausführlicher diskutiert, wobei etwa auch die polyhierarchische Beziehung thematisiert wird. Zwei Kapitel zur Vokabularkontrolle führen in Aspekte wie Behandlung von Synonymen, Vermeidung von Mehrdeutigkeit, Wahl der bevorzugten Terme sowie die Formen von Thesauruseinträgen ein (grammatische Form, Schreibweise, Zeichenvorrat, Singular/Plural, Komposita bzw. deren Zerlegung usw.). Insgesamt acht Kapitel - in der Abfolge mit den bisher erwähnten Abschnitten didaktisch geschickt vermischt - stehen unter dem Motto "Building a thesaurus". Kurz zusammengefasst, geht es dabei um folgende Tätigkeiten und Prozesse: - Sammlung des Vokabulars unter Nutzung entsprechender Quellen; - Termextraktion aus den Titeln von Dokumenten und Probleme hiebei; - Analyse des Vokabulars (Facettenmethode); - Einbau einer internen Struktur (Facetten und Sub-Facetten, Anordnung der Terme); - Erstellung einer hierarchischen Struktur und deren Repräsentation; - Zusammengesetzte Themen bzw. Begriffe (Facettenanordnung: filing order vs. citation order); - Konvertierung der taxonomischen Anordnung in ein alphabetisches Format (Auswahl der Vorzugsbegriffe, Identifizieren hierarchischer Beziehungen, verwandter Begriffe usw.); - Erzeugen der endgültigen Thesaurus-Einträge.
Diese Abschnitte sind verständlich geschrieben und trotz der mitunter gar nicht so einfachen Thematik auch für Einsteiger geeignet. Vorteilhaft ist sicherlich, dass die Autorin die Thesauruserstellung konsequent anhand eines einzelnen thematischen Beispiels demonstriert und dafür das Gebiet "animal welfare" gewählt hat, wohl nicht zuletzt auch deshalb, da die hier auftretenden Facetten und Beziehungen ohne allzu tiefgreifende fachwissenschaftliche Kenntnisse für die meisten Leser nachvollziehbar sind. Das methodische Gerüst der Facettenanalyse wird hier deutlich stärker betont als etwa in der (spärlichen) deutschsprachigen Thesaurusliteratur. Diese Vorgangsweise soll neben der Ordnungsbildung auch dazu verhelfen, die Zahl der Deskriptoren überschaubar zu halten und weniger auf komplexe (präkombinierte) Deskriptoren als auf postkoordinierte Indexierung zu setzen. Dafür wird im übrigen das als Verfeinerung der bekannten Ranganathanschen PMEST-Formel geltende Schema der 13 "fundamental categories" der UK Classification Research Group (CRG) vorgeschlagen bzw. in dem Beispiel verwendet (Thing / Kind / Part / Property; Material / Process / Operation; Patient / Product / By-product / Agent; Space; Time). Als "minor criticism" sei erwähnt, dass Broughton in ihrem Demonstrationsbeispiel als Notation für die erarbeitete Ordnung eine m.E. schwer lesbare Buchstabenfolge verwendet, obwohl sie zugesteht (S. 165), dass ein Zifferncode vielfach als einfacher handhabbar empfunden wird.
In einem abschliessenden Kapitel geht das Buch auf Thesauruspflege und -verwaltung ein, wobei auch das Thema "Thesaurussoftware" angerissen wird - letzteres vielleicht ein wenig zu kurz. Erst hier mag manchem unbefangenen Leser bewusst werden, dass die in den vorhergehenden Kapiteln dargestellte Methodik eigentlich ohne den Einsatz dezidierter Software besprochen wurde, ja vielleicht auch so besprochen werden musste, um ein entsprechendes Verständnis herzustellen. In der nachfolgenden zweiseitigen Conclusio wird erwähnt, dass die britische Norm Structured Vocabularies for Information Retrieval (BS 8723) vor einer Neufassung stehe - was den Rezensenten darauf hinzuweisen gemahnt, dass sich dieses Buch natürlich ausschliesslich auf den anglo-amerikanischen Sprachraum und die dort geltenden Thesaurus-Gepflogenheiten bezieht. Der relativ umfangreiche Anhang beinhaltet ausser Materialie zum erwähnten Demonstrationsbeispiel auch ein nützliches Glossarium sowie ein professionell gefertigtes Sachregister. Literaturhinweise werden - in sparsamer Dosierung - jeweils am Ende der einzelnen Kapitel gegeben, sodass sich die "Bibliography" am Ende des Buches auf einige Normen und zwei Standardwerke beschränken kann. Realistisch betrachtet, darf vermutlich nicht davon ausgegangen werden, dass Leser, die dieses Buch durchgearbeitet haben, sogleich in der Lage sein werden, eigenständig einen Thesaurus zu erstellen. Ein Lehrbuch allein kann weder einen Kurs noch die praktische Erfahrung ersetzen, die für eine solche Tätigkeit vonnöten sind. Ich kann mir aber gut vorstellen, dass die Kenntnis der in diesem Buch vermittelten Inhalte sehr wohl in die Lage versetzt, in einem Team, das einen Thesaurus erstellen soll, kompetent mitzuarbeiten, mit den Konzepten und Fachtermini zurechtzukommen und selbst konstruktive Beiträge zu leisten. Ausserdem erscheint mir das Werk hervorragend als Begleitmaterial zu einer Lehrveranstaltung geeignet - oder auch als Grundlage für die Planung einer solchen. Ein britischer Einführungstext eben, im besten Sinne."
- LCSH
- Subject headings / Terminology
- Subject
- Subject headings / Terminology
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Olson, H.A.: Difference, culture and change : the untrapped potential of LCSH (2000)
0.04
0.042906743 = product of:
0.17162697 = sum of:
0.17162697 = weight(_text_:headings in 6610) [ClassicSimilarity], result of:
0.17162697 = score(doc=6610,freq=4.0), product of:
0.32337824 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06664293 = queryNorm
0.5307314 = fieldWeight in 6610, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0546875 = fieldNorm(doc=6610)
0.25 = coord(1/4)
- Abstract
- The Library of Congress Subject Headings have traditionally attempted to reflect reality neutrally. The result is bias in representing cultural margins. While neutrality is one of the ethical stances espoused by librarianship, another is universal and equitable access to information for the betterment of humanity. This paper views LCSH as a potential tool for cultural change using Homi Bhabha's postcolonial concept of a Third Space as a model. LCSH functions as a Third Space where the meanings of documents are constructed and enunciated for library users. Therefore, it is in LCSH that there is potential for instigating change
- Source
- The LCSH century: one hundred years with the Library of Congress Subject Headings system. Ed.: A.T. Stone