Search (1958 results, page 1 of 98)

  • × language_ss:"e"
  1. Dailey, J.E.: Subject headings (1980) 0.25
    0.24651112 = product of:
      0.49302223 = sum of:
        0.05306629 = weight(_text_:und in 671) [ClassicSimilarity], result of:
          0.05306629 = score(doc=671,freq=2.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.34306374 = fieldWeight in 671, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.109375 = fieldNorm(doc=671)
        0.43995595 = weight(_text_:headings in 671) [ClassicSimilarity], result of:
          0.43995595 = score(doc=671,freq=6.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            1.300021 = fieldWeight in 671, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.109375 = fieldNorm(doc=671)
      0.5 = coord(2/4)
    
    Abstract
    Enthält Geschichte der Library of Congress Subject Headings und Sears' list
    Object
    Sears List of Subject Headings
  2. Library of Congress Subject Headings (1994) 0.18
    0.17744201 = product of:
      0.35488403 = sum of:
        0.030323595 = weight(_text_:und in 2522) [ClassicSimilarity], result of:
          0.030323595 = score(doc=2522,freq=2.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.19603643 = fieldWeight in 2522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2522)
        0.32456043 = weight(_text_:headings in 2522) [ClassicSimilarity], result of:
          0.32456043 = score(doc=2522,freq=10.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.95904005 = fieldWeight in 2522, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=2522)
      0.5 = coord(2/4)
    
    Content
    Enthält 206.300 subject headings; Zuwachs des letzten Jahres: 8.000; alphabetische Liste aller früheren, nun nicht mehr gültigen headings (Earlier forms); umfangreiche Einleitung
    Footnote
    Vgl. auch Cataloging service bulletin. No.46(1989) S.65-66; ab 12th ed. 1989 jährliche Erscheinungsweise. - Neben Papierausgabe Mikrofiche und CD-ROM Ausgabe (CDMARC Subjects, $475,-; vgl. Demo-Diskette) mit jeweils vierteljährlicher Ergänzung. - Erste Ausgabe: 1911 'List of Subject Headings for use in dictionary catalogs'. Chicago: ALA 1911. - Vgl. zur Geschichte: Dailey, J.E. Subject headings in ELIS
  3. Townley, H.M.; Gee, R.G.: Thesaurus-making : grow your own wordstock (1980) 0.18
    0.1766952 = product of:
      0.3533904 = sum of:
        0.045485392 = weight(_text_:und in 548) [ClassicSimilarity], result of:
          0.045485392 = score(doc=548,freq=2.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.29405463 = fieldWeight in 548, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=548)
        0.30790502 = weight(_text_:headings in 548) [ClassicSimilarity], result of:
          0.30790502 = score(doc=548,freq=4.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.9098252 = fieldWeight in 548, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.09375 = fieldNorm(doc=548)
      0.5 = coord(2/4)
    
    LCSH
    Subject headings
    Subject
    Subject headings
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  4. Sears' list of subject headings (2018) 0.17
    0.17466265 = product of:
      0.3493253 = sum of:
        0.022742696 = weight(_text_:und in 652) [ClassicSimilarity], result of:
          0.022742696 = score(doc=652,freq=2.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.14702731 = fieldWeight in 652, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=652)
        0.3265826 = weight(_text_:headings in 652) [ClassicSimilarity], result of:
          0.3265826 = score(doc=652,freq=18.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.96501535 = fieldWeight in 652, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=652)
      0.5 = coord(2/4)
    
    Abstract
    The system is available both in print and online versions. Names a few new subject headings in areas like science, technology, engineering and medicine (STEM). In this edition, there are a total of 1,600 new headings making it a total of 12,000+ preferred headings meant for subject access in small and medium sized libraries. This unprecedented increase of about 1,600 headings is mostly due the complete incorporation of the Canadian Sears last published independently in 2006. Also critically examines inconsistencies in a few headings. Concludes to say the new edition in resplendent, hard binding maintains its stellar reputation of a handy list of general subject headings both for applications and a teaching resource.
    Footnote
    Introduction und Rez. in: Knowledge Organization 45(2018) no.8, S.712-714. u.d.T. "Satija, M. P. 2018: "The 22nd edition (2018) of the Sears List of Subject Headings: A brief introduction." (DOI:10.5771/0943-7444-2018-8-712).
    Object
    Sears List of Subject Headings
  5. Gilchrist, A.: ¬The thesaurus in retrieval (1971) 0.16
    0.16112003 = product of:
      0.32224005 = sum of:
        0.06565251 = weight(_text_:und in 5593) [ClassicSimilarity], result of:
          0.06565251 = score(doc=5593,freq=6.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.42443132 = fieldWeight in 5593, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=5593)
        0.25658754 = weight(_text_:headings in 5593) [ClassicSimilarity], result of:
          0.25658754 = score(doc=5593,freq=4.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.7581877 = fieldWeight in 5593, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.078125 = fieldNorm(doc=5593)
      0.5 = coord(2/4)
    
    Classification
    AN 94200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Thesauruskunde
    LCSH
    Subject headings
    RVK
    AN 94200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Thesauruskunde
    Subject
    Subject headings
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Trkulja, V.: ¬Die Digitale Kluft : eine Analyse der Informationsinfrastruktur in Bosnien-Herzegowina (2008) 0.15
    0.15422314 = product of:
      0.3084463 = sum of:
        0.24779908 = weight(_text_:jeden in 2600) [ClassicSimilarity], result of:
          0.24779908 = score(doc=2600,freq=2.0), product of:
            0.4421844 = queryWeight, product of:
              6.3401756 = idf(docFreq=212, maxDocs=44421)
              0.06974324 = queryNorm
            0.5603976 = fieldWeight in 2600, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3401756 = idf(docFreq=212, maxDocs=44421)
              0.0625 = fieldNorm(doc=2600)
        0.06064719 = weight(_text_:und in 2600) [ClassicSimilarity], result of:
          0.06064719 = score(doc=2600,freq=8.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.39207286 = fieldWeight in 2600, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2600)
      0.5 = coord(2/4)
    
    Abstract
    Eines der meistdiskutierten Themen bezüglich der Informationsgesellschaft ist das der Digitalen Kluft. Die Informations- und Kommunikationstechnologien (IKT) sind Grundbausteine einer jeden Informationsgesellschaft und bieten große Chancen für die soziale und ökonomische Entwicklung eines Landes. Im Vergleich zu den Teilstaaten des ehemaligen Jugoslawiens wird der aktuelle Stand der Informationsinfrastruktur in Bosnien-Herzegowina aufgezeigt. Auch wenn die IKT in den letzten Jahren eine dynamische Entwicklung erfahren haben, leidet das Land noch immer an den Folgen des Bürgerkrieges. Die komplizierten politischen Verhältnisse verzögern den Ausbau hin zu einer Informationsgesellschaft.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.2, S.142-148
  7. Aitchison, J.; Gilchrist, A.: Thesaurus construction : a practical manual (1987) 0.15
    0.14724602 = product of:
      0.29449204 = sum of:
        0.037904494 = weight(_text_:und in 6938) [ClassicSimilarity], result of:
          0.037904494 = score(doc=6938,freq=2.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.24504554 = fieldWeight in 6938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=6938)
        0.25658754 = weight(_text_:headings in 6938) [ClassicSimilarity], result of:
          0.25658754 = score(doc=6938,freq=4.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.7581877 = fieldWeight in 6938, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.078125 = fieldNorm(doc=6938)
      0.5 = coord(2/4)
    
    LCSH
    Subject headings
    Subject
    Subject headings
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  8. Satija, M.P.: ¬The sixteenth edition (1987) of the Sears' List of Subject Headings : some salient features in historical perspective of its Platinum Jubilee Year (1998) (1998) 0.15
    0.14724602 = product of:
      0.29449204 = sum of:
        0.037904494 = weight(_text_:und in 4787) [ClassicSimilarity], result of:
          0.037904494 = score(doc=4787,freq=2.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.24504554 = fieldWeight in 4787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4787)
        0.25658754 = weight(_text_:headings in 4787) [ClassicSimilarity], result of:
          0.25658754 = score(doc=4787,freq=4.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.7581877 = fieldWeight in 4787, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.078125 = fieldNorm(doc=4787)
      0.5 = coord(2/4)
    
    Footnote
    Enthält eine Liste der 16 Auflagen der Sears' List mit den jeweiligen Herausgeberinnen / Herausgebern und Neuerungen
    Object
    Sears List of Subject Headings
  9. Lancaster, F.W.: Vocabulary control for information retrieval (1986) 0.13
    0.1329586 = product of:
      0.2659172 = sum of:
        0.06064719 = weight(_text_:und in 1217) [ClassicSimilarity], result of:
          0.06064719 = score(doc=1217,freq=8.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.39207286 = fieldWeight in 1217, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1217)
        0.20527002 = weight(_text_:headings in 1217) [ClassicSimilarity], result of:
          0.20527002 = score(doc=1217,freq=4.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.60655016 = fieldWeight in 1217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=1217)
      0.5 = coord(2/4)
    
    Classification
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    LCSH
    Subject headings
    RVK
    ST 271 Informatik / Monographien / Software und -entwicklung / Datenbanken, Datenbanksysteme, Data base management, Informationssysteme / Einzelne Datenbanksprachen und Datenbanksysteme
    Subject
    Subject headings
  10. Plieninger, J.: Vermischtes und noch mehr ... : Ein Essay über die (vergebliche) Nutzung bibliothekarischer Erschließungssysteme in der neuen digitalen Ordnung (2007) 0.13
    0.12691444 = product of:
      0.16921926 = sum of:
        0.077437215 = weight(_text_:jeden in 1680) [ClassicSimilarity], result of:
          0.077437215 = score(doc=1680,freq=2.0), product of:
            0.4421844 = queryWeight, product of:
              6.3401756 = idf(docFreq=212, maxDocs=44421)
              0.06974324 = queryNorm
            0.17512426 = fieldWeight in 1680, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3401756 = idf(docFreq=212, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1680)
        0.046423335 = weight(_text_:und in 1680) [ClassicSimilarity], result of:
          0.046423335 = score(doc=1680,freq=48.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.30011827 = fieldWeight in 1680, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1680)
        0.045358695 = weight(_text_:headings in 1680) [ClassicSimilarity], result of:
          0.045358695 = score(doc=1680,freq=2.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.13402991 = fieldWeight in 1680, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1680)
      0.75 = coord(3/4)
    
    Content
    "Dass dieses Buch den Bibliothekaren gewidmet ist, stimmt tröstlich. Denn auf den Punkt gebracht, bedeutet sein Inhalt für unseren Berufsstand: Es kommt nicht mehr auf Euch an! Die Kernthese, die der Autor, ein bekannter Publizist zum Internet und Mitglied einer Harvard-Institution, in diesem Essay überaus anregend und mit vielen Beispielen gespickt ausführt, lautet: Dem Informationsüberfluss durch elektronische Dokumente kann nur noch durch noch mehr Information begegnet werden. Die Erschließung elektronischer Dokumente durch die Benutzer mithilfe von Metadaten und so genannten Tags (freie Verschlagwortung, also nicht standardisierte Metadaten) führt zu einer Überlagerung mit der systematischen Erschließung, für die der bibliothekarische Berufsstand steht. Diese Art der Erschließung wird in der gegenwärtigen Diskussion über Web 2.0 Folksonomy genannt. Nur so, schreibt David Weinberger, können die elektronischen Dokumente vielfältig und vieldeutig erschlossen werden, nach Gesichtspunkten, die vielleicht für viele, vielleicht auch nur für einige relevant sind. Aber auf jeden Fall vielfältiger und zukunftssicherer, als dies durch bibliothekarische Erschließung möglich wäre. Sagenhafte Zuwachsraten Der Autor entwickelt seine Argumente anhand von Beispielen aus vielen Bereichen. Besonders eindrücklich ist seine Schilderung von Fotoarchiven. Er beschreibt das Buttmann-Archiv, eine umfangreiche historische Fotosammlung in den USA, das durch Zettelkataloge erschlossen ist. Hier ist eine Recherche, die von Fachpersonal durchgeführt werden muss, langwierig, und die Erschließung wurde den vielfältigen Bezügen der Darstellungen auf den Fotos nicht gerecht.
    Dann berichtet er über Corbis, ein elektronisches Fotoarchiv, dessen Fotos von professionellen Sachkatalogisierern breit verschlagwortet werden. Und jedermann kann unter www.corbis.com im Bestand des Archivs recherchieren. Als Beispiel für die neue digitale Ordnung stellt er Flickr (www.flickr.com) vor, das einen ungleich größeren Bestand als die beiden anderen Archive mit sagenhaften Zuwachsraten hat. Dort können die Benutzer selbst Fotos hoch laden, Schlagworte (Tags) vergeben und Beschreibungen hinzufügen, anhand derer dann die Recherche erfolgt. Andere Benutzer haben die Möglichkeit, ihrerseits zu allen Bildern jederzeit Kommentare abzugeben. In Flickr gibt es keine Kategorien mehr, alles ist vermischt (eben »miscellaneous«), aber durch die Tags erschlossen. Freie Verschlagwortung? Weinberger führt sehr eindringlich aus, dass durch die elektronische Speicherung und die Erschließung durch Metadaten Erschließungssysteme wie Systematiken und kontrollierte Vokabulare obsolet werden, da sich diese noch am knappen Platz auf den Karteikarten der Zettelkataloge oder an der zweidimensionalen Darstellung auf dem Papier orientieren. Dies erlaube lediglich eine Anordnung in Baumstruktur und somit Entscheidungen für den einen oder anderen systematischen Platz. Computer könnten hingegen vielfältige Zuordnungen vornehmen, bräuchten keine Systematik mit ihren »Entweder hier/ oder da!«-Zuordnungen, da man jedem elektronischen Text-/Bild-/Tondokument Metadaten hinzufügen könne, die eine vielfältige Erschließung und freie Zuordnungen möglich machen. Das ist eine Zumutung für einen Berufsstand, der für eine kontrollierte, strukturierte Erschließung und damit Qualität steht. Jede/r soll frei verschlagworten können? Gibt es dann nicht ein großes Kuddelmuddel der verschiedenen Schreibformen, der Vermischung von Bedeutungen, beispielsweise bei Homonymen? Es gibt! Aber Weinberger beschreibt sehr anschaulich, wie Computer zunehmend hier unterschiedliche Bedeutungen auseinanderdividieren und unterschiedliche Benennungen zusammenführen können.
    Katalog 2.0 Und wir stehen erst am Anfang der Entwicklung, denn man erschrickt, wie kurz erst die »Erfindung« von Tags durch den Gründer des sozialen Bookmarkdienstes Delicious (http://del.icio.us), Joshua Schachter, her ist. Uns wird hier ein Lernprozess abverlangt. Wer beispielsweise seine Bookmarks mithilfe eines sozialen Bookmarkdienstes wie Delicious, Furl (www.furl.net) oder Mr. Wong (www.mister-wong.de) verwaltet, wird zunächst einmal sehr verunsichert sein, die Links nicht in Schubladen zu haben, sondern mithilfe von Tags zu verwalten und zu suchen. Der Rezensent kann sich noch erinnern, wie erleichtert er war, dass Delicious sogenannte Bundles anbietet, doch wieder Schubladen, in denen man die Tags grob gliedern kann. Das stellt sich leider nicht immer als besonders sinnvoll heraus... Wahrscheinlich wird immer wieder die Qualität als Gegenargument ins Feld geführt werden. Die F.A.Z. hat sich über das Buch ziemlich lustig gemacht und auf die wenig qualitätvolle Arbeit von Reader-Editoren und von der Banalität der hoch gerankten Nachrichten bei Digg (www.digg.com) verwiesen. Diese Kritik hat schon ihre Berechtigung, aber auch bei anderen sozialen Diensten wie den Weblogs war es so, dass anfangs Banalität herrschte und jetzt mehr und mehr Fachblogs qualitativ höherwertigen Inhalt bieten. Wenn einmal die Experten die Potenz der Erschließung durch Metatags entdecken, wird die Qualität ansteigen. Das heißt nicht, dass kontrollierte Vokabulare wie die Medical Subject Headings oder RSWK bedeutungslos werden, sie werden aber durch die Verschlagwortung der Nutzer notwendigerweise ergänzt werden müssen, weil sich der Mehrwert dieser Nutzererschließung zeigen wird. Solches wird unter dem Stichwort Katalog 2.0 bereits diskutiert, und es existieren auch schon einige Beispiele dafür.
    Kontrolle aufgeben Es gibt noch weitere Aspekte dieses Buches, die überaus bedenkenswert sind. Über das Wissensmanagement beispielsweise, die Schwierigkeit implizites Wissen explizit zu machen. Der Gedanke auch, dass Wissen vor allem in der Kommunikation, im Gespräch erarbeitet wird, während unsere ganze Bildungskonzeption immer noch von dem Bild ausgeht, dass Wissen etwas sei, was jeder Einzelne in seinen Kopf trichtert. Weinberger benutzt als Beispiel die Schulkinder, die schon längst kollektiv Hausaufgaben machen, indem neben dem Erledigen der Aufgaben her zwei oder drei Chatfenster offen sind und die Lösungswege gemeinsam erarbeitet werden. Gibt es einen Trost für die Bibliothekare? Nach diesem Buch nicht. Prof. Hans-Christoph Hobohm bezweifelt aber in einer Besprechung des Buches im Weblog LIS der FH Potsdam (http://tinyurl.com/ywb8ld), dass es sich um einen Paradigmenwechsel handelt. Aber auch wenn die Zukunft von Bibliotheken im Buch nicht explizit erörtert wird: Zum Schluss behandelt der Autor anhand mehrerer Beispiele die Wirtschaft, die unter diesen Rahmenbedingungen ihr Marketing umstellen müsse: Nur wer seine Kontrolle über die Information aufgebe, könne unter den wechselnden Rahmenbedingungen wieder an Reputation, an Wert gewinnen. Wer sie festzuhalten versucht, verliere notwendigerweise die Kunden! Das lässt sich eins zu eins auf die Bibliotheken übertragen: Nur wer seine Informationen freigibt und die Benutzer (auch) erschließen lässt, wird Erfolg haben. Also muss man in Richtung Katalog 2.0 denken oder beispielsweise an die Zugänglichmachung von RSS-Feeds bestimmter Medien (in Öffentlichen Bibliotheken) oder Zeitschriftenin halten (in wissenschaftlichen Bibliotheken)."
  11. Vasiljev, A.: Thesaurus project of the Delft University of Technology Library : Allgemeiner Thesaurus für Bibliotheken (1982) 0.12
    0.12407703 = product of:
      0.24815406 = sum of:
        0.04288404 = weight(_text_:und in 1528) [ClassicSimilarity], result of:
          0.04288404 = score(doc=1528,freq=4.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.2772374 = fieldWeight in 1528, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1528)
        0.20527002 = weight(_text_:headings in 1528) [ClassicSimilarity], result of:
          0.20527002 = score(doc=1528,freq=4.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.60655016 = fieldWeight in 1528, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=1528)
      0.5 = coord(2/4)
    
    Abstract
    Discussion of the results and consequences of the automation project named thesaurus/concordance project, carried out at the DUT Library. The aim of the project was, by making the subject headings and their corresponding classification codes machine readable, to produce periodically cumulative lists, classifies lists, lists per subject fields, alphabetical lists of inverted subheadings and geographical names with their corresponding main headings and notations
    Source
    Numerische und nicht-numerische Klassifikation zwischen Theorie und Praxis. Proc. der 5. Fachtagung der Gesellschaft für Klassifikation, Hofgeismar, 7.-10.4.1981. Hrsg.: Peter Ihm u.a
  12. Einführung in XML (2001) 0.12
    0.12077866 = product of:
      0.24155731 = sum of:
        0.18584931 = weight(_text_:jeden in 984) [ClassicSimilarity], result of:
          0.18584931 = score(doc=984,freq=2.0), product of:
            0.4421844 = queryWeight, product of:
              6.3401756 = idf(docFreq=212, maxDocs=44421)
              0.06974324 = queryNorm
            0.42029822 = fieldWeight in 984, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3401756 = idf(docFreq=212, maxDocs=44421)
              0.046875 = fieldNorm(doc=984)
        0.055708002 = weight(_text_:und in 984) [ClassicSimilarity], result of:
          0.055708002 = score(doc=984,freq=12.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.36014193 = fieldWeight in 984, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=984)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Internet Professionell 2002, H.1, S.18 (GO): "Der Autor bezeichnet XML als "die Schmiere am Rad der Informations-Infrastruktur". Das bezieht sich auf die Möglichkeiten der Sprache, Daten in einer auf jeden Bedarf zugeschnittenen Form zu speichern. Der Autor arbeitet mit vielen Beispielen, um die Struktur eines XML-Dokuments und den Umgang damit zu verdeutlichen. Er geht auf die Regeln der Sprache ein und erklärt, wie man Syntax-Schwierigkeiten vermeidet. Während der vordere Buchteil eine gute Einführung in XML bietet und somit auch für Einsteiger geeignet ist, richtet sich der hintere Teil an fortgeschrittenere Benutzer. Hier wird das Programmieren für XML thematisiert. So wird zum Beispiel beschrieben, wie man einen XML-Syntaxprüfer schreibt. Außerdem geht es um die praktische Arbeit mit XML: die Verwendung von Stylesheets, die Umwandlung von Dokumenten für spezielle Zwecke und die Internationalisierung von Dateien. "Einführung in XML" ist übersichtlich gegliedert und bietet im Anhang eine Aufstellung von Ressourcen und ein ausführliches Glossar."
  13. Stone, A.T.: ¬The LCSH century : a brief history of the Library of Congress Subject Headings, and introduction to the centennial essays (2000) 0.12
    0.12023221 = product of:
      0.24046442 = sum of:
        0.022742696 = weight(_text_:und in 6600) [ClassicSimilarity], result of:
          0.022742696 = score(doc=6600,freq=2.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.14702731 = fieldWeight in 6600, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6600)
        0.21772173 = weight(_text_:headings in 6600) [ClassicSimilarity], result of:
          0.21772173 = score(doc=6600,freq=8.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.64334357 = fieldWeight in 6600, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=6600)
      0.5 = coord(2/4)
    
    Abstract
    The history of the Library of Congress Subject Headings is traced, from its beginnings with the implementation of a dictionary catalog at the Library of Congress in 1898 to the present day. The author describes the most significant changes which have occurred in LCSH policies and practices during the 100-year period. Events noted near the end of the century indicate an increased willingness on the part of' the Library of Congress to involve the larger library community in the creation or revision of subject headings and other decision-making regarding the LCSH system. Finally, the author provides a summary of the other contributions to this collection of essays, a collection which celebrates the "centennial" of the world's most popular library subject heading language
    Content
    Mit einer Publikationsgeschichte der LCSH (vgl. Tabellen) und dazu gehörenden Publikationen
    Source
    The LCSH century: one hundred years with the Library of Congress Subject Headings system. Ed.: A.T.Stone
  14. Heiner-Freiling, M.: Survey on subject heading languages used in national libraries and bibliographies (2000) 0.12
    0.12023221 = product of:
      0.24046442 = sum of:
        0.022742696 = weight(_text_:und in 6921) [ClassicSimilarity], result of:
          0.022742696 = score(doc=6921,freq=2.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.14702731 = fieldWeight in 6921, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6921)
        0.21772173 = weight(_text_:headings in 6921) [ClassicSimilarity], result of:
          0.21772173 = score(doc=6921,freq=8.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.64334357 = fieldWeight in 6921, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=6921)
      0.5 = coord(2/4)
    
    Abstract
    Surveys conducted during the last four years under the auspices of the International Federation of Library Associations and Organizations (IFLA) reveal that the Library of Congress Subject Headings is heavily used in national libraries outside of the United States, particularly in English-speaking countries. Many other countries report using a translation or adaptation of LCSH as their principal subject heading language. Magda Heiner-Freiling presents an analysis of the IFLA data, which also includes information on the classification schemes used by the libraries and whether or not the libraries have produced a manual on the creation and application of subject headings. The paper concludes with an Appendix showing the complete data from the 88 national libraries that respond to the surveys
    Content
    Mit einer tabellarischen Übersicht der eingesetzten Systeme und Regeln
    Object
    Sears List of Subject Headings
    Source
    The LCSH century: one hundred years with the Library of Congress Subject Headings system. Ed.: A.T.Stone
  15. Aitchison, J.; Gilchrist, A.; Bawden, D.: Thesaurus construction and use : a practical manual (1997) 0.12
    0.11779681 = product of:
      0.23559362 = sum of:
        0.030323595 = weight(_text_:und in 254) [ClassicSimilarity], result of:
          0.030323595 = score(doc=254,freq=2.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.19603643 = fieldWeight in 254, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=254)
        0.20527002 = weight(_text_:headings in 254) [ClassicSimilarity], result of:
          0.20527002 = score(doc=254,freq=4.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.60655016 = fieldWeight in 254, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=254)
      0.5 = coord(2/4)
    
    LCSH
    Subject headings / Terminology
    Subject
    Subject headings / Terminology
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  16. Olderr, S.: Olderr's fiction subject headings : a supplement and guide to the LC thesaurus (1991) 0.12
    0.11779681 = product of:
      0.23559362 = sum of:
        0.030323595 = weight(_text_:und in 3850) [ClassicSimilarity], result of:
          0.030323595 = score(doc=3850,freq=2.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.19603643 = fieldWeight in 3850, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3850)
        0.20527002 = weight(_text_:headings in 3850) [ClassicSimilarity], result of:
          0.20527002 = score(doc=3850,freq=4.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.60655016 = fieldWeight in 3850, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=3850)
      0.5 = coord(2/4)
    
    Content
    Enthält in einem Appendix A: 'Guidelines on subject access to individual works of fiction, drama, etc.' des American Library Association Subject Analysis Committee; und in einem Appendix B die Verfahrensweise der Library of Congress bei der Zuteilung von Library of Congress Subject Headings zur Schönen Literatur
  17. Aitchison, J.; Gilchrist, A.; Bawden, D.: Thesaurus construction and use : a practical manual (2000) 0.12
    0.11779681 = product of:
      0.23559362 = sum of:
        0.030323595 = weight(_text_:und in 1130) [ClassicSimilarity], result of:
          0.030323595 = score(doc=1130,freq=2.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.19603643 = fieldWeight in 1130, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1130)
        0.20527002 = weight(_text_:headings in 1130) [ClassicSimilarity], result of:
          0.20527002 = score(doc=1130,freq=4.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.60655016 = fieldWeight in 1130, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=1130)
      0.5 = coord(2/4)
    
    LCSH
    Subject headings / Terminology
    Subject
    Subject headings / Terminology
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  18. Coates, E.J.: Subject catalogues : headings and structure (1960) 0.12
    0.117519915 = product of:
      0.23503983 = sum of:
        0.053605054 = weight(_text_:und in 199) [ClassicSimilarity], result of:
          0.053605054 = score(doc=199,freq=4.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.34654674 = fieldWeight in 199, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=199)
        0.18143478 = weight(_text_:headings in 199) [ClassicSimilarity], result of:
          0.18143478 = score(doc=199,freq=2.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.53611964 = fieldWeight in 199, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.078125 = fieldNorm(doc=199)
      0.5 = coord(2/4)
    
    Classification
    AN 75000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Allgemeines
    RVK
    AN 75000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Allgemeines
  19. Jahns, Y.; Trummer, M.: Sacherschließung - Informationsdienstleistung nach Maß : Kann Heterogenität beherrscht werden? (2004) 0.12
    0.116225235 = product of:
      0.15496698 = sum of:
        0.06194977 = weight(_text_:jeden in 3789) [ClassicSimilarity], result of:
          0.06194977 = score(doc=3789,freq=2.0), product of:
            0.4421844 = queryWeight, product of:
              6.3401756 = idf(docFreq=212, maxDocs=44421)
              0.06974324 = queryNorm
            0.1400994 = fieldWeight in 3789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3401756 = idf(docFreq=212, maxDocs=44421)
              0.015625 = fieldNorm(doc=3789)
        0.05673025 = weight(_text_:und in 3789) [ClassicSimilarity], result of:
          0.05673025 = score(doc=3789,freq=112.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.36675057 = fieldWeight in 3789, product of:
              10.583005 = tf(freq=112.0), with freq of:
                112.0 = termFreq=112.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=3789)
        0.036286954 = weight(_text_:headings in 3789) [ClassicSimilarity], result of:
          0.036286954 = score(doc=3789,freq=2.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.10722393 = fieldWeight in 3789, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.015625 = fieldNorm(doc=3789)
      0.75 = coord(3/4)
    
    Content
    "... unter diesem Motto hat die Deutsche Bücherei Leipzig am 23. März 2004 auf dem Leipziger Kongress für Bibliothek und Information eine Vortragsreihe initiiert. Vorgestellt wurden Projekte, die sich im Spannungsfeld von Standardisierung und Heterogenität der Sacherschließung bewegen. Die Benutzer unserer Bibliotheken und Informationseinrichtungen stehen heute einer Fülle von Informationen gegenüber, die sie aus zahlreichen Katalogen und Fachdatenbanken abfragen können. Diese Recherche kann schnell zeitraubend werden, wenn der Benutzer mit verschiedenen Suchbegriffen und -logiken arbeiten muss, um zur gewünschten Ressource zu gelangen. Ein Schlagwort A kann in jedem der durchsuchten Systeme eine andere Bedeutung annehmen. Homogenität erreicht man klassisch zunächst durch Normierung und Standardisierung. Für die zwei traditionellen Verfahren der inhaltlichen Erschließung - der klassifikatorischen und der verbalen - haben sich in Deutschland verschiedene Standards durchgesetzt. Klassifikatorische Erschließung wird mit ganz unterschiedlichen Systemen betrieben. Verbreitet sind etwa die Regensburger Verbundklassifikation (RVK) oder die Basisklassifikation (BK). Von Spezial- und Facheinrichtungen werden entsprechende Fachklassifikationen eingesetzt. Weltweit am häufigsten angewandt ist die Dewey Decimal Classification (DDC), die seit 2003 ins Deutsche übertragen wird. Im Bereich der verbalen Sacherschließung haben sich, vor allem bei den wissenschaftlichen Universalbibliotheken, die Regeln für den Schlagwortkatalog (RSWK) durchgesetzt, durch die zugleich die Schlagwortnormdatei (SWD) kooperativ aufgebaut wurde. Daneben erschließen wiederum viele Spezial- und Facheinrichtungen mit selbst entwickelten Fachthesauri.
    Neben die Pflege der Standards tritt als Herausforderung die Vernetzung der Systeme, um heterogene Dokumentenbestände zu verbinden. »Standardisierung muss von der verbleibenden Heterogenität her gedacht werden«." Diese Aufgaben können nur in Kooperation von Bibliotheken und Informationseinrichtungen gelöst werden. Die vorgestellten Projekte zeigen, wie dies gelingen kann. Sie verfolgen alle das Ziel, Informationen über Inhalte schneller und besser für die Nutzer zur Verfügung zu stellen. Fachliche Recherchen über mehrere Informationsanbieter werden durch die Heterogenität überwindende Suchdienste ermöglicht. Die Einführung der DDC im deutschen Sprachraum steht genau im Kern des Spannungsfeldes. Die DDC stellt durch ihren universalen Charakter nicht nur einen übergreifenden Standard her. Ihre Anwendung ist nur nutzbringend, wenn zugleich die Vernetzung mit den in Deutschland bewährten Klassifikationen und Thesauri erfolgt. Ziel des Projektes DDC Deutsch ist nicht nur eine Übersetzung ins Deutsche, die DDC soll auch in Form elektronischer Dienste zur Verfügung gestellt werden. Dr. Lars Svensson, Deutsche Bibliothek Frankfurt am Main, präsentierte anschaulichdie Möglichkeiten einer intelligenten Navigation über die DDC. Für die Dokumentenbestände Der Deutschen Bibliothek, des Gemeinsamen Bibliotheksverbundes (GBV) und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen wurde prototypisch ein Webservice realisiert.
    Dieses DDC-Tool ermöglicht den Zugriff auf lokale, mit DDC-erschlossene Titeldaten. Für einige bereits übersetzte DDC-Klassen kann mithilfe eines Browsers gearbeitet werden. Auch die gezielte verbale Suche nach DDC-Elementen ist möglich. Die Frage nach Aspekten, wie z. B. geografischen, soll durch getrennte Ablage der Notationselemente in den Titeldatensätzen ermöglicht werden. Schließlich lassen sich künftig auch integrierte Suchen über DDC und SWD oder andere Erschließungssysteme denken, um Literatur zu einem Thema zu finden. Das von Lars Svensson vorgestellte Retrieval-Interface bietet eine zentrale Lösung: nicht für jeden lokalen OPAC müssen eigene Suchstrukturen entwickelt werden, um auf DDC-Daten zugreifen zu können. Wie Datenbestände mit verschiedenen Erschließungen unter einer Oberfläche zusammengeführt werden und dabei die DDC als Meta-Ebene genutzt wird, das ist heute schon im Subject Gateway Renardus sichtbar." Der Renardus-Broker ermöglicht das Cross-Browsen und Cross-Searchen über verteilte Internetquellen in Europa. Für die Navigation über die DDC mussten zunächst Crosswalks zwischen den lokalen Klassifikationsklassen und der DDC erstellt werden. Das an der Universitätsbibliothek Regensburg entwickelte Tool CarmenX wurde dazu von der Niedersächsischen Staats- und Universitätsbibliothek Göttingen weiterentwickelt und ermöglicht den Zugriff auf die ver schiedenen Klassifikationssysteme. Über diese Entwicklungen berichtete Dr. Friedrich Geißelmann, Universitäsbibliothek Regensburg. Er leitete das CARMEN-Teilprojekt »Grosskonkordanzen zwischen Thesauri und Klassifikationen«, in dem das Werkzeug CarmenX entstand. In diesem CARMEN-Arbeitspaket erfolgten sowohl grundlegende methodische Untersuchungen zu Crosskonkordanzen als auch prototypische Umsetzungen in den Fachgebieten Mathematik, Physik und Sozialwissenschaften. Ziel war es, bei Recherchen in verteilten Datenbanken mit unterschiedlichen Klassifikationen und Thesauri von einem vertrauten System auszugehen und in weitere wechseln zu können, ohne genaue Kenntnis von den Systemen haben zu müssen. So wurden z. B. im Bereich Crosskonkordanzen zwischen Allgemein- und Fachklassifikationen die RVK und die Mathematical Subject Classification (MSC) und Physics and Astronomy Classification Scheme (PACS) ausgewählt.
    Es wurden immer zwei Klassifikationen aufeinander abgebildet und die jeweiligen Klassen (Notationen) miteinander verknüpft. Friedrich Geißelmann unterstrich die Notwendigkeit weiterer Crosswalks für die integrierte, insbesondere fachübergreifende Suche, wie sie im Internetportal vascoda angeboten wird. Stefan Jakowatz, Informationszentrum Sozialwissenschaften (IZ) Bonn, informierte über die Arbeiten des IZ im Bereich der Heterogenitätsbehandlung. Er stellte die in CARMEN erarbeiteten Crosskonkordanzen im Bereich Thesauri vor. Hier wurden Crosskonkordanzen zwischen der SWD, dem Thesaurus Sozialwissenschaften des IZ und der Schlagwortliste des Deutschen Instituts für Internationale Pädagogische Forschung (DIPF) erstellt. Begriffe aus der Soziologie, Methoden der Sozialforschung, Politikwissenschaft und Bildungsforschung bildeten das Basismaterial. Zusätzlich liegen inzwischen am IZ Verknüpfungen zum Psyndex-Thesaurus und zum Thesaurus der Sociological Abstracts (CSA) vor. Transferkomponenten wurden am IZ Sozialwissenschaften nicht nur durch intellektuell erstellte Crosskonkordanzen, sondern auch mittels quantitativ-statistischer Analysen von Titeldaten geschaffen. Eingesetzt werden diese in der Metasuche der virtuellen Fachbibliothek VibSoz. Dort erfolgt die Suche nach sozialwissenschaftlicher Literatur über die Kernbestände von fünf verschiedenen Bibliotheken und Fachdatenbanken. Die Suchanfragen werden automatisch in die jeweils andere Terminologie übersetzt und führen die Treffer in einer integrierten Liste zusammen. Ähnlich arbeiten die Transfermodule in infoconnex", dem Fachinformationsverbund für Pädagogik, Sozialwissenschaften und Psychologie. Auch hier wird durch die Crosskonkordanzen eine effiziente fachübergreifende Recherche angeboten.
    Katja Heyke, Universitäts- und Stadtbibliothek Köln, und Manfred Faden, Bibliothek des HWWA-Instituts für Wirtschaftsforschung Hamburg, stellten ähnliche Entwicklungen für den Fachbereich Wirtschaftswissenschaften vor. Hier wird eine Crosskonkordanz zwischen dem Standard Thesaurus Wirtschaft (STW) und dem Bereich Wirtschaft der SWD aufgebaut." Diese Datenbank soll den Zugriff auf die mit STW und SWD erschlossenen Bestände ermöglichen. Sie wird dazu weitergegeben an die virtuelle Fachbibliothek EconBiz und an den Gemeinsamen Bibliotheksverbund. Die Crosskonkordanz Wirtschaft bietet aber auch die Chance zur kooperativen Sacherschließung, denn sie eröffnet die Möglichkeit der gegenseitigen Übernahme von Sacherschließungsdaten zwischen den Partnern Die Deutsche Bibliothek, Universitäts- und Stadtbibliothek Köln, HWWA und Bibliothek des Instituts für Weltwirtschaft Kiel. Am Beispiel der Wirtschaftswissenschaften zeigt sich der Gewinn solcher KonkordanzProjekte für Indexierer und Benutzer. Der Austausch über die Erschließungsregeln und die systematische Analyse der Normdaten führen zur Bereinigung von fachlichen Schwachstellen und Inkonsistenzen in den Systemen. Die Thesauri werden insgesamt verbessert und sogar angenähert. Die Vortragsreihe schloss mit einem Projekt, das die Heterogenität der Daten aus dem Blickwinkel der Mehrsprachigkeit betrachtet. Martin Kunz, Deutsche Bibliothek Frankfurt am Main, informierte über das Projekt MACS (Multilingual Access to Subject Headings). MACS bietet einen mehrsprachigen Zugriff auf Bibliothekskataloge. Dazu wurde eine Verbindung zwischen den Schlagwortnormdateien LCSH, RAMEAU und SWD erarbeitet. Äquivalente Vorzugsbezeichnungen der Normdateien werden intellektuell nachgewiesen und als Link abgelegt. Das Projekt beschränkte sich zunächst auf die Bereiche Sport und Theater und widmet sich in einer nächsten Stufe den am häufigsten verwendeten Schlagwörtern. MACS geht davon aus, dass ein Benutzer in der Sprache seiner Wahl (Deutsch, Englisch, Französisch) eine Schlagwortsuche startet, und ermöglicht ihm, seine Suche auf die affilierten Datenbanken im Ausland auszudehnen. Martin Kunz plädierte für einen Integrationsansatz, der auf dem gegenseitigen Respekt vor der Terminologie der kooperierenden Partner beruht. Er sprach sich dafür aus, in solchen Vorhaben den Begriff der Thesaurus föderation anzuwenden, der die Autonomie der Thesauri unterstreicht.
    Wie kann man den Suchenden einen einheitlichen Zugriff auf Inhalte bieten, ganz gleich, in welchem System und mit welcher Methode sie erschlossen sind? Diese Frage hat die Vortragsreihe in unterschiedlichen Ansätzen untersucht. Die bewährten Orientierungssysteme sind für den Zugriff der Benutzer auf verteilte und auch fachübergreifende Bestände nicht mehr ausreichend. Einheitliche und einfache Zugänge zu Informationen in der Onlinewelt erfordern die Integration der vorhandenen Klassifikationen und Thesauri. Solche Transferkomponenten können die verschiedenen Schalen der Inhaltserschließung - verschiedene Erschließungsqualitäten und -niveaus - zusammenführen. Sie helfen Konsistenzbrüche auszugleichen und unsere Erschließungsdaten optimal anzubieten."
  20. Booth, P.F.: Indexing : the manual of good practice (2001) 0.11
    0.11265656 = product of:
      0.15020876 = sum of:
        0.06194977 = weight(_text_:jeden in 2968) [ClassicSimilarity], result of:
          0.06194977 = score(doc=2968,freq=2.0), product of:
            0.4421844 = queryWeight, product of:
              6.3401756 = idf(docFreq=212, maxDocs=44421)
              0.06974324 = queryNorm
            0.1400994 = fieldWeight in 2968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.3401756 = idf(docFreq=212, maxDocs=44421)
              0.015625 = fieldNorm(doc=2968)
        0.051972028 = weight(_text_:und in 2968) [ClassicSimilarity], result of:
          0.051972028 = score(doc=2968,freq=94.0), product of:
            0.15468347 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06974324 = queryNorm
            0.33598953 = fieldWeight in 2968, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=2968)
        0.036286954 = weight(_text_:headings in 2968) [ClassicSimilarity], result of:
          0.036286954 = score(doc=2968,freq=2.0), product of:
            0.33842218 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06974324 = queryNorm
            0.10722393 = fieldWeight in 2968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.015625 = fieldNorm(doc=2968)
      0.75 = coord(3/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.7, S.440-442 (R. Fugmann): "Das Buch beginnt mit dem Kapitel "Myths about Indexing" und mit der Nennung von weit verbreiteten Irrtümern über das Indexieren, und zwar vorrangig über das Registermachen. Mit einem einzigen Satz ist die Problematik treffend skizziert, welcher das Buch gewidmet ist: "With the development of electronic documents, it has become possible to store very large amounts of information; but storage is not of much use without the capability to retrieve, to convert, transfer and reuse the information". Kritisiert wird die weit verbreitet anzutreffende Ansicht, das Indexieren sei lediglich eine Sache vom "picking out words from the text or naming objects in images and using those words as index headings". Eine solche Arbeitsweise führt jedoch nicht zu Registern, sondern zu Konkordanzen (d.h. zu alphabetischen Fundstellenlisten für Textwörter) und"... is entirely dependent an the words themselves and is not concerned with the ideas behind them". Das Sammeln von Information ist einfach. Aber die (Wieder-) Auffindbarkeit herzustellen muss gelernt werden, wenn mehr ermöglicht werden soll als lediglich das Wiederfinden von Texten, die man in allen Einzelheiten noch genau in Erinnerung behalten hat (known-item searches, questions of recall), die Details der sprachlichen Ausdrucksweise für die gesuchten Begriffe eingeschlossen. Die Verfasserin beschreibt aus ihrer großen praktischen Erfahrung, welche Schritte hierzu auf der gedanklichen und technischen Ebene unternommen werden müssen. Zu den erstgenannten Schritten rechnet die Abtrennung von Details, welche nicht im Index vertreten sein sollten ("unsought terms"), weil sie mit Sicherheit kein Suchziel darstellen werden und als "false friends" zur Überflutung des Suchenden mit Nebensächlichkeiten führen würden, eine Entscheidung, welche nur mit guter Sachkenntnis gefällt werden kann. All Dasjenige hingegen, was in Gegenwart und Zukunft (!) ein sinnvolles Suchziel darstellen könnte und "sufficiently informative" ist, verdient ein Schlagwort im Register. Man lernt auch durch lehrreiche Beispiele, wodurch ein Textwort unbrauchbar für das Register wird, wenn es dort als (schlechtes) Schlagwort erscheint, herausgelöst aus dem interpretierenden Zusammenhang, in welchen es im Text eingebettet gewesen ist. Auch muss die Vieldeutigkeit bereinigt werden, die fast jedem natursprachigen Wort anhaftet. Sonst wird der Suchende beim Nachschlagen allzu oft in die Irre geführt, und zwar um so öfter, je größer ein diesbezüglich unbereinigter Speicher bereits geworden ist.
    Der Zugang zum Informationsspeicher ist auch von verwandten Begriffen her zu gewährleisten, denn der Suchende lässt sich gern mit seiner Fragestellung zu allgemeineren und vor allem zu spezifischeren Begriffen leiten. Verweisungen der Art "siehe auch" dienen diesem Zweck. Der Zugang ist auch von unterschiedlichen, aber bedeutungsgleichen Ausdrücken mithilfe einer Verweisung von der Art "siehe" zu gewährleisten, denn ein Fragesteller könnte sich mit einem von diesen Synonymen auf die Suche begeben haben und würde dann nicht fündig werden. Auch wird Vieles, wofür ein Suchender sein Schlagwort parat hat, in einem Text nur in wortreicher Umschreibung und paraphrasiert angetroffen ("Terms that may not appear in the text but are likely to be sought by index users"), d.h. praktisch unauffindbar in einer derartig mannigfaltigen Ausdrucksweise. All dies sollte lexikalisch ausgedrückt werden, und zwar in geläufiger Terminologie, denn in dieser Form erfolgt auch die Fragestellung. Hier wird die Grenze zwischen "concept indexing" gegenüber dem bloßen "word indexing" gezogen, welch letzteres sich mit der Präsentation von nicht interpretierten Textwörtern begnügt. Nicht nur ist eine solche Grenze weit verbreitet unbekannt, ihre Existenz wird zuweilen sogar bestritten, obwohl doch ein Wort meistens viele Begriffe ausdrückt und obwohl ein Begriff meistens durch viele verschiedene Wörter und Sätze ausgedrückt wird. Ein Autor kann und muss sich in seinen Texten oft mit Andeutungen begnügen, weil ein Leser oder Zuhörer das Gemeinte schon aus dem Zusammenhang erkennen kann und nicht mit übergroßer Deutlichkeit (spoon feeding) belästigt sein will, was als Unterstellung von Unkenntnis empfunden würde. Für das Retrieval hingegen muss das Gemeinte explizit ausgedrückt werden. In diesem Buch wird deutlich gemacht, was alles an außertextlichem und Hintergrund-Wissen für ein gutes Indexierungsergebnis aufgeboten werden muss, dies auf der Grundlage von sachverständiger und sorgfältiger Interpretation ("The indexer must understand the meaning of a text"). All dies lässt gutes Indexieren nicht nur als professionelle Dienstleistung erscheinen, sondern auch als Kunst. Als Grundlage für all diese Schritte wird ein Thesaurus empfohlen, mit einem gut strukturierten Netzwerk von verwandtschaftlichen Beziehungen und angepasst an den jeweiligen Buchtext. Aber nur selten wird man auf bereits andernorts vorhandene Thesauri zurückgreifen können. Hier wäre ein Hinweis auf einschlägige Literatur zur Thesaurus-Konstruktion nützlich gewesen.
    Es wird auch die Frage erörtert, wer wegen seines Naturells lieber Abstand vom Indexieren nehmen sollte. Diese Ausführungen sind ebenso nützlich wie die konkrete Indexierungsanleitung. Es könnte manch einem erspart bleiben, sich einer Arbeit zuzuwenden, mit der er überfordert wäre. Hier klärt sich auch die oft gestellte Frage, wer ein Register erstellen soll, der Autor oder ein professioneller Indexer: Der Autor ist dieser Aufgabe gewachsen, sofern er das Indexieren gelernt hat, und zwar mehr als lediglich das Entnehmen von Textwörtern (oder ihrer morphologischen Varianten) und deren programmierte Weiterverarbeitung. Auch darf der Autor beim Indexieren nicht nur die eigene Terminologie im Kopf haben. Der professionelle Indexer ist dieser Aufgabe erst recht gewachsen, wenn er sich auf dem Sachgebiet der Texte gut auskennt. Manch ein Buchautor, der glaubt (oder sich einreden lässt), dass er zum Indexieren nur den Markierstift und die Kenntnis vom Alphabet braucht, müsste sich hier den Spiegel vorhalten, oder auch ein Verleger, der in solchen oder ähnlichen Primitivvarianten eine billige und vollwertige Alternative erblickt. Ein Buch dieser Art lädt zu einem Seitenblick auf die Situation der professionellen Indexierung hierzulande ein. Weder ist hier eine Indexierungs-Profession etabliert, noch scheint sie bei Verlegern und Autoren wenigstens so weit bekannt zu sein, dass sich eine solche Profession entwickeln könnte. Das Ergebnis sind Buchregister voller Anfängerfehler, zum Beispiel überfüllt mit unsinnigen Schlagwörtern (Beispiele hierzu sind in diesem Buch aufgeführt) oder mit Schlagwörtern in unvorhersehbaren und dadurch wertlosen Formulierungen, und dies selbst im informationswissenschaftlichen Lehrbuch oder in der Enzyklopädie. Viele Schlagwörter für wichtige Themen fehlen oftmals gänzlich. Das Nachschlagen gestaltet sich dann zur ungeliebten Mühe und Glücksache. Das Ergebnis sind demzufolge hierzulande Bücher meistens weit unter demjenigen Wert, den sie hätten, wenn sie durch ein gutes Register erschlossen wären.
    Die interpretationslos zusammengestellten "Register" sind auch daran zu erkennen, dass ihnen die informativen, mit viel Sprachgefühl und Sachkenntnis formulierten Untereinträge fehlen, für deren Gestaltung im Buch zahlreiche Ratschläge gegeben werden. Das Resümee von Booth lautet: Wenn ein Indexierungsprogramm brauchbare Ergebnisse erbringen soll, dann kann es nicht vollautomatisch sein. Neben diesen Ausführungen zum gedanklichen Teil der Indexierungsarbeit bietet das Buch auch eine Fülle von Ratschlägen zum rein technischen Teil, speziell zur Orthographie und Typographie des Registers. Vieles, was für den anglo-amerikanischen Sprachraum gilt, könnte direkt für deutschsprachige Register übernommen werden. Dies betrifft z.B. die Singular/PluralFrage bei den Schlagwörtern, die Übersichtlichkeit der Registergestaltung, die Verwendung verschiedener Schriftarten, usw. Ratschläge für die praktische Arbeit werden reichlich gegeben, z.B. wie man sich verhält, wenn der Platz für das Register nachträglich eingeschränkt wird oder wenn zusätzlich Platz zur Verfügung gestellt wird. Man erfährt, wo man sich seine Ausbildung holt (und zwar eine, die über die naive Entnahme von Textwörtern und deren programmierte Weiterverarbeitung hinausgeht), wie man Arbeitsverträge abschließt und Kontakte knüpft, z.B. mit künftigen Auftraggebern oder auch mit Fachkollegen zum Erfahrungsaustausch, wie man sich einen gesunden Arbeitsplatz einrichtet und seine Arbeitszeit einteilen sollte, welche Gesellschaften zum Indexierungsproblem es weltweit gibt und welche Fachzeitschriften man sich halten sollte, um auf dem Laufenden zu bleiben. Es werden auch die Registerprobleme bei einer Neuauflage erörtert. Das Buch möchte eine Anleitung nicht nur zum Buchindexieren geben, sondern auch zum Indexieren von Datenbanken für Zeitschriften. Diesen Anspruch erfüllt das Buch jedoch weniger gut, denn auf die dort akuten Probleme wird nicht genügend eingegangen, wie z.B. auf die Problematik der Präkombinationen und einer retrievaltauglichen Syntax, auf das Problem des schleichenden Verlusts an Vokabularübersichtlichkeit, einer ausreichend hohen (anfänglich stets übertrieben erscheinenden) Indexierungsspezifität und des ständigen Kampfs mit den Controllern und Unternehmensberatern, welche glauben, vorrangig bei der Indexierung Kosten einsparen zu können, weil sie den Nutzen einer guten Indexierung nicht messen können, deswegen nicht zu würdigen wissen (und damit letztlich Fortbestand und Zukunft eines ganzen Dokumentationsunternehmens gefährden). Es ist wohltuend zu lesen, dass Perfektion beim Indexieren aus der Sicht späterer Nutzer "kaum" zu erreichen ist (was im angloamerikanischen Sprachgebrauch so viel bedeutet wie "überhaupt nicht").
    Zwar ist das Register zu diesem Buch ein Vorbild, und dem Verlag sei gedankt, dass dem Register neun Prozent vom Buchumfang zugestanden worden sind. Aber auch hier vermisst man noch immer Schlagwörter wie z.B. "Interpretation" oder "Cutter's Rule" (für die Notwendigkeit, die jeweils besttreffenden Schlagwörter aus dem Indexsprachenwortschatz beim Indexieren zu benutzen), alles Themen, die im Buch abgehandelt sind. Wohltuend ist auch die undogmatische Art, in welcher verschiedene formale Indexierungsvarianten als zulässige Alternativen nebeneinander gestellt werden. Unkonventionell ist es beispielsweise im Register zu diesem Buch, dass ein Schlagwort dort auch schon dann durch Untereinträge aufgegliedert wird, wenn es weniger als fünf bis sechs Fundstellenangaben hat. Wohltuend auch die Unvoreingenommenheit, in welcher die Stärken von nicht interpretierter Volltextverarbeitung dort hervorgehoben werden, wo sie zum Zug kommen können, wie z.B. bei simplen Erinnerungs- und Namenrecherchen. Ein wenig ins Auge springender Ratschlag an jeden, der beruflichen oder privaten Schriftwechsel führt oder Fachliteratur liest, verdient hervorgehoben zu werden. Es ist ratsam, frühzeitig mit einer wenigstens rudimentären Indexierung seines Schrifttums zu beginnen, nicht erst dann, wenn einem seine private Sammlung über den Kopf gewachsen ist und wenn sich die Suchfehlschläge häufen und an den Nerven zu zehren beginnen. Die Erinnerung an den Wortlaut der gesuchten Dokumente, worauf man sich anfänglich noch stützen kann, ist nämlich bald verblasst und steht dann nicht mehr als Suchhilfe zur Verfügung. Allerdings wird man für den Eigenbedarf keine derartig ausführliche Einführung in die Theorie und Praxis des Indexierens benötigen, wie sie in diesem Buch geboten wird. Hierfür gibt es andernorts gute Kurzfassungen. Wer dieses Buch als Indexierungsneuling gelesen hat, wird die Indexierungsarbeit und ein Buchregister fortan mit anderen Augen ansehen, nämlich als einen wesentlichen Teil eines Buchs, besonders wenn es sich um ein Nachschlagewerk handelt. Schon eine kurze Einblicknahme in das Buch könnte das Management, einen Verleger oder einen Buchautor davor warnen, all denjenigen Glauben zu schenken, welche behaupten, den Indexer durch ihr vollautomatisches Computerprogramm ersetzen zu können. Das Indexieren umfasst das Übersetzen als einen Teilschritt, nämlich das Übersetzen der Essenz eines Textes oder eines Bildes in eine Indexsprache mit ihrem geregelten Wortschatz. Was man in der Praxis von vollautomatischen Übersetzungen her kennt, selbst von den bisher am weitesten entwickelten Programmen, sollte hier zur Warnung dienen."

Authors

Languages

  • d 32
  • m 4
  • es 1
  • nl 1
  • More… Less…

Types

  • a 1401
  • m 380
  • el 127
  • s 115
  • i 25
  • n 19
  • b 16
  • r 14
  • x 12
  • p 4
  • ? 3
  • d 3
  • h 3
  • l 2
  • v 1
  • More… Less…

Themes

Subjects

Classifications