Search (11767 results, page 1 of 589)

  • × language_ss:"d"
  1. Altenhöner, R.; Frodl, C.; Gömpel, R.; Jahns, Y.; Junger, U.; Mahnke, C.; Meyer, A.; Pfeifer, B.; Oehlschläger, S.; Svensson, L.G.: Libraries beyond libraries : Integration, Innovation and Information for all Aus den Veranstaltungen der Sektionen Bibliografie, Katalogisierung, Klassifikation und Indexierung, Knowledge Management und Informationstechnologie sowie der Core Activity ICADS der IFLA Division III (Library Services) beim Weltkongress Bibliothek und Information, 77. IFLA-Generalkonferenz in San Juan, Puerto Rico (2011) 0.23
    0.22843486 = product of:
      0.45686972 = sum of:
        0.41522238 = weight(_text_:juan in 1174) [ClassicSimilarity], result of:
          0.41522238 = score(doc=1174,freq=2.0), product of:
            0.58251727 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06320332 = queryNorm
            0.712807 = fieldWeight in 1174, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1174)
        0.041647334 = weight(_text_:und in 1174) [ClassicSimilarity], result of:
          0.041647334 = score(doc=1174,freq=6.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.29710194 = fieldWeight in 1174, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1174)
      0.5 = coord(2/4)
    
  2. Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005) 0.12
    0.12183942 = product of:
      0.24367884 = sum of:
        0.20761119 = weight(_text_:juan in 44) [ClassicSimilarity], result of:
          0.20761119 = score(doc=44,freq=2.0), product of:
            0.58251727 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06320332 = queryNorm
            0.3564035 = fieldWeight in 44, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.02734375 = fieldNorm(doc=44)
        0.036067646 = weight(_text_:und in 44) [ClassicSimilarity], result of:
          0.036067646 = score(doc=44,freq=18.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.2572978 = fieldWeight in 44, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=44)
      0.5 = coord(2/4)
    
    Content
    "Der Spracherkennung am Computer schien vor wenigen Jahren die Zukunft zu gehören. Geradezu euphorisch waren viele Computernutzer, als sich auf den Bildschirmen die ersten gesprochenen Sätze als Text darstellten. Doch die Spracherkennung erwies sich als anfällig, die Nachbearbeitung nahm manchmal mehr Zeit in Anspruch als gespart wurde. Dabei ist die Kommunikation des Menschen mit der Maschine über die Tastatur eigentlich höchst kompliziert - selbst geübte Schreiber sprechen schneller als sie tippen. Deshalb hat sich inzwischen viel getan: Im Preis und in der Genauigkeit sind viele Spracherkennungsprogramme heute alltagsreif. Die besten Systeme kosten aber noch immer mehrere hundert Euro, die günstigsten weisen Lücken auf. Letztlich gilt: Respektable Ergebnisse sind erreichbar, wenn sich der Mensch der Maschine anpasst. Die Stiftung Warentest in Berlin hat die sechs gängigsten Systeme auf den Prüfstand gestellt. Die ersten Ergebnisse waren ernüchternd: Das deutlich gesprochene "Johann Wolfgang von Goethe" wurde als "Juan Wolf kann Mohnblüte", "Jaun Wolfgang von Göbel" oder "Johann-Wolfgang Wohngüte" geschrieben. Grundsätzlich gilt: Bei einem einfachen Basiswortschatz sind die Ergebnisse genau, sobald es etwas spezieller wird, wird die Software erfinderisch. "Zweiter Weltkrieg" kann dann zu "Zeit für Geld kriegt" werden. Doch ebenso wie der Nutzer lernt auch das System. Bei der Software ist Lernfähigkeit Standard. Ohnehin muss der Benutzer das System einrichten, indem er vorgegebene Texte liest. Dabei wird das Programm der Stimme und der Sprechgeschwindigkeit angepasst. Hier gilt, dass der Anwender deutlich, aber ganz normal vorlesen sollte. Wer akzentuiert und übertrieben betont, wird später mit ungenauen Ausgaben bestraft. Erkennt das System auch nach dem Training einzelne Wörter nicht, können sie nachträglich eingefügt werden. Gleiches gilt für kompliziertere Orts- oder Eigennamen. Wie gut das funktioniert, beweist ein Gegentest: Liest ein anderer den selben Text vor, sinkt das Erkennungsniveau rapide. Die beste Lernfähigkeit attestierten die Warentester dem System "Voice Pro 10" von linguatec. Das war das mit Abstand vielseitigste, mit fast 200 Euro jedoch auch das teuerste Programm.
    Billiger geht es mit "Via Voice Standard" von IBM. Die Software kostet etwa 50 Euro, hat aber erhebliche Schwächen in der Lernfähigkeit: Sie schneidet jedoch immer noch besser ab als das gut drei Mal so teure "Voice Office Premium 10"; das im Test der sechs Programme als einziges nur ein "Befriedigend" bekam. "Man liest über Spracherkennung nicht mehr so viel" weil es funktioniert", glaubt Dorothee Wiegand von der in Hannover erscheinenden Computerzeitschrift "c't". Die Technik" etwa "Dragon Naturally Speaking" von ScanSoft, sei ausgereift, "Spracherkennung ist vor allem Statistik, die Auswertung unendlicher Wortmöglichkeiten. Eigentlich war eher die Hardware das Problem", sagt Wiegand. Da jetzt selbst einfache Heimcomputer schnell und leistungsfähig seien, hätten die Entwickler viel mehr Möglichkeiten."Aber selbst ältere Computer kommen mit den Systemen klar. Sie brauchen nur etwas länger! "Jedes Byte macht die Spracherkennung etwas schneller, ungenauer ist sie sonst aber nicht", bestätigt Kristina Henry von linguatec in München. Auch für die Produkte des Herstellers gelte jedoch, dass "üben und deutlich sprechen wichtiger sind als jede Hardware". Selbst Stimmen von Diktiergeräten würden klar, erkannt, versichert Henry: "Wir wollen einen Schritt weiter gehen und das Diktieren von unterwegs möglich machen." Der Benutzer könnte dann eine Nummer anwählen, etwa im Auto einen Text aufsprechen und ihn zu Hause "getippt" vorfinden. Grundsätzlich passt die Spracherkennungssoftware inzwischen auch auf den privaten Computer. Klar ist aber, dass selbst der bestgesprochene Text nachbearbeitet werden muss. Zudem ist vom Nutzer Geduld gefragt: Ebenso wie sein System lernt, muss der Mensch sich in Aussprache und Geschwindigkeit dem System anpassen. Dann sind die Ergebnisse allerdings beachtlich - und "Sexterminvereinbarung" statt "zwecks Terminvereinbarung" gehört der Vergangenheit an."
  3. Schnelling, H.M.: Shakespeare im Schlagwortkatalog : Vergleichende Untersuchungen anglo-amerikanischer und deutscher Praxis verbaler Sacherschließung (1983) 0.11
    0.11322636 = product of:
      0.22645272 = sum of:
        0.029147059 = weight(_text_:und in 1216) [ClassicSimilarity], result of:
          0.029147059 = score(doc=1216,freq=4.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.20792803 = fieldWeight in 1216, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1216)
        0.19730566 = weight(_text_:headings in 1216) [ClassicSimilarity], result of:
          0.19730566 = score(doc=1216,freq=8.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.64334357 = fieldWeight in 1216, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1216)
      0.5 = coord(2/4)
    
    Content
    Teilw. zugl.: Köln, Fachhochschule für Bibliotheks- und Dokumentationswesen, Hausarbeit zur Laufbahnprüfung für den Höheren Bibliotheksdienst
    LCSH
    Subject headings / Literature
    Subject headings / Shakespeare, William, 1564 / 1616
    Subject
    Subject headings / Literature
    Subject headings / Shakespeare, William, 1564 / 1616
  4. Schneider, K.: Über den Musik-Thesaurus und die inhaltliche Erschliessung von Musik (1996) 0.11
    0.10675084 = product of:
      0.21350168 = sum of:
        0.02748011 = weight(_text_:und in 3558) [ClassicSimilarity], result of:
          0.02748011 = score(doc=3558,freq=2.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.19603643 = fieldWeight in 3558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3558)
        0.18602157 = weight(_text_:headings in 3558) [ClassicSimilarity], result of:
          0.18602157 = score(doc=3558,freq=4.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.60655016 = fieldWeight in 3558, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=3558)
      0.5 = coord(2/4)
    
    Abstract
    Lecture given at the AIBM conference, Karlsruhe, Sep 95. The thesaurus appeared 1st in 1982, produced according to DIN standard 1463. This standard is largely adhered to, with 2 deviations: the controlled vocabulary is rather universal, covering more than 1 musical field, and descriptors are used as systematic collection points, with non-decriptors as subordinate headings. The 1994 edition has widened its contents range. There are still problems with ambiguity of headings and titles
  5. Oberhauser, O.: Inhaltliche Erschließung im Verbund : Die aktuelle Situation in Österreich (2013) 0.10
    0.09649225 = product of:
      0.1929845 = sum of:
        0.061447397 = weight(_text_:und in 2092) [ClassicSimilarity], result of:
          0.061447397 = score(doc=2092,freq=10.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.4383508 = fieldWeight in 2092, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2092)
        0.13153711 = weight(_text_:headings in 2092) [ClassicSimilarity], result of:
          0.13153711 = score(doc=2092,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.4288957 = fieldWeight in 2092, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=2092)
      0.5 = coord(2/4)
    
    Abstract
    Der Beitrag zeichnet ein aktuelles Bild der inhaltlichen Erschließung im Österreichischen Verbundkatalog, insbesondere in quantitativer Hinsicht. Um den Entwicklungsverlauf zu illustrieren, werden dazu Daten von 2005 bis 2013 präsentiert. Im Detail geht es um die verbale Sacherschließung durch RSWKbasierte Schlagwortfolgen und englischsprachige Subject Headings, sowie die klassifikatorische Erschließung mittels Basisklassifikation, Dewey Dezimalklassifikation und Regensburger Verbundklassifikation. Im Zusammenhang mit der Basisklassifikation wird auch von Anreicherungsprojekten mittels Konkordanzen und Datenübernahmen berichtet. Ausserdem werden Neuerungen bei der Suche und Anzeige klassifikatorischer Sacherschließungselemente in den Rechercheinstrumenten des Verbundes dargestellt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 66(2013) H.2, S.231-249
  6. Scharmann, U.: Anwendung der Regeln für den Schlagwortkatalog (RSWK) in öffentlichen Bibliotheken. Abschlußbericht zum dbi-Projekt 11.35 (1989) 0.08
    0.08433162 = product of:
      0.16866323 = sum of:
        0.029147059 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.029147059 = score(doc=1203,freq=4.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.20792803 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
        0.13951617 = weight(_text_:headings in 1203) [ClassicSimilarity], result of:
          0.13951617 = score(doc=1203,freq=4.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.4549126 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
      0.5 = coord(2/4)
    
    Classification
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    LCSH
    Subject headings, German
    RVK
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    Subject
    Subject headings, German
  7. Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009) 0.08
    0.08334116 = product of:
      0.16668232 = sum of:
        0.024289217 = weight(_text_:und in 26) [ClassicSimilarity], result of:
          0.024289217 = score(doc=26,freq=4.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.17327337 = fieldWeight in 26, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
        0.1423931 = weight(_text_:headings in 26) [ClassicSimilarity], result of:
          0.1423931 = score(doc=26,freq=6.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.46429324 = fieldWeight in 26, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
      0.5 = coord(2/4)
    
    Abstract
    Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
  8. Schult, T.J.: Lernen vom Schinken in Scheiben : Was taugen die aktuellen Enzyklopädien auf CD-ROM und DVD? Ein Test (2004) 0.08
    0.0796393 = product of:
      0.1592786 = sum of:
        0.11863497 = weight(_text_:juan in 924) [ClassicSimilarity], result of:
          0.11863497 = score(doc=924,freq=2.0), product of:
            0.58251727 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06320332 = queryNorm
            0.20365915 = fieldWeight in 924, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.015625 = fieldNorm(doc=924)
        0.040643632 = weight(_text_:und in 924) [ClassicSimilarity], result of:
          0.040643632 = score(doc=924,freq=70.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.2899418 = fieldWeight in 924, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=924)
      0.5 = coord(2/4)
    
    Abstract
    Enzyklopädien waren früher eine Anschaffung fürs Leben. Ihre multimedialen Versionen sind inzwischen so preiswert, dass man sich öfter eine neue leisten kann. Es haben sich daher zwei Fraktionen gebildet: Die eine stemmt lieber eine schmucke 20-bändige Schwartensammlung über den Kamin. Suchen heißt für sie: blättern. Die andere liebt es, wenn sich im Rechner eine CD-ROM oder DVD dreht und die Inhalte auf den Bildschirm wirft. Im ZEIT-Enzyklopädientest treten die aktuellen Multimedia-Ausgaben zum Vergleich an. Dabei müssen sie sich an der kostenlosen Wikipedia messen, dem beliebten Wissensspender im Internet.
    Content
    "Gute Multimedia-Enzyklopädien versammeln den Inhalt von 15 bis 20 dicken Wälzern auf CD-ROM oder DVD. Die zumeist deutlich billigeren Enzyklopädien für den Computer ermöglichen eine vielfältige Vernetzung von Information: Gliederungen, Begriffserklärungen, thematisch verwandte Artikel, Landkarten und Zeitleisten sind nur einen Mausklick entfernt. Auch Multimedia-Beigaben öffnen sich im Nu: Grafiken, Tabellen, Fotos, Animationen, Film- und Tondokumente illustrieren die Artikel. Der »gläserne Mensch« von Brockhaus entledigt sich auf Kommando der Haut, Muskeln, Gefäße oder Organe. Die Suche nach Artikeln beginnt, wenn man den Begriff auf dem Bildschirm ins Eingabefeld tippt. In einer guten elektronischen Enzyklopädie startet dann ein zweistufiger Prozess aus Stichwort- und Volltextsuche, der mit der Ausgabe einer Trefferliste endet. Oben in der Liste sind Artikel genannt, die den Suchbegriff im Titel haben (also etwa »Wittgenstein, Ludwig« bei Eingabe von »Wittgenstein«), darunter die Artikel, die den Suchbegriff irgendwo außerhalb des Titels enthalten (in diesem Fall etwa »Analytische Philosophie«). Wer mehrere Begriffe eintippt, kann sie unterschiedlich verknüpfen. Reicht es, wenn die Artikel einen der Suchbegriffe enthalten? Sollen alle drin sein? Gar alle direkt hintereinander (Wortfolgensuche)? Wer seiner Enzyklopädie durch Kommentare, Lesezeichen, Web-Links oder eigene Artikel eine persönliche Note geben möchte, kann dies am Computer beliebig oft tun, ohne das Missfallen von Mitlesern zu erregen. Steht etwa ein Referat an, mutieren bessere Werke zudem zum Recherche-Assistenten, der das Sammeln, Sortieren und Nutzen von Textstellen durch eine Art virtuellen Karteikasten plus Textverarbeitung unterstützt.
    Um einen aussagekräftigen Vergleich zu ermöglichen, mussten sich die Enzyklopädien einer inhaltlichen Überprüfung stellen: Eine Batterie von jeweils sieben Testbegriffen aus 21 Wissensbereichen stand bereit, von Acetatseide bis Zwölftafelgesetz. Die zu diesen Begriffen gefundenen Informationen wurden verglichen und bewertet. Am Ende gab es dafür in den Bereichen Naturwissenschaft/Technik, Geistes-/Gesellschaftswissenschaften und Kultur eine Note. Dabei kam es hauptsächlich auf Qualität und Breite der Texte an, weil diese in der Praxis eine weit größere Rolle als die Medienbeigaben spielen. Diese sind in einer eigenen Multimedia-Note berücksichtigt. Die Note »Aktualität« bewertet, wie die Lexika bei Themen abschneiden, die in den letzten Monaten eine besondere Rolle in der öffentlichen Diskussion spielten: »Hartz« und »Rechtschreibreform«, »Phishing« und »Novel Food«, »Gesine Schwan« und »John Kerry« beispielsweise. Eine weitere Note würdigt die Vielfalt der Suchmöglichkeiten, und schließlich stand auch die Bedienung auf dem Prüfstand. Wenn etwa Stichwort- und Volltextsuche nur getrennt durchgeführt werden können oder wenn Text und Bild nicht gleichzeitig zu sehen sind, führte dies zur Abwertung. Bei denTexten steht die Wikipedia mit ihren rund 150000 deutschsprachigen Artikeln an erster Stelle. Das kostenfreie Online-Projekt Tausender Freiwilliger schaffte es durch sein explosives Wachstum in den letzten Monaten, Brockhaus und Encarta zu toppen. Meilenweit ist ihr Vorsprung in puncto Aktualität: Bei keinem anderen Lexikon finden sich so ausführliche Artikel zu Themen wie »DVB-T«, »Attac«, »Horst Köhler« oder »Mars Express«. Wer sich Sorgen um die Qualität der Artikel macht, weil keine etablierte Redaktion verantwortlich zeichnet, kann beruhigt sein: Wir ließen die meisten überprüften Wikipedia-Artikel zusätzlich von Fachleuten der jeweiligen Wissensbereiche beurteilen, die durchweg angetan waren. Zwar haben die Texte hier und da noch Lücken, aber sie machen diese durch präzise und ausführliche Beschreibungen an anderen Stellen wett. Und jeder kann sich als Lückenfüller engagieren: Ein Klick auf den Link »Artikel bearbeiten« macht den Leser zum Autor.
    Großer Nachteil bei Wikipedia: Der Benutzer blickt meist auf Textwüsten. Auf andere Medienbeigaben muss er ganz verzichten. Außerdem findet er nicht sofort Unterstützung bei komplexen Suchanfragen; selbst Stichwort- und Volltextsuche muss er getrennt starten. Und schließlich muss er online sein - es sei denn, er besorgt sich eine Momentaufnahme des Artikelbestands zum Download oder auf Silberscheibe. So verkauft in wenigen Tagen der Berliner Verlag Directmedia erstmals die (halbjährlich aktualisierte) deutsche Wikipedia auf CD-ROM für drei Euro im Buchhandel. Nur im naturwissenschaftlichen Bereich muss die Wikipedia ihre Spitzenposition teilen: mit dem Brockhaus »multimedial premium«, dem einst der gedruckte Brockhaus in 15 Bänden zugrunde lag. Mittlerweile bietet er Extras wie Englischwörterbuch, interaktiven Atlas und diverse Begleitmedien, vom Tagesschau-Film über die Tschernobyl-Explosion bis zum interaktiven Bamberg-Panorama. In fast allen geprüften Wissensbereichen zeigte sich der Brockhaus in der Spitzengruppe, lediglich Sport und Geschichte können andere besser. Für Verwirrung sorgt dieses Jahr allerdings, dass viele Artikel mehrfach vorkommen und sich dabei oft ähneln. Brockhaus nahm in den letzten Jahren verschiedene Speziallexika in den Artikelbestand auf und überlässt die Integration bisweilen dem Leser.
    Erstmals läuft der Brockhaus nun auch unter Linux und Mac OS X und ermöglicht auf allen Plattformen eine konkurrenzlos flexible Recherche: Suchbegriffe lassen sich etwa mit »und«, »oder«, »nicht« und »nahe bei« verknüpfen; die »Schreibungstoleranz« sucht auf Wunsch auch nach bloß ähnlichen Wörtern. Selbst wenn Artikel nicht direkt aufeinander verweisen, kann ein mit computerlinguistischen Methoden erzeugtes »Wissensnetz« einen Bezug herstellen und (manchmal originelle) Vorschläge zum Weiterlesen präsentieren. Die Textbasis des nur halb so teuren Standard-Brockhaus schnitt im Test fast genauso gut ab wie die der Premium-Version. Wer noch mehr sparen muss, kann den Inhalt des 149 Euro teuren 26-bändigen Großen Taschenlexikons von Meyer plus Begleitmedien für ganze 16 Euro auf den Computer bringen: Meyer - Das multimediale Lexikon 2004 heißt das ebenfalls aus der Brockhaus-Redaktion stammende, allerdings dieses Jahr nicht aktualisierte Produkt. Einziger Text-Unterschied zum Standard-Brockhaus: Schätzungsweise jeder zehnte Artikel musste deutliche Kürzungen hinnehmen. Microsofts Encarta Professional liefert sich seit Jahren ein Kopf-an-Kopf-Rennen mit dem Brockhaus, in der Qualität wie in den Marktanteilen. Auch unser Wissenstest zeigt, dass die Rivalen fast ebenbürtig sind. Lediglich in den Bereichen Politik, Literatur und Mythen hat die Encarta einen deutlichen Vorsprung vor allen anderen Titeln. Sowohl Multimedia-Ausstattung (mit dem besten elektronischen Atlas überhaupt) als auch Bedienungskomfort lassen kaum Wünsche offen. Wer auf ein Drittel der Artikel verzichten kann, zahlt sogar nur 30 Euro für die Standardausgabe.
    Seltsamerweise verliert Microsofts Encarta kein Wort darüber, wie man Suchbegriffe kombinieren kann, selbst in der Hilfefunktion nicht. Auch eine wichtige Einschränkung verschweigt sie: Sie ignoriert zweibuchstabige Suchbegriffe - Pech für den »PC«, der sich auch als »IBM-PC« kaum finden lässt. Bei Umlauten ist die Encarta zudem ungenau; eine Stichwortsuche nach »Döner« liefert auch »Don Juan«. Schließlich interpretiert sie jede Anfrage so, als würde man auch nach Artikeln suchen, die das Suchwort am Anfang eines längeren Wortes stehen haben: Die Suche nach »Kakao« findet auch »Kakaobohne«. Das ist aber nicht immer erwünscht: Wer nach der Eishockey-Liga »DEL« sucht, ertrinkt in einer Liste von irrelevanten Treffern (»Delft«, »Delhi«). Steht eine komplexere Recherche an, ist Experimentieren angesagt. Zwischen die Suchbegriffe darf der Anwender »oder«, »nicht« oder »nahe bei« schreiben und damit spezielle Verknüpfungen veranlassen - oder er setzt Anführungszeichen für Wortfolgen ein. Aber warum verliert Microsoft über alle diese Möglichkeiten kein Wort? Die anderen Lexika spielen inhaltlich eine Liga tiefer. Bertelsmann hat das wohl eingesehen und zum ersten Mal seit zwölf Jahren keine neue Version seiner mittlerweile unter dem Label Wissen.de vertriebenen elektronischen Enzyklopädien auf dem Markt - die Texte fanden sich ohnehin auch auf dem kostenlosen Web-Portal gleichen Namens. Data Becker mischt unverdrossen mit, produziert Jahr für Jahr ein unterhaltsames, leicht zu bedienendes Lexikon, das sich in Aufmachung und Stil auch an jüngere Nutzer wendet. Wer es genauer wissen will, stößt jedoch rasch an Grenzen. Das Universallexikon 2005 bietet noch dünnere Texte und eine bemerkenswert unfreundliche Oberfläche, die Nachschlagen zur Qual macht. Wer im Volltext nach zwei Suchbegriffen gleichzeitig sucht, erntet zudem eine Fehlermeldung. Bleibt die (englischsprachige) Encyclopaedia Britannica 2005 DVD mit dem aktualisierten Inhalt des legendären 32-Bänders; im naturwissenschaftlichen Bereich glänzt sie mit ausgezeichneten Texten. Über Sport oder aktuelle Themen sollte man sie lieber nicht befragen. Doch allein die 165000 gut sortierten Web-Links sind den Preis wert, der sich für die Vorvorjahresversion auf 14,95 Euro (bei www.zweitausendeins.de) reduziert."
  9. Berg-Schorn, E.: MeSH 2006: Deutsche Version lieferbar (2006) 0.08
    0.07916682 = product of:
      0.15833364 = sum of:
        0.042070154 = weight(_text_:und in 959) [ClassicSimilarity], result of:
          0.042070154 = score(doc=959,freq=12.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.30011827 = fieldWeight in 959, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
        0.11626349 = weight(_text_:headings in 959) [ClassicSimilarity], result of:
          0.11626349 = score(doc=959,freq=4.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.37909386 = fieldWeight in 959, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
      0.5 = coord(2/4)
    
    Abstract
    Beim DIMDI erhalten Sie ab sofort die aktuelle deutsche Übersetzung des Thesaurus Medical Subject Headings (MeSH) 2006 der National Library of Medicine (NLM). Auf Anfrage liefern wir die neue Version 11.0 (Stand 2006) als kostenpflichtige XML-Datei auf CD-ROM. Gegenüber 2005 enthält derThesaurus 933 neue Deskriptoren. Andere wurden nach der aktuellen Terminologie umbenannt, obsolete Benennungen entfielen ganz. Da jede Deskriptorklasse in Konzepte und Unterkonzepte mit zugehörigen Begriffen unterteilt ist, beträgt die tatsächliche Zahl neuer Bezeichnungen etwa das Fünffache. Der laufend weiterentwickelte Thesaurus umfasst jetzt 23.880 Hauptschlagwörter (Main Headings). Zum Vergleich: vor zehn Jahren gab die NLM erst 18.436 Deskriptoren an. Zuwachs verzeichnet vor allem die Kategorie Chemische Substanzen, Drogen und Arzneimittel mit 684 neuen Schlagwörtern. Zahlreiche neue Begriffe enthalten auch die Kategorien Organismen, Krankheiten, Biowissenschaften, Anatomie sowie Analytische, diagnostische und therapeutische Verfahren und Geräte. Neue Deskriptoren sind beispielsweise Kalziumaktivierte Kaliumkanäle mit großer Leitfähigkeit, Tritonia-Meeresschnecke, Mesangiumzellen oder Bariatrische Chirurgie. Das DIMDI übersetzt den MeSH in enger Anlehnung an die amerikanische Vorlage und ist offizieller Herausgeber der deutschen Version (inkl. Urheberrechte). Der Thesaurus ist Bestandteil des UMLS (Unified Medical Language System) der NLM. Übersetzungen liegen auch in Finnisch, Französisch, Italienisch, Portugiesisch, Russisch und Spanisch vor.
  10. Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007) 0.08
    0.07659099 = product of:
      0.15318199 = sum of:
        0.054529153 = weight(_text_:und in 1557) [ClassicSimilarity], result of:
          0.054529153 = score(doc=1557,freq=14.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.38899773 = fieldWeight in 1557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
        0.09865283 = weight(_text_:headings in 1557) [ClassicSimilarity], result of:
          0.09865283 = score(doc=1557,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.32167178 = fieldWeight in 1557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
      0.5 = coord(2/4)
    
    Abstract
    Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  11. Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003) 0.08
    0.07651266 = product of:
      0.15302531 = sum of:
        0.070814624 = weight(_text_:und in 5524) [ClassicSimilarity], result of:
          0.070814624 = score(doc=5524,freq=34.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.50517434 = fieldWeight in 5524, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
        0.08221069 = weight(_text_:headings in 5524) [ClassicSimilarity], result of:
          0.08221069 = score(doc=5524,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.26805982 = fieldWeight in 5524, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
      0.5 = coord(2/4)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Daten-, Literatur- und Faktendokumentation enthält neben zahlreichen Übungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit Antworten. Das Buch ist von zentraler Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Das Thema gewinnt aber auch an Bedeutung für Wissenschaftler aller Fachrichtungen. Das Buch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden vierten Auflage werden insbesondere Entwicklungen im Bereich des Internets und der Informationssysteme berücksichtigt.
    Content
    Zweck und Grundzüge der Dokumentation.- Begriff und Wesen der Information.- Dateien und Informationsspeicher.Referate.- Ordnungsprinzip Klassifikation.- Hierarchische Begriffsstrukturen.- Alphabetisches Sortieren und systematisches Anordnen.- Die Klassfikationen ICD-10 und ICPM.- Ordnungsprinzip Register.- Beispiel einer Dokumentation mit Registern.- Ordnungsprinzip Fassettenklassifikation.- Ordnungsprinzip Begriffskombination.- Struktur eines Ordnungssystems.Beispielthesaurus Gebäude.- Ordnungssystem Medical Subject Headings (MeSH).- Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren.- Dokumenten-Deskriptoren-Matrix.Relevanz- und Vollzähligkeitsrate.- Recherchieren und Suchstrategien.- Dokumentations- und Retrievalsysteme.Aktive Informationsdienste.- Revision eines Ordnungssystems.
  12. Jungk, S.: ¬Die Erschließung der Belletristik und Kinder- und Jugendliteratur im Sachkatalog der Deutschen Nationalbibliothek Leipzig (2008) 0.07
    0.074549936 = product of:
      0.14909987 = sum of:
        0.0340049 = weight(_text_:und in 3173) [ClassicSimilarity], result of:
          0.0340049 = score(doc=3173,freq=4.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.24258271 = fieldWeight in 3173, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3173)
        0.11509497 = weight(_text_:headings in 3173) [ClassicSimilarity], result of:
          0.11509497 = score(doc=3173,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.37528375 = fieldWeight in 3173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3173)
      0.5 = coord(2/4)
    
    Abstract
    In its overall function as the archive of all German-language publications, the German National Library also collects and catalogues German-language literary works. Belles-lettres as well as children's and youth literature form a considerable part of the library's collection. From 1913 until 1990, the titles were assigned subject headings, were filed in the library's card subject catalogue according to genres and languages and (within these categories) were further divided into formal aspects, themes and motifs. The subject indexing of belles-lettres and children's and youth literature is unique in its scope and depth.
  13. Gesell, J.: Neuauflage der Internationalen Patentklassifikation : incompatibility issues of library classification systems and subject headings in subject cataloguing (1986) 0.07
    0.0699365 = product of:
      0.139873 = sum of:
        0.041220162 = weight(_text_:und in 3644) [ClassicSimilarity], result of:
          0.041220162 = score(doc=3644,freq=8.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.29405463 = fieldWeight in 3644, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3644)
        0.09865283 = weight(_text_:headings in 3644) [ClassicSimilarity], result of:
          0.09865283 = score(doc=3644,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.32167178 = fieldWeight in 3644, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=3644)
      0.5 = coord(2/4)
    
    Abstract
    Die internationale Patentklassifikation (IPC) ist mit ihrer 4. Aufl. in Englisch, Französisch und Deutsch erschienen. Sie trat am 1.1.1985 weltweit für 5 Jahre in Kraft und ersetzt seitdem die seit 1980 geltende IPC3. Die Zahl der Verzweigungen und Symbole stieg mit der letzten Auflage auf nun rund 58.500 Gruppen. Die Einführung der sog. Hybrid-Systeme mit Index-Symbolen ist sicherlich die gravierendste Neuerung in IPC4. Bisher war die IPC monohierarchisch aufgebaut, d.h. für jeden technischen Sachverhalt gab es nur eine passende Stelle im ganzen Einteilungssystem. Der erste Schritt ist nun zu einem multihierarchischen Aufbau getan. Auf bestimmten Sachgebieten ist es möglich, die mit obligatorischen Klassifikationssymbolen erfaßten Informationen mit zusätzlichen, nicht-obligatorischen Symbolen zu verknüpfen
    Source
    Die Klassifikation und ihr Umfeld: Proc. 10. Jahrestagung der Gesellschaft für Klassifikation, Münster, 18.-21.6.1986. Hrsg.: P.O. Degens
  14. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.07
    0.06686795 = product of:
      0.1337359 = sum of:
        0.051525205 = weight(_text_:und in 4206) [ClassicSimilarity], result of:
          0.051525205 = score(doc=4206,freq=18.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.36756828 = fieldWeight in 4206, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
        0.08221069 = weight(_text_:headings in 4206) [ClassicSimilarity], result of:
          0.08221069 = score(doc=4206,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.26805982 = fieldWeight in 4206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
      0.5 = coord(2/4)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
    Content
    Editorial zu einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl-: http://0277.ch/ojs/index.php/cdrs_0277/article/view/159/349.
  15. Ostrzinski, U.: Deutscher MeSH : ZB MED veröffentlicht aktuelle Jahresversion 2022 - freier Zugang und FAIRe Dateiformate (2022) 0.07
    0.06593677 = product of:
      0.13187353 = sum of:
        0.038862746 = weight(_text_:und in 1626) [ClassicSimilarity], result of:
          0.038862746 = score(doc=1626,freq=16.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.2772374 = fieldWeight in 1626, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1626)
        0.09301078 = weight(_text_:headings in 1626) [ClassicSimilarity], result of:
          0.09301078 = score(doc=1626,freq=4.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.30327508 = fieldWeight in 1626, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=1626)
      0.5 = coord(2/4)
    
    Abstract
    Die aktuelle Ausgabe 2022 der deutschen Ausgabe der Medical Subject Headings (MeSH) steht ab sofort zum Download in verschiedenen FAIRen Dateiformaten sowie als XML- und CSV-Datei unter der CC BY 4.0-Lizenz bereit. Zu den semantisch FAIRen Formaten, die ZB MED anbietet, zählen beispielsweise RDF/XML oder JSON-LD. Sie ermöglichen es etwa Software-Lösungen zur Datenanalyse - auch mit künstlicher Intelligenz -, die Daten direkt zu nutzen. Sie müssen nicht zusätzlich konvertiert und aufbereitet werden.
    Content
    "ZB MED bietet für die deutschsprachigen MeSH-Begriffe einen Internationalized Resource Identifier (IRI) an. Der IRI-Service stellt auf einer HTML-Seite alle Informationen für einen deutschen MeSH-Term bereit und ermöglicht so die Versionierung. Die Sichtbarkeit veralteter, aber in der Vergangenheit genutzter Terme ist im Sinne der FAIR-Prinzipien dadurch weiterhin gewährleistet. Für die Übersetzung der Medical Subject Headings nutzt ZB MED den eigens entwickelten TermCurator. Das semiautomatische Übersetzungstool bietet unter anderem einen integrierten mehrstufigen Kuratierungsprozess. Der MeSH-Thesaurus als polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Darüber hinaus ist er eine der wichtigsten Quellen für ein kontrolliertes biomedizinisches Fachvokabular - beispielsweise für die Kategorisierung und Analyse von Literatur- und Datenquellen.
    Der MeSH ist ein polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Er wird jährlich aktualisiert von der U. S. National Library of Medicine herausgegeben. Für die deutschsprachige Fassung übersetzt ZB MED dann die jeweils neu hinzugekommenen Terme und ergänzt sie um zusätzliche Synonyme. Erstmalig erstellte ZB MED den Deutschen MeSH im Jahr 2020. Vorher lag die Verantwortung beim Deutschen Institut für Medizinische Dokumentation und Information (DIMDI/BfArM)."
  16. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2005) 0.07
    0.06583177 = product of:
      0.13166355 = sum of:
        0.06589499 = weight(_text_:und in 1679) [ClassicSimilarity], result of:
          0.06589499 = score(doc=1679,freq=46.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.47007886 = fieldWeight in 1679, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1679)
        0.065768555 = weight(_text_:headings in 1679) [ClassicSimilarity], result of:
          0.065768555 = score(doc=1679,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.21444786 = fieldWeight in 1679, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=1679)
      0.5 = coord(2/4)
    
    Abstract
    Dokumentation und Information Retrieval, also das gezielte Wiederauffinden von Informationen zu thematisch-inhaltlichen Fragestellungen sind wichtiger als je zuvor. Die hier vorliegende theoretisch fundierte und praxisorientierte Darstellung der Literatur-, Daten- und Faktendokumentation enthält viele instruktive Beispiele und praktische Übungen sowie einen umfassenden Beispielthesaurus und behandelt ausführlich Ordnungs- und Retrievalsysteme. Jedes Thema wird mit zahlreichen Prüfungsfragen abgeschlossen. Die detaillierten Antworten zu den insgesamt 195 Fragen umfassen alleine etwa 60 Seiten, Dieses Lehrbuch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. Die fünfte Auflage ist aktualisiert und erweitert worden.
    Classification
    AN 93200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Ordnungslehre, Systematik
    AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis
    Content
    Aus dem Inhalt: - Zweck und Grundzüge der Dokumentation - Begriff und Wesen der Information - Dateien und Informationsspeicher - Referate - Ordnungsprinzip Klassifikation - Hierarchische Begriffsstrukturen - Alphabetisches Sortieren und systematisches Anordnen - Die Klassifikationen ICD-10 und ICPM - Ordnungsprinzip Register - Beispiel einer Dokumentation mit Registern - Ordnungsprinzip Fassettenklassifikation - Ordnungsprinzip Begriffskombination - Struktur eines Ordnungssystems - Beispielthesaurus Gebäude - Ordnungssystem Medical Subject Headings (MeSH) - Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren - Dokumenten-Deskriptoren-Matrix - Relevanz- und Vollzähligkeitsrate - Recherchieren und Suchstrategien - Dokumentations- und Retrievalsysteme - Aktive Informationsdienste - Revision eines Ordnungssystems.
    RVK
    AN 93200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Ordnungslehre, Systematik
    AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis
  17. ¬Die Schlagwortnormdatei: Entwicklungsstand und Nutzungsmöglichkeiten : Vorträge eines Kolloquiums zur Schlagwortnormdatei (SWD) in Frankfurt a.M. am 5. und 6.10.1990. Zusammengestellt u. hrsg. von Werner Stephan (1990) 0.07
    0.065477334 = product of:
      0.13095467 = sum of:
        0.049570236 = weight(_text_:und in 4363) [ClassicSimilarity], result of:
          0.049570236 = score(doc=4363,freq=34.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.35362202 = fieldWeight in 4363, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4363)
        0.081384435 = weight(_text_:headings in 4363) [ClassicSimilarity], result of:
          0.081384435 = score(doc=4363,freq=4.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.2653657 = fieldWeight in 4363, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4363)
      0.5 = coord(2/4)
    
    Abstract
    Der Band enthält verschiedene Beiträge zur kooperativen Pflege der Schlagwortnormdatei, ihrer Nutzung in verschiedenen Katalog- und Verbundumgebungen, der Nutzung von SWD-Einträgen (RSWK-Schlagwörtern) für Online-Kataloge sowie verwandter Themenstellungen.
    Classification
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    AN 50200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Schriftenreihen (Indiv.-Sign.)
    Content
    Enthält die Beiträge: KELM, B. u. M. KUNZ: Die SWD als Arbeitsinstrument für die Sacherschließung der Deutschen Bibliothek und die CD-ROM-Ausgabe der Deutschen Bibliographie als Beispiel für einen OPAC mit RSWK-Ketten; GÖDERT, W.: Aufbereitung und Recherche von nach RSWK gebildeten Daten in der CD-ROM Ausgabe der Deutschen Bibliographie; STEPHAN, W.: Kooperative Dateiführung und redaktionelle Aufgaben der Deutschen Bibliothek; GEIßELMANN, F.: Aus der Arbeit der zentralen Redaktion des bayerischen Verbundes für die SWD; SCHUBERT, H.J.: Aus der Arbeit der zentralen Redaktion München des bayerischen Verbundes für die SWD; TRAISER, W.: Derzeitiger Stand der SWD-Systematisierung und erste Überlegungen zu ihrer Weiterentwicklung; LOTH, K.: Strukturierung der Schlagworte der Schlagwortnormdatei; RINN; R.: Beziehungen zu anderen Normdateien bzw. Normdaten; AUER, G.: EDV-Einsatz und Sacherschließung an den österreichischen wissenschaftlichen Bibliotheken; HÖHNE, H.: Überlegungen über eine mögliche Anwendung der RSWK sowie Mitwirkung an der SWD seitens der Deutschen Bücherei; BEAUJEAN, M.: Nutzung der DB-Dienstleistungen bei den Stadtbüchereien Hannover; GALSTERER, B.: Stadtbüchereien Düsseldorf und Großstadtbibliotheken in NRW; NOWAK, C.G.: Nutzung der SWD und der RSWK-Ketten durch BAIS in der Stadtbücherei Bochum (AKD); BRAKE-GERLACH, U. Bibliotheks- und Informationssystem Oldenburg; SCHWAN-MICHELS, R.: Gemeinsame Schlagwortkatalogisierung nach RSWK im HBZ-Verbund; SCHMITT, G.: Zur Nutzung der Schlagwortnormdatei (SWD) an der UB Kaiserslautern; SAEVECKE, R.-D.: Situationsbericht betreffend Einsatz von RSWK und SWD im Hessischen Bibliotheksinformationssystem HEBIS-KAT.- Enthält ebenfalls eine Abschlußdiskussion und eine Abschlußstellungnahme der Deutschen Bibliothek (S.176-179)
    LCSH
    Subject headings, German / Congresses
    RVK
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    AN 50200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Schriftenreihen (Indiv.-Sign.)
    Subject
    Subject headings, German / Congresses
  18. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.06
    0.06382582 = product of:
      0.12765165 = sum of:
        0.04544096 = weight(_text_:und in 1368) [ClassicSimilarity], result of:
          0.04544096 = score(doc=1368,freq=14.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.32416478 = fieldWeight in 1368, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1368)
        0.08221069 = weight(_text_:headings in 1368) [ClassicSimilarity], result of:
          0.08221069 = score(doc=1368,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.26805982 = fieldWeight in 1368, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1368)
      0.5 = coord(2/4)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
    Series
    Bibliotheks- und Informationspraxis; 70
  19. Hubrich, J.: Multilinguale Wissensorganisation im Zeitalter der Globalisierung : das Projekt CrissCross (2010) 0.06
    0.06214042 = product of:
      0.12428084 = sum of:
        0.042070154 = weight(_text_:und in 793) [ClassicSimilarity], result of:
          0.042070154 = score(doc=793,freq=12.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.30011827 = fieldWeight in 793, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=793)
        0.08221069 = weight(_text_:headings in 793) [ClassicSimilarity], result of:
          0.08221069 = score(doc=793,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.26805982 = fieldWeight in 793, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=793)
      0.5 = coord(2/4)
    
    Abstract
    Im Zuge zunehmender Globalisierung werden Wissensorganisationssysteme erforderlich, die ein sprachunabhängiges Retrieval ermöglichen, ohne dass dadurch bereits existierende und national bewährte Wissenssysteme obsolet werden. Das durch die Deutsche Forschungsgemeinschaft (DFG) geförderte und von der Deutschen Nationalbibliothek in Kooperation mit der Fachhochschule Köln durchgeführte Projekt CrissCross leistet einen wesentlichen Beitrag zur Schaffung eines solchen Wissensspeichers, indem es die Sachschlagwörter der deutschen Schlagwortnormdatei (SWD) mit Notationen der Dewey-Dezimalklassifikation sowie mit ihren Äquivalenten der Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache RAMEAU (Repertoire d'autorité-matière encyclopédique et alphabétique unifié) verknüpft. Ein erweitertes multilinguales und thesaurusbasiertes Recherchevokabular wird erstellt, das für die inhaltliche Suche nach Dokumenten in heterogen erschlossenen Beständen verwendet werden kann. In diesem Artikel wird die Problematik bei der Verknüpfung semantisch heterogener Systeme unter besonderer Berücksichtigung der Unterschiede zwischen der DDC und der SWD skizziert. Die in CrissCross gewählte Methodik bei der Verknüpfung von SWD und DDC wird vorgestellt. Abschließend wird der Nutzen der erstellten Daten für das Retrieval aufgezeigt.
  20. Niggemann, E.: Magda Heiner-Freiling (1950-2007) (2007) 0.06
    0.060582414 = product of:
      0.12116483 = sum of:
        0.06361735 = weight(_text_:und in 1676) [ClassicSimilarity], result of:
          0.06361735 = score(doc=1676,freq=56.0), product of:
            0.14017859 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06320332 = queryNorm
            0.4538307 = fieldWeight in 1676, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1676)
        0.057547484 = weight(_text_:headings in 1676) [ClassicSimilarity], result of:
          0.057547484 = score(doc=1676,freq=2.0), product of:
            0.30668786 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06320332 = queryNorm
            0.18764187 = fieldWeight in 1676, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1676)
      0.5 = coord(2/4)
    
    Content
    "Magda Heiner-Freiling, die Leiterin der Abteilung Sacherschließung am Frankfurter Standort der Deutschen Nationalbibliothek, ist am 22. Juli 2007 im Alter von 57 Jahren während ihres Urlaubs tödlich verunglückt. Sie wird in unserer Erinnerung weiterleben als Kollegin, deren enormes Fachwissen wir ebenso schätzten wie ihre warmherzige Sorge um das Wohlergehen ihrer Kollegen und Mitarbeiter. Sie war eine exzellente Expertin und engagierte Bibliothekarin und sie war dabei vor allem auch eine herzliche, immer hilfsbereite, sich für andere notfalls auch kämpferisch einsetzende, mitfühlende Kollegin und Vorgesetzte. Magda Heiner-Freiling verband, integrierte, schaffte Nähe und Vertrautheit nicht nur in ihrer unmittelbaren Umgebung, sondern mühelos auch über geografische Entfernungen hinweg. Ihren Kampfgeist, ihre Loyalität, ihre soziale Kompetenz, ihre Begeisterungsfähigkeit und ihre erfrischende Direktheit habe ich vor allem in den vergangenen zwei Jahren geschätzt, in denen sie mir als Abteilungsleiterin gegenübersaß. Nach ihrem 1. Staatsexamen in den Fächern Deutsch, Englisch und Erziehungswissenschaften sowie weiteren Studien in den Fächern Neuere deutsche Literaturwissenschaft, wissenschaftliche Politik und europäische Ethnologie an der Johannes Gutenberg-Universität in Mainz und an der Philipps-Universität in Marburg begann 1974 ihr bibliothekarischer Werdegang als Bibliotheksreferendarin bei der Deutschen Nationalbibliothek in Frankfurt am Main. 1976 legte sie die bibliothekarische Staatsprüfung für den höheren Dienst an wissenschaftlichen Bibliotheken an der Bibliotheksschule Frankfurt am Main ab. Neben ihrer Tätigkeit als Fachreferentin hat Magda Heiner-Freiling von der ersten Stunde an bei der RSWK-Entwicklung mitgearbeitet. Sie betreute die Belange der öffentlichen Bibliotheken mit großem Engagement und führte Anfang der neunziger Jahre die »Expertengruppe Erschließung für Kinder- und Jugendliteratur, Belletristik, Schul- und Berufsschulbücher«; auch hat sie sich viele Jahre in die Arbeit der Expertengruppe RSWK/SWD eingebracht. Ihrem ausgeprägten Interesse für das Andere, für andere Sprachen, andere Kulturen, entsprach ihr besonderes Interesse für die internationale Klassifikationspraxis und -theorie und den multilingualen Ansatz von Normvokabularien. Sie war von 1994 bis 2000 Mitglied des IFLA-Gremiums »Section on Classification and Indexing / Standing Committee« und hat diese Arbeit immer mit großer Begeisterung gemacht. Darüber hinaus hat sie in den IFLA Working Groups »Working Group of Anonymous Classics«, »Working Group on Guidelines for Multilingual Thesauri« und »Working Group >Survey on Subject Heading Languages in National Bibliographies<« aktiv mitgearbeitet.
    Magda Heiner-Freiling war die treibende Kraft, sie war die Initiatorin, die Seele bei der Einführung der Dewey-Dezimalklassifikation in Deutschland; sie war Projektleiterin der DDC-Übertragung ins Deutsche (»DDC Deutsch«, 2002-2005), Vorsitzende der Expertengruppe DDC (seit 2001) und hat das Konsortium DDC mitbegründet. Ihre Freude an Sprachen erwies sich in der Gestaltung und tatkräftigen Mitarbeit im Projekt MACS (»Multilingual Access to Subject Headings«); aus den Erfahrungen mit der DDC erwuchs ein neues Projekt »CrissCross«. Magda Heiner-Freiling hat die bibliothekarische Arbeit als ein zweites Zuhause angesehen, als einen Lebensraum, den es aus Sicht einer engagierten Gewerkschaftlerin zu gestalten galt. Sie ist darin aufgegangen und hat mit ihrem Wissen und ihrem Fachverstand ihr bibliothekarisches Umfeld geprägt. Gleichzeitig hat sie zwei Kindergroßgezogen und war mit dem kulturellen Leben in Frankfurt sehr verwachsen. Als leidenschaftlich Reisende war sie viel zwischen Marokko und der Seidenstraße unterwegs, erlernte die arabische Sprache, war aber genauso für ihre großzügige, herzliche Gastfreundschaft bekannt und beherbergte zu Hause immer wieder Gäste aus der Bibliothekswelt. Wir trauern um einen wunderbaren Menschen. Magda Heiner-Freiling wird in der Erinnerung ihrer Kolleginnen und Kollegen der Deutschen Nationalbibliothek, der Zunft der Sacherschließer in Deutschland und weltweit, weiterleben: als eine Kollegin, deren enormes Fachwissen wir ebenso schätzten wie ihr lebendiges Interesse an ihrem Gegenüber, ihre Herzlichkeit, Hilfsbereitschaft, Offenheit, ihr Engagement für soziale Gerechtigkeit und die Sorge um das Wohlergehen der Menschen in ihrer beruflichen Umgebung. Eine solche Kombination von Expertise und Mitmenschlichkeit ist rar. Magda Heiner-Freiling fehlt uns sehr - in jeder Beziehung."
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 54(2007) H.4/5, S.293

Authors

Languages

  • e 32
  • m 3

Types

  • a 8488
  • m 1865
  • el 889
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications