Search (11768 results, page 1 of 589)

  • × language_ss:"d"
  1. Janssen, E.: Society of Indexers' Training in Indexing (2011) 0.25
    0.24757421 = product of:
      0.49514842 = sum of:
        0.43687373 = weight(_text_:janssen in 900) [ClassicSimilarity], result of:
          0.43687373 = score(doc=900,freq=2.0), product of:
            0.5943405 = queryWeight, product of:
              9.504243 = idf(docFreq=8, maxDocs=44421)
              0.06253423 = queryNorm
            0.7350563 = fieldWeight in 900, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.504243 = idf(docFreq=8, maxDocs=44421)
              0.0546875 = fieldNorm(doc=900)
        0.0582747 = weight(_text_:und in 900) [ClassicSimilarity], result of:
          0.0582747 = score(doc=900,freq=12.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.42016557 = fieldWeight in 900, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=900)
      0.5 = coord(2/4)
    
    Abstract
    Die britische Society of Indexers bietet ein Fernstudium im Indexieren an, wie es zur Zeit in Deutschland nicht existiert. Der Kurs, der zur Qualifizierung eines akkreditierten Indexierers führt, basiert auf britischen und internationalen Normen und besteht aus vier Lehrgangseinheiten. Der Kurs setzt keinerlei Wissen über Buchregister oder das Verlagswesen voraus und kann als Fernstudium problemlos von Deutschland aus absolviert werde. Einzige Voraussetzung für die Teilnahme am Kurs ist die Mitgliedschaft in einer Indexierer-Gesellschaft, wie z.B. der britischen Society of Indexers oder dem Deutschen Netzwerk der Indexer (www.d-indexer.org). Der Artikel gibt einen Überblick über den Inhalt des Kurses und enthält Informationen zu Kosten, Kursdauer und Aufbau des Kurses.
    Source
    Information - Wissenschaft und Praxis. 62(2011) H.8, S.375-376
  2. Janssen, U.: ONIX - Metadaten in Verlagen und Buchhandel (2003) 0.19
    0.1910588 = product of:
      0.3821176 = sum of:
        0.31205264 = weight(_text_:janssen in 2764) [ClassicSimilarity], result of:
          0.31205264 = score(doc=2764,freq=2.0), product of:
            0.5943405 = queryWeight, product of:
              9.504243 = idf(docFreq=8, maxDocs=44421)
              0.06253423 = queryNorm
            0.52504015 = fieldWeight in 2764, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.504243 = idf(docFreq=8, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2764)
        0.07006496 = weight(_text_:und in 2764) [ClassicSimilarity], result of:
          0.07006496 = score(doc=2764,freq=34.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.50517434 = fieldWeight in 2764, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2764)
      0.5 = coord(2/4)
    
    Abstract
    ONIX (das Akronym steht für Online information exchange) ist der erste weltweit akzeptierte Standard für angereicherte Metadaten über Bücher, Fortsetzungswerke und andere Produkte des Buchhandels. Er wurde ursprünglich in den USA entwickelt, zunächst mit dem Ziel, dem Internetbuchhandel in einem einheitlichen Format Katalogdaten und zusätzlich Marketingmaterial zur Verfügung stellen zu können. Von Anfang an waren Barsortimente, bibliographische Agenturen und Verlage in den USA und bald auch aus dem Vereinigten Königreich an der Entwicklung von ONIX beteiligt und haben diese finanziell sowie personell gefördert. Die Pflege und Weiterentwicklung dieses neuen Standards wurde dann in die Hände von EDItEUR gelegt, der internationalen Dachorganisation für Standardisierung im Buchhandel, gegründet und gefördert von Verbänden aus Buchhandel, Verlagen und Bibliothekswesen, darunter dem Börsenverein des Deutschen Buchhandels und der European Booksellers Federation. Büro und Sekretariat von EDItEUR werden in London von Book Industry Communication (BIC), einer Gemeinschaftsorganisation der britischen Verleger- und Buchhändlerverbände, gestellt. EDIMUR wurde vor zehn Jahren gegründet, um EDIStandards (EDI = electronic data interchange, elektronischer Datenaustausch) für die Kommunikation zwischen Buchhandel und Verlagen einerseits und Bibliotheken und ihren Lieferanten andererseits zu entwickeln. Dafür wurden Richtlinien für eine Reihe von EANCOM-Nachrichten verabschiedet, darunter für Bestellungen, Auftragsbestätigungen, Rechnungen und Angebote. Ein Richtlinienentwurf für die Nachricht PRICAT (Price and sales catalogue), die für die Übermittlung von Katalogdaten bestimmt ist, wurde zwar vor einigen Jahren entwickelt, aber bisher noch nirgendwo in der Praxis getestet oder gar produktiv eingesetzt. Hingegen sind die transaktionsbezogenen EDI-Nachrichten sowohl im Bibliothekswesen als auch im Buchhandel in Europa vielfach im Einsatz.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 50(2003) H.4, S.210-214
  3. Kolodziejczyk, M.: Sehen Sie ruhig nach : Immer mehr Magazin- und Zeitungsarchive sind offen und kostenlos (2008) 0.18
    0.1831668 = product of:
      0.3663336 = sum of:
        0.32429463 = weight(_text_:janssen in 2309) [ClassicSimilarity], result of:
          0.32429463 = score(doc=2309,freq=6.0), product of:
            0.5943405 = queryWeight, product of:
              9.504243 = idf(docFreq=8, maxDocs=44421)
              0.06253423 = queryNorm
            0.5456378 = fieldWeight in 2309, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              9.504243 = idf(docFreq=8, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2309)
        0.042038973 = weight(_text_:und in 2309) [ClassicSimilarity], result of:
          0.042038973 = score(doc=2309,freq=34.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.30310458 = fieldWeight in 2309, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2309)
      0.5 = coord(2/4)
    
    Content
    "Ob Hippies oder RAF, ob Mauerfall oder 11. September - wer derlei Phänomenen und Ereignissen in der zeitaktuellen Presse nachspüren will, muss meist einiges an Aufwand und Kosten auf sich nehmen. Recherche in Printmedien heißt entweder in stickigen Bibliotheken stöbern und zahllose Zeitungen zerfleddern oder eben: im Internet Artikel ordern und dafür etliche Euro berappen. Am 14. Januar verkündete nun der Focus, er stelle als "erstes Nachrichtenmagazin Deutschlands" sein Print-Archiv kostenfrei online. Sämtliche Themen können seither über eine Suchmaske recherchiert, alle Artikel und Hefte aus 15 Jahrgängen per Mausklick abgerufen werden. Laut Focus-Herausgeber Helmut Markwort ist dieses Novum eine Art Geschenk an die Leser, pünktlich zum 15. Geburtstag der Zeitschrift. "Focus dankt seinen Lesern. Wir beschenken sie daher mit dem Kostbarsten, was wir besitzen: Alle unsere kompetent recherchierten Artikel", hieß es in der Presseerklärung. Offenbar wird das Präsent gern angenommen, wie Focus-Sprecher Uwe Barfknecht der FR mitteilt: "Die Zugriffszahlen übertreffen unsere Erwartungen um Größenordnungen." Nun hoffe man, dass weitere Verlage nachziehen, je mehr, "desto spannender wird das freie Internet für umfassende historische Recherchen". Die Spannung steigt zwar nicht rasant, aber stetig. Blogger und Online-Foren bejubeln mit zunehmender Frequenz, dass wieder ein Presse-Archiv "geknackt" sei. Es könnte sich zu einem Trend entwickeln. So bietet die New York Times seit vergangenen September auf nytimes.com ihr Material aus neun Dekaden kostenlos an: vom Gründungsjahr 1851 bis 1922 sowie von 1986 bis heute. Auch andere haben ihre Print-Archive entsperrt, komplett oder zumindest teilweise: The Economist zum Beispiel oder die spanischen Tageszeitungen El Mundo und El País.
    In Deutschland war es allerdings de facto nicht der Focus, der in Sachen Öffnung einsam vorangeprescht ist. Bereits seit Juni 2007 stehen sämtliche Beiträge der Zeit von 1995 an im Netz. Die Meldung der Wochenzeitung, im Dezember das vollständige Archiv von 1946 bis heute frei zu schalten, ging etwas unter. Wohl auch, weil zeit.de kein großes Buhei darum machte, sondern die Freigabe der Archive schlicht für "eine Konsequenz bestehender Verhältnisse" hält. Schließlich, so sagt der stellvertretende Chefredakteur Steffen Richter, hätten sich Recherche-Kultur und Medienrezeption grundlegend gewandelt. Der Spiegel geht bald noch einen Schritt weiter: In einem Joint Venture mit der Bertelsmann-Tochter Wissen Media Group werkeln die Mitarbeiter seit vergangenem Herbst an einem umfangreichen Recherche- und Informations-Portal, in dem nicht nur sämtliche bislang kostenpflichtigen Archiv-Inhalte seit Gründung des Blattes 1947 frei zugänglich sein werden. Wer bei Spiegel Wissen ein Suchwort eingibt, bekommt neben den entsprechenden Spiegel-Artikeln zusätzlich Texte aus Bertelsmann-Lexika und -Wörterbüchern serviert. Hinzu kommen Einträge aus der freien Enzyklopädie Wikipedia. Die Plattform soll im Frühjahr online gehen. Der genaue Termin stehe noch nicht fest, nach Einschätzung von Hauke Janssen, Geschäftsführer von Spiegel Wissen, könnte es jedoch eher klappen, als geplant. Bleibt die Frage, was denn eigentlich die Printmedien davon haben, ihre kostbaren Texte nun kostenlos ins Netz zu stellen. "Diese Frage ist so alt wie der Online-Journalismus", sagt Janssen. Spiegel-Online habe selbst lange mit "paid content" (etwa: kostenpflichtiger Inhalt) experimentiert und dann auf ein werbefinanziertes Portal gesetzt. "Die Archiv-Inhalte haben wir allerdings bepreist gelassen."
    Bislang. Doch der Umsatz aus dem paid content stagniere und sei ohnehin kaum relevant. Statt abzusperren, sei es daher "klüger für die Marke Spiegel", den Nutzer im Internet mit Printartikeln zu versorgen und das Angebot über Werbung zu finanzieren. Lediglich das aktuelle Heft soll im Netz weiterhin kostenpflichtig sein. Janssen spricht von "Chancengleichheit" und davon, dass der "gesellschaftliche Mehrwert" wachse. "Jeder, der etwas wissen möchte, hat Zugriff auf die notwendigen Informationsquellen." Ähnlich sieht es der Deutsche Journalisten Verband (DJV). "Aus unserer Sicht ist die Öffnung der Archive generell zu begrüßen, da dem Bürger journalistische Inhalte einfacher zugänglich sind", sagt DJV-Sprecherin Nicole von Stockert. Auch Frank Thomsen, Chefredakteur von stern.de, ist von diesem "spannenden Ansatz" sehr angetan. "Dass wir ihn derzeit nicht verfolgen, hat einen einfachen Grund: Wir haben im Moment andere Prioritäten." Wenn es um Neuerungen im Online-Journalismus geht, dauert es meist nicht lange, bis sich Kritiker erheben, die um den Verkauf der Druckauflage und die Zukunft der Presse überhaupt bangen. Doch die Freigabe der Archive - hierin sind sich die Medienhäuser ebenso einig wie in ihrem Entzücken für die Sache - stellt wohl keine Gefahr dar."
  4. Janssen, J.-K.: ChatGPT-Klon läuft lokal auf jedem Rechner : Alpaca/LLaMA ausprobiert (2023) 0.16
    0.15602632 = product of:
      0.6241053 = sum of:
        0.6241053 = weight(_text_:janssen in 1928) [ClassicSimilarity], result of:
          0.6241053 = score(doc=1928,freq=2.0), product of:
            0.5943405 = queryWeight, product of:
              9.504243 = idf(docFreq=8, maxDocs=44421)
              0.06253423 = queryNorm
            1.0500803 = fieldWeight in 1928, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.504243 = idf(docFreq=8, maxDocs=44421)
              0.078125 = fieldNorm(doc=1928)
      0.25 = coord(1/4)
    
  5. Buchholz, B.; Melzer, C; Ranniko, J.: ¬Das Wissen geht ins Netz : Brockhaus-Enzyklopädie bald nur noch online und gratis (2008) 0.11
    0.11463528 = product of:
      0.22927056 = sum of:
        0.18723159 = weight(_text_:janssen in 2403) [ClassicSimilarity], result of:
          0.18723159 = score(doc=2403,freq=2.0), product of:
            0.5943405 = queryWeight, product of:
              9.504243 = idf(docFreq=8, maxDocs=44421)
              0.06253423 = queryNorm
            0.3150241 = fieldWeight in 2403, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.504243 = idf(docFreq=8, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2403)
        0.042038973 = weight(_text_:und in 2403) [ClassicSimilarity], result of:
          0.042038973 = score(doc=2403,freq=34.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.30310458 = fieldWeight in 2403, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2403)
      0.5 = coord(2/4)
    
    Content
    "Bei Alexander von Humboldt stand er im Regal, bei Otto von Bismarck und Konrad Adenauer ebenso und dazu seit Generationen in Hunderttausenden deutschen Haushalten: Die Brockhaus-Enzyklopädie war zwei Jahrhunderte so etwas wie die Bibel des deutschen Bildungsbürgertums und geradezu sprichwörtlich für Wissen. Doch die edlen Buchrücken im Regal oder das Schmökern, bei dem man beim Nachschlagen eines Begriffs auf ein Dutzend weitere stößt, gehören wohl bald der Vergangenheit an: Das berühmteste deutsche Nachschlagewerk soll es künftig nur noch online geben. Diese Nachricht sorgte schon vorab für ordentlichen Wirbel. Denn damit geht nicht nur eine Ära zu Ende. Das gesammelte Brockhaus-Wissen, das gedruckt und gebunden über zweieinhalbtausend Euro kostet, soll ab 15. April im Brockhaus-Portal kostenlos zur Verfügung stehen. Finanziert wird es durch Werbung. Ob sich das rechnen wird? Sprecher Klaus Holoch ist zuversichtlich: Wir sind von unserem Erfolg überzeugt." Künftige Konkurrenten geben sich gelassen: "Für uns ist das eine traumhafte Nachricht", sagt Arne Klempert von Wikipedia. Dass die kostenlose, von ihren eigenen Nutzern erarbeitete Online-Enzyklopädie den altehrwürdigen Brockhaus sturmreif geschossen hat, mag er nicht hören: "Für uns wird das keine großen Auswirkungen haben. Aber für unseren Verein, der sich der Förderung des Wissens verschrieben hat, ist das eine tolle Nachricht, wenn mehr Wissen allen zugänglich ist." Eine überfällige Nachricht: ,Wir leben in so spannenden Zeiten, dass Printlexika einfach nicht mehr funktionieren." Bei Wikipedia drücke man den Mannheimern "ganz ehrlich alle Daumen". Die 21. Auflage der Brockhaus-Enzyklopädie - sie war zur Frankfurter Buchmesse 2005 mit viel Pomp auf den Markt gekommen - verkaufte sich zu schleppend. Das Minimalziel von 20 000 Exemplaren sei verfehlt worden, berichtet Holoch: "Die 21. Auflage hat sich jetzt schon nicht gerechnet." Zu wenige Leute stellen sich die Enzyklopädie noch ins Regal.
    Mehrere Millionen Euro Verlust für 2007 Auch eine Sonderedition von Armin Müller-Stahl kam bei Menschen und Medien zwar gut an, konnte den Verkauf aber nicht ankurbeln. Allein aus Prestigegründen könne der Verlag keine neue Auflage herausbringen: ,Wir sind sehr skeptisch, ob es eine 22. Auflage geben wird." Der Verlag hat einen Verlust von mehreren Millionen Euro für 2007 angekündigt. Das Geschäft mit Duden, Schulbuch und Kalendern laufe dagegen gut, sagte Holoch. Auch Themenlexika wie "Brockhaus Wein" sei en sehr erfolgreich. Auch Angebote wie der Brockhaus auf CD-Rom werden bleiben. In den vergangenen sechs, sieben Jahren habe der klassische Lexikon-Markt bereits gebröckelt. "Jetzt scheint das Internet den absoluten Durchbruch geschafft zu haben." Dass der Verlag die Kehrtwende zu spät vollzogen habe, bestreitet Holoch. Bei der Vorbereitung des Online-Angebots sei der Verlag aber "von der Marktentwicklung überholt" worden. Und: Beim Print Thema wollten wir wirklich alles probiert haben." Rund 60 Mitarbeiter in der Leipziger Online-Redaktion kümmern sich nun um das neue Produkt. "Der Stamm der Mannschaft, die an der letzten, seit Ende 2006 vollständigen Printausgabe arbeitete, wurde mit Online-Profis ergänzt", erklärt Holoch. Chefredakteurin wird Sigrun Albert, die zuvor die Redaktionen von "Brigitte.de" und "YoungMiss.de" leitete. Meyers Lexikon - es gehört ebenfalls zum Verlag Bibliographisches Institut & F.A. Brockhaus AG - ist bereits seit einem guten Jahr online: "Das war unser Testfeld, es hat sich gut entwickelt." Zu Meyers Lexikon können User selbst mit Artikeln beitragen, die von der Redaktion geprüft und ergänzt werden. Das soll beim Brockhaus anders sein, sagt Holoch, verspricht aber: Wir werden auch auf Web 2.0-Bedürfnisse eingehen."
    Doch die Konkurrenz ist groß. In dieser Woche ist auch "Spiegel Wissen online gegangen, mit dem auf Wikipedia, das BertelsmannLexikon und sämtliche Artikel des "Spiegel" und zum Teil des "Manager-Magazins" kostenlos zurückgegriffen werden kann. ,Wir glauben, dass wir damit nicht nur den Lesern, sondern auch dem "Spiegel' den größeren Gefallen tun", sagt Ressortchef Hauke Janssen. Eine besondere Stellung beansprucht Brockhaus aber weiter für sich: "Wir werden uns klar von Anbietern wie Wikipedia unterscheiden. Wir setzen auf Relevanz, Richtigkeit und Sicherheit - wir werden nicht manipulierbar sein." Eine Kritik, die man bei Wikipedia erwartungsgemäß ungern hört: »Es kann keine hundertprozentige Garantie für hundertprozentige Richtigkeit geben", sagt Klempert. "Entscheidend ist, wie schnell Fehler erkannt und beseitigt werden." Und da sorge die große Autorenschar bei Wikipedia für einen "Selbstreinigungseffekt": "Oft nach Minuten, spätestens nach wenigen Stunden sind Fehler korrigiert." Diese Selbsteinschätzung bestätigten Experten nach Tests mit Wikipedia: Bei mehreren Vergleichen mit der Encyclopedia Britannica und auch dem Brockhaus zeigte sich die kostenlose Volksenzyklopädie als ebenbürtig - und manchmal als überlegen. Jedenfalls: Von der noblen 30-bändigen Enzyklopädie zum werbefinanzierten Gratisangebot im Internet - für den Mannheimer Traditionsverlag Brockhaus ist das ein "Paradigmenwechsel", sagt Klaus Holoch. "Das tut natürlich auch ein bisschen weh, wir lieben ja alle Bücher. Aber unsere Königssubstanz bringen wir künftig ins Internet, weil die Zukunft online ist.""
  6. Schnelling, H.M.: Shakespeare im Schlagwortkatalog : Vergleichende Untersuchungen anglo-amerikanischer und deutscher Praxis verbaler Sacherschließung (1983) 0.11
    0.11202771 = product of:
      0.22405542 = sum of:
        0.028838499 = weight(_text_:und in 1216) [ClassicSimilarity], result of:
          0.028838499 = score(doc=1216,freq=4.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.20792803 = fieldWeight in 1216, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1216)
        0.19521692 = weight(_text_:headings in 1216) [ClassicSimilarity], result of:
          0.19521692 = score(doc=1216,freq=8.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.64334357 = fieldWeight in 1216, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1216)
      0.5 = coord(2/4)
    
    Content
    Teilw. zugl.: Köln, Fachhochschule für Bibliotheks- und Dokumentationswesen, Hausarbeit zur Laufbahnprüfung für den Höheren Bibliotheksdienst
    LCSH
    Subject headings / Literature
    Subject headings / Shakespeare, William, 1564 / 1616
    Subject
    Subject headings / Literature
    Subject headings / Shakespeare, William, 1564 / 1616
  7. Schneider, K.: Über den Musik-Thesaurus und die inhaltliche Erschliessung von Musik (1996) 0.11
    0.10562074 = product of:
      0.21124148 = sum of:
        0.027189197 = weight(_text_:und in 3558) [ClassicSimilarity], result of:
          0.027189197 = score(doc=3558,freq=2.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.19603643 = fieldWeight in 3558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=3558)
        0.18405229 = weight(_text_:headings in 3558) [ClassicSimilarity], result of:
          0.18405229 = score(doc=3558,freq=4.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.60655016 = fieldWeight in 3558, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=3558)
      0.5 = coord(2/4)
    
    Abstract
    Lecture given at the AIBM conference, Karlsruhe, Sep 95. The thesaurus appeared 1st in 1982, produced according to DIN standard 1463. This standard is largely adhered to, with 2 deviations: the controlled vocabulary is rather universal, covering more than 1 musical field, and descriptors are used as systematic collection points, with non-decriptors as subordinate headings. The 1994 edition has widened its contents range. There are still problems with ambiguity of headings and titles
  8. Oberhauser, O.: Inhaltliche Erschließung im Verbund : Die aktuelle Situation in Österreich (2013) 0.10
    0.09547076 = product of:
      0.19094151 = sum of:
        0.060796894 = weight(_text_:und in 2092) [ClassicSimilarity], result of:
          0.060796894 = score(doc=2092,freq=10.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.4383508 = fieldWeight in 2092, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2092)
        0.13014461 = weight(_text_:headings in 2092) [ClassicSimilarity], result of:
          0.13014461 = score(doc=2092,freq=2.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.4288957 = fieldWeight in 2092, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=2092)
      0.5 = coord(2/4)
    
    Abstract
    Der Beitrag zeichnet ein aktuelles Bild der inhaltlichen Erschließung im Österreichischen Verbundkatalog, insbesondere in quantitativer Hinsicht. Um den Entwicklungsverlauf zu illustrieren, werden dazu Daten von 2005 bis 2013 präsentiert. Im Detail geht es um die verbale Sacherschließung durch RSWKbasierte Schlagwortfolgen und englischsprachige Subject Headings, sowie die klassifikatorische Erschließung mittels Basisklassifikation, Dewey Dezimalklassifikation und Regensburger Verbundklassifikation. Im Zusammenhang mit der Basisklassifikation wird auch von Anreicherungsprojekten mittels Konkordanzen und Datenübernahmen berichtet. Ausserdem werden Neuerungen bei der Suche und Anzeige klassifikatorischer Sacherschließungselemente in den Rechercheinstrumenten des Verbundes dargestellt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 66(2013) H.2, S.231-249
  9. Scharmann, U.: Anwendung der Regeln für den Schlagwortkatalog (RSWK) in öffentlichen Bibliotheken. Abschlußbericht zum dbi-Projekt 11.35 (1989) 0.08
    0.08343886 = product of:
      0.16687772 = sum of:
        0.028838499 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.028838499 = score(doc=1203,freq=4.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.20792803 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
        0.13803922 = weight(_text_:headings in 1203) [ClassicSimilarity], result of:
          0.13803922 = score(doc=1203,freq=4.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.4549126 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
      0.5 = coord(2/4)
    
    Classification
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    LCSH
    Subject headings, German
    RVK
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    Subject
    Subject headings, German
  10. Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009) 0.08
    0.08245888 = product of:
      0.16491777 = sum of:
        0.024032082 = weight(_text_:und in 26) [ClassicSimilarity], result of:
          0.024032082 = score(doc=26,freq=4.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.17327337 = fieldWeight in 26, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
        0.14088568 = weight(_text_:headings in 26) [ClassicSimilarity], result of:
          0.14088568 = score(doc=26,freq=6.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.46429324 = fieldWeight in 26, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
      0.5 = coord(2/4)
    
    Abstract
    Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
  11. Berg-Schorn, E.: MeSH 2006: Deutsche Version lieferbar (2006) 0.08
    0.078328736 = product of:
      0.15665747 = sum of:
        0.04162479 = weight(_text_:und in 959) [ClassicSimilarity], result of:
          0.04162479 = score(doc=959,freq=12.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.30011827 = fieldWeight in 959, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
        0.11503268 = weight(_text_:headings in 959) [ClassicSimilarity], result of:
          0.11503268 = score(doc=959,freq=4.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.37909386 = fieldWeight in 959, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
      0.5 = coord(2/4)
    
    Abstract
    Beim DIMDI erhalten Sie ab sofort die aktuelle deutsche Übersetzung des Thesaurus Medical Subject Headings (MeSH) 2006 der National Library of Medicine (NLM). Auf Anfrage liefern wir die neue Version 11.0 (Stand 2006) als kostenpflichtige XML-Datei auf CD-ROM. Gegenüber 2005 enthält derThesaurus 933 neue Deskriptoren. Andere wurden nach der aktuellen Terminologie umbenannt, obsolete Benennungen entfielen ganz. Da jede Deskriptorklasse in Konzepte und Unterkonzepte mit zugehörigen Begriffen unterteilt ist, beträgt die tatsächliche Zahl neuer Bezeichnungen etwa das Fünffache. Der laufend weiterentwickelte Thesaurus umfasst jetzt 23.880 Hauptschlagwörter (Main Headings). Zum Vergleich: vor zehn Jahren gab die NLM erst 18.436 Deskriptoren an. Zuwachs verzeichnet vor allem die Kategorie Chemische Substanzen, Drogen und Arzneimittel mit 684 neuen Schlagwörtern. Zahlreiche neue Begriffe enthalten auch die Kategorien Organismen, Krankheiten, Biowissenschaften, Anatomie sowie Analytische, diagnostische und therapeutische Verfahren und Geräte. Neue Deskriptoren sind beispielsweise Kalziumaktivierte Kaliumkanäle mit großer Leitfähigkeit, Tritonia-Meeresschnecke, Mesangiumzellen oder Bariatrische Chirurgie. Das DIMDI übersetzt den MeSH in enger Anlehnung an die amerikanische Vorlage und ist offizieller Herausgeber der deutschen Version (inkl. Urheberrechte). Der Thesaurus ist Bestandteil des UMLS (Unified Medical Language System) der NLM. Übersetzungen liegen auch in Finnisch, Französisch, Italienisch, Portugiesisch, Russisch und Spanisch vor.
  12. Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007) 0.08
    0.075780176 = product of:
      0.15156035 = sum of:
        0.05395189 = weight(_text_:und in 1557) [ClassicSimilarity], result of:
          0.05395189 = score(doc=1557,freq=14.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.38899773 = fieldWeight in 1557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
        0.09760846 = weight(_text_:headings in 1557) [ClassicSimilarity], result of:
          0.09760846 = score(doc=1557,freq=2.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.32167178 = fieldWeight in 1557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
      0.5 = coord(2/4)
    
    Abstract
    Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  13. Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003) 0.08
    0.075702675 = product of:
      0.15140535 = sum of:
        0.07006496 = weight(_text_:und in 5524) [ClassicSimilarity], result of:
          0.07006496 = score(doc=5524,freq=34.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.50517434 = fieldWeight in 5524, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
        0.08134039 = weight(_text_:headings in 5524) [ClassicSimilarity], result of:
          0.08134039 = score(doc=5524,freq=2.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.26805982 = fieldWeight in 5524, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
      0.5 = coord(2/4)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Daten-, Literatur- und Faktendokumentation enthält neben zahlreichen Übungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit Antworten. Das Buch ist von zentraler Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Das Thema gewinnt aber auch an Bedeutung für Wissenschaftler aller Fachrichtungen. Das Buch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden vierten Auflage werden insbesondere Entwicklungen im Bereich des Internets und der Informationssysteme berücksichtigt.
    Content
    Zweck und Grundzüge der Dokumentation.- Begriff und Wesen der Information.- Dateien und Informationsspeicher.Referate.- Ordnungsprinzip Klassifikation.- Hierarchische Begriffsstrukturen.- Alphabetisches Sortieren und systematisches Anordnen.- Die Klassfikationen ICD-10 und ICPM.- Ordnungsprinzip Register.- Beispiel einer Dokumentation mit Registern.- Ordnungsprinzip Fassettenklassifikation.- Ordnungsprinzip Begriffskombination.- Struktur eines Ordnungssystems.Beispielthesaurus Gebäude.- Ordnungssystem Medical Subject Headings (MeSH).- Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren.- Dokumenten-Deskriptoren-Matrix.Relevanz- und Vollzähligkeitsrate.- Recherchieren und Suchstrategien.- Dokumentations- und Retrievalsysteme.Aktive Informationsdienste.- Revision eines Ordnungssystems.
  14. Jungk, S.: ¬Die Erschließung der Belletristik und Kinder- und Jugendliteratur im Sachkatalog der Deutschen Nationalbibliothek Leipzig (2008) 0.07
    0.073760726 = product of:
      0.14752145 = sum of:
        0.033644915 = weight(_text_:und in 3173) [ClassicSimilarity], result of:
          0.033644915 = score(doc=3173,freq=4.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.24258271 = fieldWeight in 3173, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3173)
        0.11387654 = weight(_text_:headings in 3173) [ClassicSimilarity], result of:
          0.11387654 = score(doc=3173,freq=2.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.37528375 = fieldWeight in 3173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3173)
      0.5 = coord(2/4)
    
    Abstract
    In its overall function as the archive of all German-language publications, the German National Library also collects and catalogues German-language literary works. Belles-lettres as well as children's and youth literature form a considerable part of the library's collection. From 1913 until 1990, the titles were assigned subject headings, were filed in the library's card subject catalogue according to genres and languages and (within these categories) were further divided into formal aspects, themes and motifs. The subject indexing of belles-lettres and children's and youth literature is unique in its scope and depth.
  15. Gesell, J.: Neuauflage der Internationalen Patentklassifikation : incompatibility issues of library classification systems and subject headings in subject cataloguing (1986) 0.07
    0.06919613 = product of:
      0.13839225 = sum of:
        0.040783793 = weight(_text_:und in 3644) [ClassicSimilarity], result of:
          0.040783793 = score(doc=3644,freq=8.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.29405463 = fieldWeight in 3644, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3644)
        0.09760846 = weight(_text_:headings in 3644) [ClassicSimilarity], result of:
          0.09760846 = score(doc=3644,freq=2.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.32167178 = fieldWeight in 3644, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=3644)
      0.5 = coord(2/4)
    
    Abstract
    Die internationale Patentklassifikation (IPC) ist mit ihrer 4. Aufl. in Englisch, Französisch und Deutsch erschienen. Sie trat am 1.1.1985 weltweit für 5 Jahre in Kraft und ersetzt seitdem die seit 1980 geltende IPC3. Die Zahl der Verzweigungen und Symbole stieg mit der letzten Auflage auf nun rund 58.500 Gruppen. Die Einführung der sog. Hybrid-Systeme mit Index-Symbolen ist sicherlich die gravierendste Neuerung in IPC4. Bisher war die IPC monohierarchisch aufgebaut, d.h. für jeden technischen Sachverhalt gab es nur eine passende Stelle im ganzen Einteilungssystem. Der erste Schritt ist nun zu einem multihierarchischen Aufbau getan. Auf bestimmten Sachgebieten ist es möglich, die mit obligatorischen Klassifikationssymbolen erfaßten Informationen mit zusätzlichen, nicht-obligatorischen Symbolen zu verknüpfen
    Source
    Die Klassifikation und ihr Umfeld: Proc. 10. Jahrestagung der Gesellschaft für Klassifikation, Münster, 18.-21.6.1986. Hrsg.: P.O. Degens
  16. Franke-Maier, M.: Computerlinguistik und Bibliotheken : Editorial (2016) 0.07
    0.06616007 = product of:
      0.13232014 = sum of:
        0.05097974 = weight(_text_:und in 4206) [ClassicSimilarity], result of:
          0.05097974 = score(doc=4206,freq=18.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.36756828 = fieldWeight in 4206, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
        0.08134039 = weight(_text_:headings in 4206) [ClassicSimilarity], result of:
          0.08134039 = score(doc=4206,freq=2.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.26805982 = fieldWeight in 4206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4206)
      0.5 = coord(2/4)
    
    Abstract
    Vor 50 Jahren, im Februar 1966, wies Floyd M. Cammack auf den Zusammenhang von "Linguistics and Libraries" hin. Er ging dabei von dem Eintrag für "Linguistics" in den Library of Congress Subject Headings (LCSH) von 1957 aus, der als Verweis "See Language and Languages; Philology; Philology, Comparative" enthielt. Acht Jahre später kamen unter dem Schlagwort "Language and Languages" Ergänzungen wie "language data processing", "automatic indexing", "machine translation" und "psycholinguistics" hinzu. Für Cammack zeigt sich hier ein Netz komplexer Wechselbeziehungen, die unter dem Begriff "Linguistics" zusammengefasst werden sollten. Dieses System habe wichtigen Einfluss auf alle, die mit dem Sammeln, Organisieren, Speichern und Wiederauffinden von Informationen befasst seien. (Cammack 1966:73). Hier liegt - im übertragenen Sinne - ein Heft vor Ihnen, in dem es um computerlinguistische Verfahren in Bibliotheken geht. Letztlich geht es um eine Versachlichung der Diskussion, um den Stellenwert der Inhaltserschliessung und die Rekalibrierung ihrer Wertschätzung in Zeiten von Mega-Indizes und Big Data. Der derzeitige Widerspruch zwischen dem Wunsch nach relevanter Treffermenge in Rechercheoberflächen vs. der Erfahrung des Relevanz-Rankings ist zu lösen. Explizit auch die Frage, wie oft wir von letzterem enttäuscht wurden und was zu tun ist, um das Verhältnis von recall und precision wieder in ein angebrachtes Gleichgewicht zu bringen. Unsere Nutzerinnen und Nutzer werden es uns danken.
    Content
    Editorial zu einem Themenschwerpunkt 'Computerlinguistik und Bibliotheken'. Vgl-: http://0277.ch/ojs/index.php/cdrs_0277/article/view/159/349.
  17. Ostrzinski, U.: Deutscher MeSH : ZB MED veröffentlicht aktuelle Jahresversion 2022 - freier Zugang und FAIRe Dateiformate (2022) 0.07
    0.06523874 = product of:
      0.13047747 = sum of:
        0.038451333 = weight(_text_:und in 1626) [ClassicSimilarity], result of:
          0.038451333 = score(doc=1626,freq=16.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.2772374 = fieldWeight in 1626, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1626)
        0.092026144 = weight(_text_:headings in 1626) [ClassicSimilarity], result of:
          0.092026144 = score(doc=1626,freq=4.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.30327508 = fieldWeight in 1626, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=1626)
      0.5 = coord(2/4)
    
    Abstract
    Die aktuelle Ausgabe 2022 der deutschen Ausgabe der Medical Subject Headings (MeSH) steht ab sofort zum Download in verschiedenen FAIRen Dateiformaten sowie als XML- und CSV-Datei unter der CC BY 4.0-Lizenz bereit. Zu den semantisch FAIRen Formaten, die ZB MED anbietet, zählen beispielsweise RDF/XML oder JSON-LD. Sie ermöglichen es etwa Software-Lösungen zur Datenanalyse - auch mit künstlicher Intelligenz -, die Daten direkt zu nutzen. Sie müssen nicht zusätzlich konvertiert und aufbereitet werden.
    Content
    "ZB MED bietet für die deutschsprachigen MeSH-Begriffe einen Internationalized Resource Identifier (IRI) an. Der IRI-Service stellt auf einer HTML-Seite alle Informationen für einen deutschen MeSH-Term bereit und ermöglicht so die Versionierung. Die Sichtbarkeit veralteter, aber in der Vergangenheit genutzter Terme ist im Sinne der FAIR-Prinzipien dadurch weiterhin gewährleistet. Für die Übersetzung der Medical Subject Headings nutzt ZB MED den eigens entwickelten TermCurator. Das semiautomatische Übersetzungstool bietet unter anderem einen integrierten mehrstufigen Kuratierungsprozess. Der MeSH-Thesaurus als polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Darüber hinaus ist er eine der wichtigsten Quellen für ein kontrolliertes biomedizinisches Fachvokabular - beispielsweise für die Kategorisierung und Analyse von Literatur- und Datenquellen.
    Der MeSH ist ein polyhierarchisches, konzeptbasiertes Schlagwortregister für biomedizinische Fachbegriffe umfasst das Vokabular, welches in den NLM-Datenbanken, beispielsweise MEDLINE oder PubMed, erscheint. Er wird jährlich aktualisiert von der U. S. National Library of Medicine herausgegeben. Für die deutschsprachige Fassung übersetzt ZB MED dann die jeweils neu hinzugekommenen Terme und ergänzt sie um zusätzliche Synonyme. Erstmalig erstellte ZB MED den Deutschen MeSH im Jahr 2020. Vorher lag die Verantwortung beim Deutschen Institut für Medizinische Dokumentation und Information (DIMDI/BfArM)."
  18. Gaus, W.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2005) 0.07
    0.06513485 = product of:
      0.1302697 = sum of:
        0.06519741 = weight(_text_:und in 1679) [ClassicSimilarity], result of:
          0.06519741 = score(doc=1679,freq=46.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.47007886 = fieldWeight in 1679, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1679)
        0.065072306 = weight(_text_:headings in 1679) [ClassicSimilarity], result of:
          0.065072306 = score(doc=1679,freq=2.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.21444786 = fieldWeight in 1679, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.03125 = fieldNorm(doc=1679)
      0.5 = coord(2/4)
    
    Abstract
    Dokumentation und Information Retrieval, also das gezielte Wiederauffinden von Informationen zu thematisch-inhaltlichen Fragestellungen sind wichtiger als je zuvor. Die hier vorliegende theoretisch fundierte und praxisorientierte Darstellung der Literatur-, Daten- und Faktendokumentation enthält viele instruktive Beispiele und praktische Übungen sowie einen umfassenden Beispielthesaurus und behandelt ausführlich Ordnungs- und Retrievalsysteme. Jedes Thema wird mit zahlreichen Prüfungsfragen abgeschlossen. Die detaillierten Antworten zu den insgesamt 195 Fragen umfassen alleine etwa 60 Seiten, Dieses Lehrbuch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. Die fünfte Auflage ist aktualisiert und erweitert worden.
    Classification
    AN 93200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Ordnungslehre, Systematik
    AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis
    Content
    Aus dem Inhalt: - Zweck und Grundzüge der Dokumentation - Begriff und Wesen der Information - Dateien und Informationsspeicher - Referate - Ordnungsprinzip Klassifikation - Hierarchische Begriffsstrukturen - Alphabetisches Sortieren und systematisches Anordnen - Die Klassifikationen ICD-10 und ICPM - Ordnungsprinzip Register - Beispiel einer Dokumentation mit Registern - Ordnungsprinzip Fassettenklassifikation - Ordnungsprinzip Begriffskombination - Struktur eines Ordnungssystems - Beispielthesaurus Gebäude - Ordnungssystem Medical Subject Headings (MeSH) - Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren - Dokumenten-Deskriptoren-Matrix - Relevanz- und Vollzähligkeitsrate - Recherchieren und Suchstrategien - Dokumentations- und Retrievalsysteme - Aktive Informationsdienste - Revision eines Ordnungssystems.
    RVK
    AN 93200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Grundlagen, Theorie / Ordnungslehre, Systematik
    AN 95000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Bibliographische Erfassung, Suchpraxis
  19. ¬Die Schlagwortnormdatei: Entwicklungsstand und Nutzungsmöglichkeiten : Vorträge eines Kolloquiums zur Schlagwortnormdatei (SWD) in Frankfurt a.M. am 5. und 6.10.1990. Zusammengestellt u. hrsg. von Werner Stephan (1990) 0.06
    0.06478417 = product of:
      0.12956834 = sum of:
        0.04904547 = weight(_text_:und in 4363) [ClassicSimilarity], result of:
          0.04904547 = score(doc=4363,freq=34.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.35362202 = fieldWeight in 4363, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4363)
        0.08052287 = weight(_text_:headings in 4363) [ClassicSimilarity], result of:
          0.08052287 = score(doc=4363,freq=4.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.2653657 = fieldWeight in 4363, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4363)
      0.5 = coord(2/4)
    
    Abstract
    Der Band enthält verschiedene Beiträge zur kooperativen Pflege der Schlagwortnormdatei, ihrer Nutzung in verschiedenen Katalog- und Verbundumgebungen, der Nutzung von SWD-Einträgen (RSWK-Schlagwörtern) für Online-Kataloge sowie verwandter Themenstellungen.
    Classification
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    AN 50200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Schriftenreihen (Indiv.-Sign.)
    Content
    Enthält die Beiträge: KELM, B. u. M. KUNZ: Die SWD als Arbeitsinstrument für die Sacherschließung der Deutschen Bibliothek und die CD-ROM-Ausgabe der Deutschen Bibliographie als Beispiel für einen OPAC mit RSWK-Ketten; GÖDERT, W.: Aufbereitung und Recherche von nach RSWK gebildeten Daten in der CD-ROM Ausgabe der Deutschen Bibliographie; STEPHAN, W.: Kooperative Dateiführung und redaktionelle Aufgaben der Deutschen Bibliothek; GEIßELMANN, F.: Aus der Arbeit der zentralen Redaktion des bayerischen Verbundes für die SWD; SCHUBERT, H.J.: Aus der Arbeit der zentralen Redaktion München des bayerischen Verbundes für die SWD; TRAISER, W.: Derzeitiger Stand der SWD-Systematisierung und erste Überlegungen zu ihrer Weiterentwicklung; LOTH, K.: Strukturierung der Schlagworte der Schlagwortnormdatei; RINN; R.: Beziehungen zu anderen Normdateien bzw. Normdaten; AUER, G.: EDV-Einsatz und Sacherschließung an den österreichischen wissenschaftlichen Bibliotheken; HÖHNE, H.: Überlegungen über eine mögliche Anwendung der RSWK sowie Mitwirkung an der SWD seitens der Deutschen Bücherei; BEAUJEAN, M.: Nutzung der DB-Dienstleistungen bei den Stadtbüchereien Hannover; GALSTERER, B.: Stadtbüchereien Düsseldorf und Großstadtbibliotheken in NRW; NOWAK, C.G.: Nutzung der SWD und der RSWK-Ketten durch BAIS in der Stadtbücherei Bochum (AKD); BRAKE-GERLACH, U. Bibliotheks- und Informationssystem Oldenburg; SCHWAN-MICHELS, R.: Gemeinsame Schlagwortkatalogisierung nach RSWK im HBZ-Verbund; SCHMITT, G.: Zur Nutzung der Schlagwortnormdatei (SWD) an der UB Kaiserslautern; SAEVECKE, R.-D.: Situationsbericht betreffend Einsatz von RSWK und SWD im Hessischen Bibliotheksinformationssystem HEBIS-KAT.- Enthält ebenfalls eine Abschlußdiskussion und eine Abschlußstellungnahme der Deutschen Bibliothek (S.176-179)
    LCSH
    Subject headings, German / Congresses
    RVK
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    AN 50200 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Schriftenreihen (Indiv.-Sign.)
    Subject
    Subject headings, German / Congresses
  20. Steeg, F.; Pohl, A.: ¬Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) (2021) 0.06
    0.06315015 = product of:
      0.1263003 = sum of:
        0.04495991 = weight(_text_:und in 1368) [ClassicSimilarity], result of:
          0.04495991 = score(doc=1368,freq=14.0), product of:
            0.13869461 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06253423 = queryNorm
            0.32416478 = fieldWeight in 1368, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1368)
        0.08134039 = weight(_text_:headings in 1368) [ClassicSimilarity], result of:
          0.08134039 = score(doc=1368,freq=2.0), product of:
            0.30344117 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06253423 = queryNorm
            0.26805982 = fieldWeight in 1368, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1368)
      0.5 = coord(2/4)
    
    Abstract
    Normdaten spielen speziell im Hinblick auf die Qualität der Inhaltserschließung bibliografischer und archivalischer Ressourcen eine wichtige Rolle. Ein konkretes Ziel der Inhaltserschließung ist z. B., dass alle Werke über Hermann Hesse einheitlich zu finden sind. Hier bieten Normdaten eine Lösung, indem z. B. bei der Erschließung einheitlich die GND-Nummer 11855042X für Hermann Hesse verwendet wird. Das Ergebnis ist eine höhere Qualität der Inhaltserschließung vor allem im Sinne von Einheitlichkeit und Eindeutigkeit und, daraus resultierend, eine bessere Auffindbarkeit. Werden solche Entitäten miteinander verknüpft, z. B. Hermann Hesse mit einem seiner Werke, entsteht ein Knowledge Graph, wie ihn etwa Google bei der Inhaltserschließung des Web verwendet (Singhal 2012). Die Entwicklung des Google Knowledge Graph und das hier vorgestellte Protokoll sind historisch miteinander verbunden: OpenRefine wurde ursprünglich als Google Refine entwickelt, und die Funktionalität zum Abgleich mit externen Datenquellen (Reconciliation) wurde ursprünglich zur Einbindung von Freebase entwickelt, einer der Datenquellen des Google Knowledge Graph. Freebase wurde später in Wikidata integriert. Schon Google Refine wurde zum Abgleich mit Normdaten verwendet, etwa den Library of Congress Subject Headings (Hooland et al. 2013).
    Series
    Bibliotheks- und Informationspraxis; 70

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1865
  • el 890
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications