Search (1156 results, page 1 of 58)

  • × language_ss:"e"
  1. Fels, G.: Elektronische Medien in der Chemie Chemieinformation gestern, heute, morgen (2007) 0.12
    0.116895065 = product of:
      0.23379013 = sum of:
        0.050295796 = weight(_text_:und in 902) [ClassicSimilarity], result of:
          0.050295796 = score(doc=902,freq=8.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.39207286 = fieldWeight in 902, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=902)
        0.18349433 = weight(_text_:handelt in 902) [ClassicSimilarity], result of:
          0.18349433 = score(doc=902,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.52953815 = fieldWeight in 902, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0625 = fieldNorm(doc=902)
      0.5 = coord(2/4)
    
    Abstract
    Elektronische Medien sind definitionsgemäß Kommunikationsmittel, die auf elektronischem Wege, digital kodiert, übermittelt werden. Bezogen auf die Chemieinformation handelt es sich dabei um chemische Publikationen, Handbücher, Datenreihen, Spektren, Reaktionen, Repositorien für Online-Learning und vieles mehr. Im Rahmen der Vorstellung der neuen Informations- und Wissensplattform "chem.de" während der ACHEMA 2006 hat der Autor den Versuch unternommen, die revolutionäre Entwicklung der Chemieinformation zwischen "gestern und morgen" zu beschreiben. Der Vortragstext ist hier im wesentlichen unbebildert wiedergegeben, die Vortragsfolien sind auf eben dieser "chem. de "-Plattform abzurufen (Forschungsführer/Fels, Gregor/Publikationen).
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.1, S.51-56
  2. Smiraglia, R.P.: Derivative bibliographic relationships among theological works (1999) 0.10
    0.09680111 = product of:
      0.38720444 = sum of:
        0.38720444 = weight(_text_:judaic in 676) [ClassicSimilarity], result of:
          0.38720444 = score(doc=676,freq=2.0), product of:
            0.63671374 = queryWeight, product of:
              11.008321 = idf(docFreq=1, maxDocs=44421)
              0.057839315 = queryNorm
            0.60812956 = fieldWeight in 676, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              11.008321 = idf(docFreq=1, maxDocs=44421)
              0.0390625 = fieldNorm(doc=676)
      0.25 = coord(1/4)
    
    Abstract
    Derivative bibliographic relationships are the primary relationships that exist among the members of a bibliographic family--the set of interrelated works where the relationships among entities express shared semantic or linguistic activity. Derivative bibliographic relationships exist between any new conception of a work and its original source (the progenitor), or its successor, or both. Discipline was a poor predictor of derivative relationships in prior studies of derivative bibliographic relationships. For the present study random samples of works were drawn from the catalogs of the Bobst Library, New York University, and the Burke Library, Union Theological Seminary, New York. Two sites were chosen to allow a test of the differences in collection development patterns between a university research library and a theological library. Bibliographic families were compiled for each work. Results indicate: 1) derivative bibliographic relationships exist for somewhere between one-half and two-thirds of theological works in this study; 2) there is little difference in proportions of derivative bibliographic relationships or in the size of bibliographic families between the two collections; 3) there is a positive correlation between the age of the progenitor work and the size of the bibliographic family); 4) there are significant gaps in coverage of theological bibliographic families online; 5) there is some evidence of differing patterns of derivation between Judaic and Islamic literature and Christian literature; 5) forms and genres are useful in a limited way for predicting the incidence of derivative relationships in theological literature
  3. Park, R.L.: Voodoo science : the road from foolishness to fraud (2000) 0.09
    0.087671295 = product of:
      0.17534259 = sum of:
        0.037721843 = weight(_text_:und in 124) [ClassicSimilarity], result of:
          0.037721843 = score(doc=124,freq=8.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.29405463 = fieldWeight in 124, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=124)
        0.13762075 = weight(_text_:handelt in 124) [ClassicSimilarity], result of:
          0.13762075 = score(doc=124,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.39715362 = fieldWeight in 124, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.046875 = fieldNorm(doc=124)
      0.5 = coord(2/4)
    
    Abstract
    0bwohl das Buch von einem Amerikaner für Amerikaner geschrieben wurde, betrifft es uns auch. Es handelt von der zunehmenden Ununterscheidbarkeit von Wissenschaft und Hokuspokus, der sich den Mantel der Wissenschaft umgehängt hat, nicht nur für ganz gewöhnliche Leute, sondern auch für Regierungen und Industrie, ja sogar für die Wissenschaftler selbst. Der Autor, Physikprofessor und Leiter des Washingtoner Büros der American Physical Society, äußert sich seit Jahren einmal die Woche in einer Intemet-Kolumne namens "What's New" zu aktuellen Themen der Wissenschaftspolitik (http://www.aps.org/WN/), mit stets demselben sorgfältig formulierten Satz im "Kleingedruckten": ,Opinions are the author's and are not necessarily shared by the American Physical Society, but they should be." Unter dem Oberbegriff Voodoo - der im Englischen nicht nur für den Zauberkult Wodu, sondern für Zauberei und Hexerei aller Art steht - fasst Park alles zusammen, was ihm nicht als seriöse Wissenschaft gilt. Er unterscheidet fünf Spielarten von Voodoo-Wissenschaft
  4. Hummingbird Neuer Suchalgorithmus bei Google (2013) 0.08
    0.08214706 = product of:
      0.16429412 = sum of:
        0.026673373 = weight(_text_:und in 3520) [ClassicSimilarity], result of:
          0.026673373 = score(doc=3520,freq=4.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.20792803 = fieldWeight in 3520, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3520)
        0.13762075 = weight(_text_:handelt in 3520) [ClassicSimilarity], result of:
          0.13762075 = score(doc=3520,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.39715362 = fieldWeight in 3520, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.046875 = fieldNorm(doc=3520)
      0.5 = coord(2/4)
    
    Abstract
    Google hat mit "Hummingbird" einen neuen Suchalgorithmus entwickelt und bereits eingeführt. Dabei handelt es sich laut Google um eine der größten Veränderungen der Suchmaschine, die rund 90 Prozent aller Suchanfragen betrifft. Im Rahmen einer kleinen Veranstaltung zum 15. Geburtstag der Suchmaschine hat Google in die Garage geladen, in der das Unternehmen gegründet wurde. Dabei enthüllte Google eine der bisher größten Veränderungen an der Suchmaschine: Ohne dass Nutzer etwas davon mitbekamen, hat Google vor rund einem Monat seinen Suchalgorithmus ausgetauscht. Der neue Suchalgorithmus mit Codenamen "Hummingbird" soll es Google ermöglichen, Suchanfragen und Beziehungen zwischen Dingen besser zu verstehen. Das soll die Suchmaschine in die Lage versetzen, komplexere Suchanfragen zu verarbeiten, die von Nutzern immer häufiger gestellt werden - auch, weil immer mehr Nutzer Google auf dem Smartphone per Spracheingabe nutzen. Früher versuchte Google lediglich, die Schlüsselwörter in einer Suchanfrage in Webseiten wiederzufinden. Doch seit geraumer Zeit arbeitet Google daran, die Suchanfragen besser zu verstehen, um bessere Suchergebnisse anzuzeigen.
  5. Orna, E.: Information strategy in practice (2004.) 0.08
    0.08010487 = product of:
      0.16020975 = sum of:
        0.0466784 = weight(_text_:und in 4589) [ClassicSimilarity], result of:
          0.0466784 = score(doc=4589,freq=36.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.36387405 = fieldWeight in 4589, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4589)
        0.113531336 = weight(_text_:handelt in 4589) [ClassicSimilarity], result of:
          0.113531336 = score(doc=4589,freq=4.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.32763505 = fieldWeight in 4589, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4589)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.203 (J. Plieningr): "Auf der Vorderseite des Umschlags des Paperbacks prangt eine Grafik von der Art, wie man sie im Inhalt des Buches häufig finden kann: Ein runder Kreis, Pfeile nach innen und außen deuten die In- und Outputs an, innen konzentrische Kreise. Ganz außen ist die Organisation zu finden, eins weiter drinnen die Business strategy und den Kern bildet die information strategy. Das strategische Management der Information stellt also in der Vorstellung der Autorin den Kern einer Firma oder Organisation dar. Das Werk soll die Anleitung zu einer solchen Strategie geben. Allerdings handelt es sich im Grunde bei diesem Buch um bekannte Inhalte, da es sich um die nahezu unveränderte, und auch in den Bibliographien der einzelnen Kapitel nicht aktualisierte zweite Auflage von Practical information policies aus dem Jahre 1999 handelt. Aus diesem "Klassiker" wurden die detaillierten Fallstudien entfernt und hier durch eine neue Einleitung und zwei abschließende Kapitel ergänzt. Die Autorin weist denn auch in der Einleitung darauf hin, dass dieses Buch als Studienausgabe des Werkes von 1999 anzusehen ist. Die Literaturangaben der übernommenen Artikel wurden nicht aktualisiert, jene der neu hinzugefügten Kapitel endet bei 2002. Beim Lesen entfaltet das Werk seinen ganzen Charme angelsächsischer Kompetenz, praktische Inhalte theoretisch angeleitet und doch mit immensem Praxisbezug durchzuarbeiten und auszubreiten. Der Inhalt ist häufig durch Aufzählungen und Auflistungen ergänzt, wobei als Kritikpunkt anzumerken -ist, dass die Aufzählungspunkte im Unterschied zu der Vorauflage nicht jeweils auf einer neuen Zeile stehen, sondern in den Zeilenfluss eingearbeitet wurden um Platz zu sparen. Dies geht auf Kosten der Obersichtlichkeit, was einem Werk, das laut Verlagstexten auch für Lehr- und Studierzwecke eingesetzt werden soll, schlecht ansteht.
    Bei der Lektüre fällt zweierlei auf: Zum einen wird großer Wert auf ein "Information Audit" gelegt, ein Gebiet, auf dem deutsche Bibliotheken großen Nachholbedarf haben. Ein solcher Audit geht über eine bloße Benutzerbefragung hinaus und soll die Informationsströme in der Trägerorganisation der Bibliothek untersuchen, um dann erst zu einer Formulierung der Informationsstrategie der Trägerorganisation zu kommen, welche in Folge der gediegenen Vorarbeit dann auf einem gesicherten Fundament steht. Wer sich das Know-how zu einer solchen umfassenden Untersuchung nicht durch Spezialliteratur aneignen will, der bekommt hier eine knappe und doch umfassende Anleitung zur Hand geliefert. Zum anderen wird klar, dass sich die Ausführungen zur Formulierung, Implementation und Umsetzung einer Informationsstrategie vor allem auf Firmen- und Spezialbibliotheken beziehen, ja sogar eher auf die Ebene des Informationsmanagements der Trägerorganisation selbst, also auf die Bibliothek bzw. Informationsvermittlungsstelle. Bibliothe-kare von kommunalen und universitären Systemen werden also nicht unmittelbaren praktischen Nutzen aus der Lektüre ziehen können, gleichwohl bietet das Buch einen guten Ausblick in ein mögliches Handlungsfeld, in das sich diese Bibliotheken sich bewegen könnten. Obgleich im Grunde sechs Jahre alt, sind die Inhalte dieses "Primers" immer noch aktuell. Die angelsächsische Art, Inhalte knapp und didaktisch aufzubereiten, ist hier hervorragend umgesetzt. Die in der Vorauflage breit dokumentierten praktischen Beispiele fehlen hier nicht ganz, da sie verkürzt eingearbeitet wurden und auch sonst immer wieder auf praktische Erfahrungen und Umsetzungen Bezug genommen wird. Die Lektüre wird dem Fachpublikum empfohlen!"
  6. Diepeveen, C.; Fassbender, J.; Robertson, M.: Indexing software (2007) 0.08
    0.078134194 = product of:
      0.15626839 = sum of:
        0.04158443 = weight(_text_:und in 1742) [ClassicSimilarity], result of:
          0.04158443 = score(doc=1742,freq=14.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.32416478 = fieldWeight in 1742, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1742)
        0.114683956 = weight(_text_:handelt in 1742) [ClassicSimilarity], result of:
          0.114683956 = score(doc=1742,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.33096135 = fieldWeight in 1742, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1742)
      0.5 = coord(2/4)
    
    Abstract
    Dieser Beitrag handelt von unterschiedlichen Arten verfügbarer Software zur Erzeugung von Registern und untersucht, ob diese dazu benutzt werden können, ein Register nach internationalen Normen zu erstellen. Da oft behauptet wird, dass die Registererstellung mit einem Computer und ohne Einsatz des Menschen durchführbar sei, untersuchen die Autoren, weshalb Indexieren eine Aktivität des Menschen sein muss und weshalb eine automatische Registererstellung kein zufriedenstellendes Register hervorbringen kann. Automatische Registererstellung kann bestenfalls einen Ausgangspunkt zur weiteren Indexierung liefern. Anschließend wird die Möglichkeit der Registererstellung mit allgemein verfügbarer Software untersucht. Dies kann akzeptable Register hervorbringen, wenngleich oft nur auf mühsame Weise. Für den professionellen Indexierer stellt daher spezielle Indexing Software die bevorzugte Option dar. Die drei am meisten benutzten speziellen Indexierungsprogramme werden kurz bewertet. Ausrichtung und Aussehen dieser Programme sind sehr unterschiedlich, aber die Merkmale und Output-Optionen sind sehr ähnlich. Website Indexing ist ein relativ neues Spezialgebiet innerhalb der Disziplin des Indexierens. Zwei Programme - eine Freeware und ein kommerzielles - zur Erstellung von Registern von Websites werden erörtert. Das Fazit insgesamt ist, dass das Registermachen eine Aktivität ist, die intellektuellen Input des Menschen benötigt. Software kann den Input hervorragend verbessern, aber nicht den Anteil des Menschen daran ersetzen.
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.8, S.413-420
  7. Digital libraries : policy, planning and practice (2004) 0.07
    0.07254696 = product of:
      0.14509392 = sum of:
        0.053346746 = weight(_text_:und in 4587) [ClassicSimilarity], result of:
          0.053346746 = score(doc=4587,freq=36.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.41585606 = fieldWeight in 4587, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4587)
        0.091747165 = weight(_text_:handelt in 4587) [ClassicSimilarity], result of:
          0.091747165 = score(doc=4587,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.26476908 = fieldWeight in 4587, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.03125 = fieldNorm(doc=4587)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Der Aufbau digitaler Bibliotheken gilt manchen Unkundigen immer noch als Ei des Kolumbus, um mittels einer Digitalisierung umfangreicher Bestände Stellplatz und Finanzmittel zu sparen. Mittlerweile ist aber offenbar, dass auch die Digitalisierung einen nicht zu vernachlässigenden Aufwand bedeutet und das Problem der zukunftssicheren Aufbewahrung auch auf dieser Ebene immer noch nicht gelöst ist. Es ist somit weder einfach noch billig, entsprechende Vorhaben zu verwirklichen und nicht wenige Projekte sind zu einem Investitionsgrab verkommen. Um so erfreulicher, dass dieser Band nun einen Überblick über die Erfahrungen von koordinierten Forschungsprogrammen in den USA und Großbritannien von 1994 bis ca. 2002 gibt und Einblicke in Politik, Planung, Einrichtung und Handhabung der von diesen Programmen gesponserten Projekten erlaubt und dies aus unterschiedlichen Perspektiven. Im einleitenden Teil wird in zwei Kapiteln zunächst eine Übersicht über die Entwicklung der Forschungsprogramme in den USA und GB gegeben. Bei der Lektüre wird offenbar, wie viel im angelsächsischen Bereich in diesem Bereich investiert wurde und dass viele bekannte aktuelle Dienste, kostenlose als auch kommerzielle, in ihnen ihre Wurzeln haben. Insbesondere die Abhandlung über die USA sollte deutsche Bibliothekspolitiker interessieren, handelt es sich doch dabei um eine umfangreiche Finanzierung eines föderalen politischen Systems. Im darauf folgenden ersten Teil werden dann die Themenbereiche Ökonomie und Finanzierung, Inhaltsarten, Open Access, digitale Präservation und Evaluation von elektronischen Informationsdiensten eingehend behandelt. Es werden jeweils die Probleme und "Handlungsfelder" in allen Facetten dargestellt, welche sich beim Aufbau jeder digitalen Bibliothek stellen und gelöst werden müssen.
    Teil zwei bietet dann Fallbeispiele für Implementation und Aufbau verschiedener digitaler Bibliotheken, u.a. von städtischen, universitären digitalen Bibliotheken und von solchen, die per Netzwerk erstellt werden. Auch eine digitale Bibliothek, welche Musik beinhaltet und jene der Library of Congress werden vorgestellt. Im dritten Teil werden dann Aspekte der Zukunft digitaler Bibliotheken am Beispiel der Tilburg University Library vorgestellt. Entwicklungslinien und einige Sackgassen seit 1992 werden herausgearbeitet und die Zukunft als eine Implementation der digitalen Bibliothek in eLearning-Strategien der Trägerorganisation dargestellt. Ein Stichwortregister rundet den Band ab. Der Band, geschrieben von kompetenten, aus der Praxis kommenden Beiträgern, sollte Pflichtlektüre sein nicht nur für jene, welche Projekte im Bereich der Digitalisierung planen oder durchführen, sondern für alle, welche sich für die Weiterentwicklung des Bibliothekswesens interessieren. Insbesondere der Teil zu den einzelnen Handlungsfeldern bietet gute Zusammenfassungen von Problemstellungen, an denen sich früher oder später jede Bibliothek abmühen muss. Die Vielfalt der aufgeführten Praxisbeispiele ist ebenfalls sehr anregend. Lektüre empfohlen!"
  8. Bruner, J.: From communication to language (1975) 0.07
    0.06575474 = product of:
      0.13150948 = sum of:
        0.039762318 = weight(_text_:und in 2635) [ClassicSimilarity], result of:
          0.039762318 = score(doc=2635,freq=20.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.3099608 = fieldWeight in 2635, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2635)
        0.091747165 = weight(_text_:handelt in 2635) [ClassicSimilarity], result of:
          0.091747165 = score(doc=2635,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.26476908 = fieldWeight in 2635, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.03125 = fieldNorm(doc=2635)
      0.5 = coord(2/4)
    
    Abstract
    Bruner war der erste Erforscher des Spracherwerbs von Kindern, der Wittgensteins Problem zu würdigen wußte und eine Antwort darauf vorschlug. Wittgensteins allgemeinem Ansatz folgend, behauptete Bruner, daß das Kind den konventionellen Gebrauch eines sprachlichen Symbols dadurch erwirbt, daß es lernt, an einer Interaktionsform (Lebensform, Szene gemeinsamer Aufmerksamkeit) teilzunehmen, die es zunächst nichtsprachlich versteht, so daß die Sprache des Erwachsenen in geteilten Erfahrungen verankert werden kann, deren soziale Bedeutung es schon begreift. Eine Schlüsselkomponente dieses Prozesses ist zunächst ein Kind, das Erwachsene als intentionale Wesen auffassen kann, so daß es in bestimmten Kontexten seine Aufmerksamkeit mit ihnen teilen kann. Eine andere Komponente ist jedoch die bereits existierende, äußere soziale Welt, in der das Kind lebt. Um Sprache zu erwerben, muß das Kind in einer Welt leben, die strukturierte soziale Tätigkeiten aufweist, die es verstehen kann, so wie unser hypothetischer Besucher Ungarns das Kaufen von Fahrkarten und das Reisen mit Zügen verstand. Für Kinder bedeutet das häufig die Wiederkehr derselben routinemäßigen, allgemeinen Aktivität, so daß sie erkennen können, wie diese Aktivität aufgebaut ist und wie die verschiedenen sozialen Rollen in ihr funktionieren. Wenn wir am Spracherwerb interessiert sind, muß der Erwachsene außerdem ein neues sprachliches Symbol auf eine solche Weise verwenden, die das Kind als relevant für die gemeinsame Tätigkeit erkennen kann (nämlich im Gegensatz zur unvermittelten Ansprache des Ungarn auf dem Bahnhof). Wenn ein Kind in eine Welt geboren werden würde, in der dieselbe Art von Ereignis nie wiederkehrte, derselbe Gegenstand nie zweimal erschiene und Erwachsene nie dieselben Ausdrücke im selben Kontext verwendeten, dann würde im allgemeinen schwer zu sehen sein, wie dieses Kind eine natürliche Sprache erwerben könnte, welche kognitiven Fähigkeiten es auch immer haben möge. Eine Reihe von Untersuchungen hat gezeigt, daß Kinder nach ersten Fortschritten beim Spracherwerb neue Wörter am besten in Szenen gemeinsamer Aufmerksamkeit lernen. Oft handelt es sich dabei um solche, die in ihrer täglichen Erfahrung wiederkehren, wie Baden, Füttern, Windelwechseln, Vorlesen und Autofahren. Diese Tätigkeiten sind in vielen Hinsichten analog zu dem Szenario des Fahrkartenkaufs auf einem Bahnhof, insofern das Kind seine eigenen und die Ziele des Erwachsenen in der jeweiligen Situation versteht, was ihm ermöglicht, die Relevanz des Sprachverhaltens des Erwachsenen für diese Ziele zu erschließen. So stellten Tomasello und Todd fest, daß Kinder, die mit ihren Müttern längere Zeit bei Tätigkeiten gemeinsamer Aufmerksamkeit im Alter zwischen zwölf und achtzehn Monaten verbrachten, mit achtzehn Monaten ein größeres Vokabular hatten. Bei der Sprachverwendung Erwachsener innerhalb dieser Szenen gemeinsamer Aufmerksamkeit fanden Tomasello und Farrar sowohl korrelative als auch experimentelle Belege für die Hypothese, daß Mütter, die Sprache beim Versuch verwendeten, der Aufmerksamkeit ihrer Kinder zu folgen (d. h. über einen Gegenstand zu sprechen, der schon im Brennpunkt des Interesses und der Aufmerksamkeit des Kindes stand), Kinder mit einem größeren Vokabular hatten als Mütter, die Sprache beim Versuch verwendeten, die Aufmerksamkeit des Kindes auf etwas Neues zu lenken.
  9. Clyde, L.A.: Weblogs and libraries (2004) 0.06
    0.05997389 = product of:
      0.11994778 = sum of:
        0.039669015 = weight(_text_:und in 5496) [ClassicSimilarity], result of:
          0.039669015 = score(doc=5496,freq=26.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.3092335 = fieldWeight in 5496, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5496)
        0.08027877 = weight(_text_:handelt in 5496) [ClassicSimilarity], result of:
          0.08027877 = score(doc=5496,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.23167294 = fieldWeight in 5496, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5496)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Weblogs oder Blogs, zu deutsch: Netztagebücher, machen seit einigen Jahren als neue Kommunikationsform im World Wide Web Furore. Waren es zunächst einzelne Menschen, welche über Weblogs Informationen und Meinungen transportierten, so entwickeln sich Weblogs zunehmend zu Medien, durch welche auch von Institutionen Marketinginformationen an Nutzer/Kunden verteilt werden. Freilich ist dabei zu beachten, dass es sich bei Weblogs nicht unbedingt um ein Ein-WegMedium handelt: Indem die Nutzer oft vom Betreiber des Weblogs die Möglichkeit bekommen, Kommentare abzugeben, bekommt ein Weblog so einen Forencharakter, indem die angebotene Information diskutiert wird bzw. werden kann. Wenn man sich der Dienstleistungen seiner Institution sicher ist und die Außendarstellung souverän zu handhaben vermag, kann man also mittels eines Weblogs Inhalte gut transportieren und Rückmeldungen direkt entgegennehmen. Falls nicht, kann man auf die Kommentarfunktion auch verzichten. Wer sich überlegt, eventuell ein Weblog als weiteres Marketinginstrument und zur Hebung des Images der Bibliothek einzuführen, der bekommt mit diesem Werk eine umfassende Einführung. Die Autorin ist Professorin an einer bibliothekarischen Ausbildungsstätte in, Island und gibt hier einen Überblick über Weblogs im allgemeinen und ihren Einsatz im bibliothekarischen Feld im besonderen. Nach einem Überblick über die Weblogs als neues Phänomen des Internets bietet sie eine Einschätzung von Blogs als Informationsquellen, schildert danach die Suche nach Weblogs bzw. nach Inhalten von Weblogs. Sodann behandelt sie Weblogs in der Bibliotheks- und Informationswissenschaft und geht weiter auf Weblogs ein, die von Bibliotheken erstellt werden. Danach kommt der praktische Teil: Wie man ein Weblog einrichtet und - meiner Meinung nach das wichtigste Kapitel - wie man es managt. Am Schluss gibt sie Auskunft über Quellen zu Informationen über Blogs. Ein Stichwortregister schließt den Band ab.
    Wenngleich in diesem Text ausnahmslos angelsächsische Blogs und Ressourcen genannt werden, so stellt er dennoch eine ausgezeichnete Einführung dar, welche wenig Wünsche offen lässt. Nicht nur sind die Sachverhalte knapp, didaktisch und gut strukturiert dargestellt, es herrscht auch ein ausgewogenes Verhältnis zwischen Anleitungstext, statistischen Zahlen, illustrierten Beispielen und Bibliographie. Wer auch immer überlegt, die Mitteilungen seiner Bibliothek in Form eines Weblogs auf der Homepage anzubieten und den Lesern eventuell Rückmeldung in Form von Kommentaren zu ermöglichen, der hat hier die Möglichkeit, sich kompetent über das neue Feld zu informieren."
  10. Hobert, A.; Jahn, N.; Mayr, P.; Schmidt, B.; Taubert, N.: Open access uptake in Germany 2010-2018 : adoption in a diverse research landscape (2021) 0.06
    0.058447532 = product of:
      0.116895065 = sum of:
        0.025147898 = weight(_text_:und in 1251) [ClassicSimilarity], result of:
          0.025147898 = score(doc=1251,freq=8.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.19603643 = fieldWeight in 1251, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1251)
        0.091747165 = weight(_text_:handelt in 1251) [ClassicSimilarity], result of:
          0.091747165 = score(doc=1251,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.26476908 = fieldWeight in 1251, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.03125 = fieldNorm(doc=1251)
      0.5 = coord(2/4)
    
    Abstract
    Es handelt sich um eine bibliometrische Untersuchung der Entwicklung der Open-Access-Verfügbarkeit wissenschaftlicher Zeitschriftenartikel in Deutschland, die im Zeitraum 2010-18 erschienen und im Web of Science indexiert sind. Ein besonderes Augenmerk der Analyse lag auf der Frage, ob und inwiefern sich die Open-Access-Profile der Universitäten und außeruniversitären Wissenschaftseinrichtungen in Deutschland voneinander unterscheiden.
    Footnote
    Den Aufsatz begleitet ein interaktives Datensupplement, mit dem sich die OA-Anteile auf Ebene der Einrichtung vergleichen lassen. https://subugoe.github.io/oauni/articles/supplement.html. Die Arbeit entstand in Zusammenarbeit der BMBF-Projekte OAUNI und OASE der Förderlinie "Quantitative Wissenschaftsforschung". https://www.wihoforschung.de/de/quantitative-wissenschaftsforschung-1573.php.
  11. Maier, T.: Digitale Bibliothek rückt ins Zwielicht : Deutsche Politiker und der Börsenverein des Buchhandels machen Front gegen Google (2009) 0.06
    0.0575354 = product of:
      0.1150708 = sum of:
        0.03479203 = weight(_text_:und in 2815) [ClassicSimilarity], result of:
          0.03479203 = score(doc=2815,freq=20.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.2712157 = fieldWeight in 2815, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2815)
        0.08027877 = weight(_text_:handelt in 2815) [ClassicSimilarity], result of:
          0.08027877 = score(doc=2815,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.23167294 = fieldWeight in 2815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2815)
      0.5 = coord(2/4)
    
    Content
    "Weltweit hat Google in den vergangenen Jahren zehn Millionen Bücher digitalisiert. Jetzt steht der Internet-Konzern vor seinem größten literarischen Coup: In den USA hat er sich mit Autoren und Verlagen in einem Vergleich darauf geeinigt, dass auch urheberrechtlich geschützte Bücher gescannt und im Internet in längeren Passagen zur Verfügung gestellt werden können. Darunter sind aber auch Millionen von Büchern nichtamerikanischer Autoren. Dies hat nun in Deutschland die Buchbranche sowie Autoren von Daniel Kehlmann bis Siegfried Lenz auf die Barrikaden gebracht. Auch die Bundesregierung hat vor dem Gericht in New York Bedenken gegen den Vergleich angemeldet. Die Frist läuft heute ab. "Google Books" ist in den USA dabei, rund 25 Millionen Bücher aus Bibliotheken zu digitalisieren. Bei einem Teil handelt es sich um urheberrechtsfreie Bände - in den USA gilt dies für Bücher, die vor dem Jahr 1923 erschienen sind. Darunter sind aber auch geschützte Bücher, die im Handel als vergriffen gelten. Der Vergleich (Google Book Settlement) sieht nun vor, dass Google die Autoren und Verleger digitalisierter Bücher zu 63 Prozent an etwaigen Einnahmen bei der Vermarktung der Bücher im Internet - etwa durch das Herunterladen oder die Platzierung von Werbeflächen beteiligt. Zusätzlich gibt es für die Rechteinhaber von Büchern, die bereits vor Inkrafttreten des Vergleichs von Google gescannt wurden, bis zu 60 Dollar pro Titel. Auch in den USA sind nicht alle damit glücklich. So gehört zum Beispiel der Sohn von Literaturnobelpreisträger John Steinbeck zu den Klägern.
    Das Zentrum der weltweiten Entrüstung ist jedoch Deutschland. Kulturstaatsminister Bernd Neumann (CDU) befürchtet "die Gefahr eines Informationsmonopols". Und für den Börsenverein des Deutschen Buchhandels, der ebenfalls in New York Einspruch erhoben hat, stehen die "Normen des internationalen Urheberrechts" auf dem Spiel. "Theoretisch hat Google nach dem Vergleich die Möglichkeit, sämtliche auf der Welt erschienenen Bücher zu digitalisieren", sagt Christian Sprang, Justiziar des Dachverbands der deutschen Buchbranche. Google verweist darauf, dass allein das Urheberrecht in den USA betroffen sei. "Es geht nur um Bücher aus den USA und für amerikanische Nutzer", sagt der Sprecher von Google Deutschland, Stefan Keuchel. Ausländischen Online-Nutzern soll technisch der Zugang verwehrt werden. Es gebe im Internet genug Möglichkeiten, dies zu unterlaufen, meint hingegen Sprang. Weltweit arbeitet Google Books bei der Digitalisierung mit 30 renommierten Bibliotheken zusammen, darunter der Oxford Library und der Bayerischen Staatsbibliothek. Allerdings werden in den europäischen Bibliotheken nur urheberrechtsfreie Bücher digitalisiert. In Deutschland gelten Bücher 70 Jahre nach dem Tod des Autors als "gemeinfrei". Wir investieren sehr stark und verdienen damit momentan kein Geld", meint Keuchel mit Blick auf Googles Engagement in den Bibliotheken.
    Kritiker sehen dies keineswegs als Projekt zum Wohle der Menschheit. Sprang argwöhnt, dass über kurz oder lang jede größere Bibliothek weltweit einen Großteil ihres Erwerbungsetats für elektronische Inhalte an Google zahlen muss. Er hält es für ein "Armutszeugnis", dass Bibliotheken weltweit ihre Schätze Google zur Verfügung stellten, nur weil es für die Digitalisierung nicht genügend öffentliche Gelder gebe. Die zuständige EU-Kommissarin Viviane Reding wiederum hält das weltweite Google Projekt für eine Chance, dass Verbraucher an mehr Informationen herankommen. Das Thema bleibt auf alle Fälle heiß: Das US-Justizministerium nimmt das Google Book Settlement kartellrechtlich unter die Lupe. Die Bundesregierung hofft, dass das New Yorker Gericht den Vergleich ablehnt oder deutsche Autoren und Verleger ausklammert. "Die deutschen Rechtsinhaber könnten dann selbst entscheiden, ob und welche Rechte sie Google einräumen", erklärte Bundesjustizministerin Brigitte Zypries."
  12. Lancaster, F.W.; Warner, A.J.: Information retrieval today (1993) 0.06
    0.057341978 = product of:
      0.22936791 = sum of:
        0.22936791 = weight(_text_:handelt in 4675) [ClassicSimilarity], result of:
          0.22936791 = score(doc=4675,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.6619227 = fieldWeight in 4675, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.078125 = fieldNorm(doc=4675)
      0.25 = coord(1/4)
    
    Content
    Es handelt sich um die 3. Aufl. von: 'Information retrieval systems: characteristics, testing and evaluation' des ersten Autors
  13. Oehlschläger, S.: Treffpunkt Standardisierung : Der Standardisierungsausschuss beim 94. Deutschen Bibliothekartag in Düsseldorf (2005) 0.05
    0.052893188 = product of:
      0.105786376 = sum of:
        0.048444398 = weight(_text_:und in 4691) [ClassicSimilarity], result of:
          0.048444398 = score(doc=4691,freq=76.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.37764058 = fieldWeight in 4691, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4691)
        0.057341978 = weight(_text_:handelt in 4691) [ClassicSimilarity], result of:
          0.057341978 = score(doc=4691,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.16548067 = fieldWeight in 4691, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4691)
      0.5 = coord(2/4)
    
    Content
    "Nach Augsburg, Bielefeld und Leipzig hat der Standardisierungsausschuss beim 94. Deutschen Bibliothekartag in Düsseldorf zum vierten Mal in Folge eine Veranstaltung zum Themenfeld Standardisierung durchgeführt, die vom Vorsitzenden, Berndt Dugall, moderiert wurde. Auch in diesem Jahr konnten dafür wieder zwei Referenten aus dem Ausland gewonnen werden, die einen Einblick in internationale Aktivitäten gewährten. Den Auftakt bildete Jeffrey Garrett von der Northwestern University Library in Evanston, Illinois mit seinem Vortrag »Entscheidend auch hier der Einstieg - Wandel und Kontinuität im Ethos des Katalogisierens in den USA«. Zunächst erläuterte der Referent die Losung aus dem Titel, die aus dem Werk »Bücherlabyrinthe: Suchen und Finden im alexandrinischen Zeitalter« von Nikolaus Wegmann stammt. Dieses Buch erinnere daran, dass der Katalog in der Nachfolge von Schrettinger und Dewey den Einstieg des Benutzers in die ansonsten gewaltige Unordnung der Bibliothek ermögliche, und dadurch die »Sichtbarkeit« der modernen Forschungsbibliothek erst her- bzw. sicherstellt. Garrett stellte die Frage nach dem Sinn von Katalogen im elektronischen Zeitalter, einer Zeit, in der bibliografische Angaben beziehungsweise Schlagworte durch Volltextrecherchen, die sich gleichzeitig auf mehrere tausend Publikationen erstrecken können, umgangen werden können, und in welcher der Inhalt eines Textes in ständigem Wandel begriffen ist. In seinem Vortrag hat der Referent einige Entwicklungen auf dem Gebiet des Katalogisierens in den USA teils theoretisch, teils konkret nachgezeichnet, in der Absicht, sowohl den Wandel als auch die Kontinuität im Bereich der Erschließung aufzuzeigen. Die bisweilen geäußerte Feststellung, dass Kataloge auf den Müllhaufen der Geschichte gehörten, bezeichnete Garrett als maßlos übertrieben und nur angesichts des »Google-Schocks« in den USA zu erklären. Der Katalog diene nach wie vor als Beschreibung des Volltexts. Der Moderator kommentierte dazu, dass der Gedanke des »Vanishing catalogue« vergleichbar sei mit dem Traum vom papierlosen Büro. Patrick Le Boeuf, der Vorsitzende der IFLA FRBR Review Group, referierte in seinem Vortrag »Zwischen Traum und Wirklichkeit« über die Functional Requirements for Bibliographic Records (FRBR). Anhand von leicht verständlichen Beispielen erläuterte er, was die FRBR mit den vier Entitäten der Gruppe 1: Werk (work), Fassung (expression), Erscheinungsform (manifestation) und Exemplar (item) sind. Ausführlich ging er auch darauf ein, was die FRBR nicht sind und was sie nicht leisten können. Es handelt sich dabei weder um eine Norm, noch um ein Datenmodell oder gar ein Format. Dennoch haben die FRBR Einfluss auf die Standardisierungsaktivitäten auf internationaler wie nationaler Ebene. In einigen Systemen, Prototypen und Projekten lässt sich das Potenzial des FRBRModells für bibliografische Informationen bereits aufzeigen. Ganz konkret werden die FRBR in die Überlegungen der IFLA Meetings of Experts an an International Cataloguing Code einbezogen und haben Einzug in die »Frankfurt principles« gefunden, deren Ziel eine Aktualisierung der »Paris principles« ist, und die bei nachfolgenden Regionaltreffen bis 2007 von Kolleginnen und Kollegen aus allen Teilen der WeIt weiter diskutiert und modifiziert werden. Durch die gegenwärtige Revision der Anglo-American Cataloguing Rules (AACR) werden die FRBR auch Einzug in das internationale Regelwerk halten.
    Mit großer Spannung wurde der Vortrag von Elisabeth Niggemann und Reiner Diedrichs über das weitere Vorgehen nach Abschluss des Projekts »Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)« erwartet. Unter dem programmatischen Titel »Hinter dem Horizont geht es weiter« stellten der Vorsitzende der Arbeitsgemeinschaft der Verbundsysteme und die Generaldirektorin Der Deutschen Bibliothek vor, wie die Internationalisierung der deutschen Standards im Einzelnen aussehen soll, und welche Maßnahmen erforderlich sind. Die Arbeitsgemeinschaft der Verbundsysteme hatte in ihrer Herbstsitzung 2004 verschiedene Beschlüsse getroffen, welche die Zusammenarbeit der Verbundsysteme fördern und erleichtern sollen. Dazu gehören u. a. die Entwicklung eines prototypischen Verfahrens für einen Neukatalogisierungsdienst mit einheitlichen Datenstrukturen und einheitlichen Formatanwendungen, die Verwendung von MARC21 als einheitlichem Austauschformat und die Entwicklung eines Matchkey-Verfahrens zur verbundübergreifenden Titelerkennung. Außerdem wurden grundsätzliche Anforderungen an das künftige Regelwerk und für eine Reorganisation der Normdatenarbeit formuliert, die die Ziele der Arbeitsgemeinschaft effektiv unterstützen sollen. Der Standardisierungsausschuss hat diese Beschlüsse in seiner 9. Sitzung im Dezember 2004 begrüßt, bestätigt und konkretisiert. Nun gilt es, die Beschlüsse zügig umzusetzen, um die gesteckten Ziele zu verfolgen: einfacher Zugang zu bibliografischer Information national wie international für wissenschaftliche und andere persönliche Nutzer, leichte Austauschbarkeit von bibliografischer Information zwischen professionellen Benutzergruppen und Anwendern und last but not least Kostenreduktion bei der Erschließung. Im Anschluss stellte Renate Gömpel, Die Deutsche Bibliothek, die IFLA-CDNL Allianz für Bibliografische Standards (ICABS) vor, die während des Weltkongresses Bibliothek und Information in Berlin als ein neues strategisches Vorhaben ins Leben gerufen wurde. Mit ICABS streben die National Library of Australia, die Library of Congress, die British Library, die Koninklijke Bibliotheek der Niederlande und Die Deutsche Bibliothek gemeinsam mit der Biblioteca Nacional Portugals, der IFLA und der Conference of Directors of National Libraries (CDNL) die Fortsetzung und Unterstützung von Schlüsselaktivitäten im Bereich der bibliografischen und der Ressourcenkontrolle sowie damit zusammenhängender Formatstandards an. Die Allianz führt damit die Arbeit der Geschäftsstellen der früheren IFLA-Kernprogramme UBCIM (Universal Bibliographic Control and International MARC) und UDT (Universal Dataflow and Telecommunications) fort. In dem Vortrag wurde ein Überblick über Ziele und Vorhaben von ICABS, ihre Organisation sowie deren Arbeit als Dach für facettenreiche Aktivitäten im Bereich bibliografischer Standards gegeben. Koordiniert wird die Arbeit von ICABS durch das Advisory Board, das aus Vertretern aller beteiligten Institutionen und Organisationen besteht und dessen Vorsitz gegenwärtig ebenso wie das Sekretariat bei Der Deutschen Bibliothek angesiedelt ist. Der Standardisierungsausschuss hat bereits erste Planungen für eine Veranstaltung beim 95. Deutschen Bibliothekartag in Dresden angestellt. Dort soll über den Stand der Internationalisierung des deutschen Regelwerks, den Umstieg auf MARC21 und die Weiterentwicklung der Normdateien berichtet werden. Darüber hinaus erwartet die Teilnehmerinnen und Teilnehmer ein Bericht aus dem Joint Steering Committee for Revision of Anglo-American Cataloguing Rules (JSC) über den Stand der AACR3. Es wird sicherlich spannend, merken Sie sich diesen Termin vor."
  14. New directions in cognitive information retrieval (2005) 0.05
    0.050192975 = product of:
      0.10038595 = sum of:
        0.043043975 = weight(_text_:und in 1338) [ClassicSimilarity], result of:
          0.043043975 = score(doc=1338,freq=60.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.33554244 = fieldWeight in 1338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1338)
        0.057341978 = weight(_text_:handelt in 1338) [ClassicSimilarity], result of:
          0.057341978 = score(doc=1338,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.16548067 = fieldWeight in 1338, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1338)
      0.5 = coord(2/4)
    
    Classification
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.95-98 (O. Oberhauser): "Dieser Sammelband der Herausgeber A. Spink & C. Cole ist kurz vor ihrem im letzten Heft der Mitteilungen der VÖB besprochenen zweiten Buch erschienen. Er wendet sich an Informationswissenschaftler, Bibliothekare, Sozialwissenschaftler sowie Informatiker mit Interesse am Themenbereich Mensch-Computer-Interaktion und präsentiert einen Einblick in die aktuelle Forschung zum kognitiv orientierten Information Retrieval. Diese Richtung, die von der Analyse der Informationsprobleme der Benutzer und deren kognitivem Verhalten bei der Benutzung von Informationssystemen ausgeht, steht in einem gewissen Kontrast zum traditionell vorherrschenden IR-Paradigma, das sich auf die Optimierung der IR-Systeme und ihrer Effizienz konzentriert. "Cognitive information retrieval" oder CIR (natürlich geht es auch hier nicht ohne ein weiteres Akronym ab) ist ein interdisziplinärer Forschungsbereich, der Aktivitäten aus Informationswissenschaft, Informatik, Humanwissenschaften, Kognitionswissenschaft, Mensch-Computer-Interaktion und anderen informationsbezogenen Gebieten inkludiert.
    New Directions ist nach demselben, durchaus ansprechenden Muster "gestrickt" wie das oben erwähnte zweite Buch (tatsächlich war es ja wohl umgekehrt) Der vorliegende Band beinhaltet ebenfalls zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich bei den Sektionen 1 und 5 (=Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Erstere ist eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden. Letztere dagegen möchte ein eigenständiger Beitrag sein, der die in diesem Band angesprochenen Aspekte in einen gemeinsamen Bezugsrahmen stellt; de facto ist dies aber weniger gut gelungen als im zweiten Buch, zumal hier hauptsächlich eine Wiederholung des früher Gesagten geboten wird. Die Beiträge aus den drei verbleibenden Hauptsektionen sollen im Folgenden kurz charakterisiert werden:
    CIR Concepts - Interactive information retrieval: Bringing the user to a selection state, von Charles Cole et al. (Montréal), konzentriert sich auf den kognitiven Aspekt von Benutzern bei der Interaktion mit den bzw. der Reaktion auf die vom IR-System ausgesandten Stimuli; "selection" bezieht sich dabei auf die Auswahl, die das System den Benutzern abverlangt und die zur Veränderung ihrer Wissensstrukturen beiträgt. - Cognitive overlaps along the polyrepresentation continuum, von Birger Larsen und Peter Ingwersen (Kopenhagen), beschreibt einen auf Ingwersens Principle of Polyrepresentation beruhenden methodischen Ansatz, der dem IR-System ein breiteres Bild des Benutzers bzw. der Dokumente vermittelt als dies bei herkömmlichen, lediglich anfragebasierten Systemen möglich ist. - Integrating approaches to relevance, von Ian Ruthven (Glasgow), analysiert den Relevanzbegriff und schlägt anstelle des gegenwärtig in IR-Systemverwendeten, eindimensionalen Relevanzkonzepts eine multidimensionale Sichtweise vor. - New cognitive directions, von Nigel Ford (Sheffield), führt neue Begriffe ein: Ford schlägt anstelle von information need und information behaviour die Alternativen knowledge need und knowledge behaviour vor.
    CIR Processes - A multitasking framework for cognitive information retrieval, von Amanda Spink und Charles Cole (Australien/Kanada), sieht - im Gegensatz zu traditionellen Ansätzen - die simultane Bearbeitung verschiedener Aufgaben (Themen) während einer Informationssuche als den Normalfall an und analysiert das damit verbundene Benutzerverhalten. - Explanation in information seeking and retrieval, von Pertti Vakkari und Kalervo Järvelin (Tampere), plädiert anhand zweier empirischer Untersuchungen für die Verwendung des aufgabenorientierten Ansatzes ("task") in der IR-Forschung, gerade auch als Bindeglied zwischen nicht ausreichend mit einander kommunizierenden Disziplinen (Informationswissenschaft, Informatik, diverse Sozialwissenschaften). - Towards an alternative information retrieval system for children, von Jamshid Beheshti et al. (Montréal), berichtet über den Stand der IR-Forschung für Kinder und schlägt vor, eine Metapher aus dem Sozialkonstruktivismus (Lernen als soziales Verhandeln) als Gestaltungsprinzip für einschlägige IR-Systeme zu verwenden. CIR Techniques - Implicit feedback: using behavior to infer relevance, von Diane Kelly (North Carolina), setzt sich kritisch mit den Techniken zur Analyse des von Benutzern von IR-Systemen geäußerten Relevance-Feedbacks - explizit und implizit - auseinander. - Educational knowledge domain visualizations, von Peter Hook und Katy Börner (Indiana), beschreibt verschiedene Visualisierungstechniken zur Repräsentation von Wissensgebieten, die "Novizen" bei der Verwendung fachspezifischer IR-Systeme unterstützen sollen. - Learning and training to search, von Wendy Lucas und Heikki Topi (Massachusetts), analysiert, im breiteren Kontext der Information- Seeking-Forschung, Techniken zur Schulung von Benutzern von IRSystemen.
    Sämtliche Beiträge sind von hohem Niveau und bieten anspruchsvolle Lektüre. Verallgemeinert formuliert, fragen sie nach der Verknüpfung zwischen dem breiteren Kontext des Warum und Wie der menschlichen Informationssuche und den technischen bzw. sonstigen Randbedingungen, die die Interaktion zwischen Benutzern und Systemen bestimmen. Natürlich liegt hier kein Hand- oder Lehrbuch vor, sodass man - fairerweise - nicht von einer systematischen Behandlung dieses Themenbereichs oder einem didaktischen Aufbau ausgehen bzw. derlei erwarten darf. Das Buch bietet jedenfalls einen guten und vielfältigen Einstieg und Einblick in dieses interessante Forschungsgebiet. Fachlich einschlägige und größere allgemeine Bibliotheken sollten es daher jedenfalls in ihren Bestand aufnehmen. Schon die Rezension des oben zitierten zweiten Buches des Herausgeber-Duos Spink-Cole enthielt einen kritischen Hinweis auf das dortige Sachregister. Der vorliegende Band erfordert noch stärkere Nerven, denn der hier als "Index" bezeichnete Seitenfüller spottet geradezu jeder Beschreibung, umso mehr, als wir uns in einem informationswissenschaftlichen Kontext befi nden. Was soll man denn tatsächlich mit Einträgen wie "information" anfangen, noch dazu, wenn dazu über 150 verschiedene Seitenzahlen angegeben werden? Ähnlich verhält es sich mit anderen allgemeinen Begriffen wie z.B. "knowledge", "model", "tasks", "use", "users" - allesamt mit einer gewaltigen Menge von Seitenzahlen versehen und damit ohne Wert! Dieses der Leserschaft wenig dienliche Register ist wohl dem Verlag anzulasten, auch wenn die Herausgeber selbst seine Urheber gewesen sein sollten. Davon abgesehen wurde wieder einmal ein solide gefertigter Band vorgelegt, der allerdings wegen seines hohen Preis eher nur institutionelle Käufer ansprechen wird."
    RVK
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
  15. Lipow, A.G.: ¬The virtual reference librarian's handbook (2003) 0.05
    0.048706867 = product of:
      0.09741373 = sum of:
        0.04007176 = weight(_text_:und in 4992) [ClassicSimilarity], result of:
          0.04007176 = score(doc=4992,freq=52.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.312373 = fieldWeight in 4992, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4992)
        0.057341978 = weight(_text_:handelt in 4992) [ClassicSimilarity], result of:
          0.057341978 = score(doc=4992,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.16548067 = fieldWeight in 4992, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4992)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: B.I.T. online 6(2003) H.3, S.298-299 (J. Plieninger): "Wer im vorigen Heft von B.I.T.online den Fachbeitrag von Hermann Rösch über Bibliothekarische Auskunft im Web gelesen und sich daraufhin überlegt, einen solchen Dienst einzuführen, für den wäre dieses Buch das geeignete Mittel, sich für die Einführung einer Online-Auskunft fit zu machen. Die Autorin ist in der amerikanischen Internet Librarian- und Reference Librarian-Szene wohlbekannt: 1993 verfasste sie mit zwei Mitautoren Crossing the Internet Treshold, ein Tutorial für die Nutzung des Netzes, welches für die Profession eine Hilfestellung für die breite Nutzung des Internets bot. Das hier besprochene Buch könnte eine ähnliche Funktion für die Einführung der Virtual Reference bekommen: Es bietet einen Selbstlernkurs, welcher anschaulich die Grundlagen und die Grundhaltung bei der Implementation eines solchen Dienstes vermittelt. Was ist alles in diesem Kurs enthalten? Der erste Teil des Buches behandelt den Entscheidungsprozess, einen Online-Auskunftsdienst einzuführen: Es werden Vor- und Nachteile diskutiert, die Bedürfnisse der Benutzer untersucht ("There will always be a need for a human consultant to satisfy the needs of the information seeker.") und die Grundlagen der Entscheidungsfindung für eine geeignete Software behandelt. Der zweite Teil handelt dann von den Fragen der "Einrichtung" des virtuellen Auskunftsplatzes. Hier gibt es z.B. eine Schulung in den besonderen Kommunikationsformen, welche beim Chat zu beachten sind, eine Einbettung des neuen Dienstes in das Leitbild, die Geschäftsordnung bzw. Arbeitsorganisation der Bibliothek ("library policies") und zuletzt die komfortable Ausstattung des Auskunftsplatzes für Benutzer und Beschäftigte bis hin zu Fragen der Evaluation und Qualitätssicherung. Der dritte Teil behandelt die Aufgabe, einen Dienst zu implementieren, der sich selbst trägt, indem man ein Marketing für den neuen Dienst einrichtet, das ihn auf herkömmlichen und neuen Wegen promotet und ihn benutzerfreundlich ausgestaltet.
    Im umfangreichen Anhang (44 S.) sind Checklisten, Übungen und Schulungsunterlagen vor allem zur richtigen Kommunikation mit den Benutzern zu finden. Am Schluss des Buches befindet sich noch ein Stichwortverzeichnis. Beigelegt ist eine CD-ROM mit allen im Buch aufgeführten Übungen und Links, so dass man auch am Bildschirm darauf zurückgreifen bzw. sie ausdrucken kann. Hervorzuheben ist, dass das Buch als Arbeitsbuch ausgestattet ist, es gibt viel Raum für Notizen, es werden viele anschauliche Beispiele gegeben und zu jedem Kapitel werden mehrere Übungsaufgaben gestellt. Es ist ein typisches amerikanisches Einführungsbuch, das in beneidenswert anschaulicher und konsequent praktisch orientierter Art die Leserin/den Leser in ein neues Arbeitsfeld einführt, so dass man nach der Lektüre wirklich den Eindruck hat, in Stand gesetzt zu sein, einen solchen Service in professioneller Art und Weise aufbauen zu können. Vielleicht sollte noch hervorgehoben werden, dass die Autorin es verstanden hat, den Inhalt so zu gestalten, dass er ein längeres Haltbarkeitsdatum bietet: Obwohl alle grundsätzlichen Dinge abgehandelt werden, wie z.B. die Entscheidungsgrundlagen für eine Software, wird doch nie eine konkrete Software behandelt. Solche Angaben würden schnell veralten im Gegensatz zu den Kriterien, die Software beurteilen zu können. Die Autorin bemüht sich auch, Internet-Quellen aufzuführen und zu besprechen, wo man sich in diesen Fragen up to date halten kann. Ein Buch, das in die Hände all jener gehört, für welche die Einführung einer Online-Auskunft in Frage kommt. Hermann Rösch führte in seinem Artikel zum Schluss lediglich einige Universitätsbibliotheken an, welche bereits eine Online-Auskunft eingeführt haben. Werden die öffentlichen Bibliotheken einen solchen Dienst nur in kooperativer Art und Weise über die Deutsche Internetbibliothek anbieten? Hoffentlich nicht, da die Einrichtung eines Virtual Reference Desk eine hervorragende Gelegenheit darstellt, das Image der Bibliothek als Informationsvermittlungsstelle nachhaltig zu stärken und jenen Benutzern einen Zugang zur Information zu ermöglichen, welche nicht in die Bibliothek kommen. Jedenfalls gibt dieses Buch die Grundlage, das Für und Wider eines solchen Dienstes abzuwägen und im Falle einer Einrichtung auch die Schulung der betroffenen Auskunftsbibliothekarinnen/-bibliothekare auf eine solide Basis zu stellen."
    Rez. in BuB 56(2004) H.3: "Auskunfts- und Informationsdienst wird in den USA als unverzichtbare und wohl wichtigste bibliothekarische Tätigkeit betrachtet. Daher verwundert nicht, dass die Popularisierung des Internet Bibliothekare und Bibliotheken frühzeitig dazu veranlasst hat, ihre Auskunftsdienstleistungen im Web anzubieten. Dies geschah zunächst durch organisierte Auskunft per E-Mail, später per Webformular und vor allem seit 2000/2001 verstärkt per Chat. Als zusammenfassende Bezeichnung für diese Varianten wird meist der Begriff digital reference verwendet. In den USA, aber auch in Australien, Großbritannien oder Skandinavien schenkt man dem Thema Digital Reference schon seit mehreren Jahren größte Aufmerksamkeit. Die Zahl der bislang dazu publizierten Fachaufsätze lag Ende 2003 bereits weit über 600, jährlich im November findet seit 1999 die »Digital Reference Conference« statt, und mit DIG_REF sowie LiveReference existieren zwei Diskussionslisten, die sich ausschließlich mit Fragen bibliothekarischer Auskunft im Internet beschäftigen. Im vergangenen Jahr sind in den USA allein vier umfangreiche Monographien zu Digital Reference erschienen, darunter das hier zu besprechende Werk von Anne Lipow. ... Gegenwärtig deutet sich an, dass das Thema Digital Reference, Online-Auskunft oder Auskunft per Chat in deutschen Bibliotheken auf mehr Interesse stößt als in den vergangenen Jahren. Nachdem bislang vorwiegend (einige wenige) wissenschaftliche Bibliotheken ChatAuskunft anbieten, haben mehrere Öffentliche Bibliotheken, darunter die ZLB Berlin und die Stadtbücherei Frankfurt am Main, angekündigt, zukünftig auchAuskunftperChatanbieten zu wollen. Eine wichtige Rolle spielt in diesem Zusammenhang der weltweite Auskunftsverbund QuestionPoint, der von OCLC gemeinsam mit der Library of Congress betrieben wird. Sowohl denjenigen, die sich noch im Unklaren sind, als auch jenen, die entsprechende Planungen bereits beschlossen haben, kann der Band von Anne Lipow nur wärmstens empfohlen werden." (H. Rösch)
  16. Plieninger, J.: Vermischtes und noch mehr ... : Ein Essay über die (vergebliche) Nutzung bibliothekarischer Erschließungssysteme in der neuen digitalen Ordnung (2007) 0.05
    0.047920838 = product of:
      0.095841676 = sum of:
        0.038499698 = weight(_text_:und in 1680) [ClassicSimilarity], result of:
          0.038499698 = score(doc=1680,freq=48.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.30011827 = fieldWeight in 1680, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1680)
        0.057341978 = weight(_text_:handelt in 1680) [ClassicSimilarity], result of:
          0.057341978 = score(doc=1680,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.16548067 = fieldWeight in 1680, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1680)
      0.5 = coord(2/4)
    
    Content
    "Dass dieses Buch den Bibliothekaren gewidmet ist, stimmt tröstlich. Denn auf den Punkt gebracht, bedeutet sein Inhalt für unseren Berufsstand: Es kommt nicht mehr auf Euch an! Die Kernthese, die der Autor, ein bekannter Publizist zum Internet und Mitglied einer Harvard-Institution, in diesem Essay überaus anregend und mit vielen Beispielen gespickt ausführt, lautet: Dem Informationsüberfluss durch elektronische Dokumente kann nur noch durch noch mehr Information begegnet werden. Die Erschließung elektronischer Dokumente durch die Benutzer mithilfe von Metadaten und so genannten Tags (freie Verschlagwortung, also nicht standardisierte Metadaten) führt zu einer Überlagerung mit der systematischen Erschließung, für die der bibliothekarische Berufsstand steht. Diese Art der Erschließung wird in der gegenwärtigen Diskussion über Web 2.0 Folksonomy genannt. Nur so, schreibt David Weinberger, können die elektronischen Dokumente vielfältig und vieldeutig erschlossen werden, nach Gesichtspunkten, die vielleicht für viele, vielleicht auch nur für einige relevant sind. Aber auf jeden Fall vielfältiger und zukunftssicherer, als dies durch bibliothekarische Erschließung möglich wäre. Sagenhafte Zuwachsraten Der Autor entwickelt seine Argumente anhand von Beispielen aus vielen Bereichen. Besonders eindrücklich ist seine Schilderung von Fotoarchiven. Er beschreibt das Buttmann-Archiv, eine umfangreiche historische Fotosammlung in den USA, das durch Zettelkataloge erschlossen ist. Hier ist eine Recherche, die von Fachpersonal durchgeführt werden muss, langwierig, und die Erschließung wurde den vielfältigen Bezügen der Darstellungen auf den Fotos nicht gerecht.
    Dann berichtet er über Corbis, ein elektronisches Fotoarchiv, dessen Fotos von professionellen Sachkatalogisierern breit verschlagwortet werden. Und jedermann kann unter www.corbis.com im Bestand des Archivs recherchieren. Als Beispiel für die neue digitale Ordnung stellt er Flickr (www.flickr.com) vor, das einen ungleich größeren Bestand als die beiden anderen Archive mit sagenhaften Zuwachsraten hat. Dort können die Benutzer selbst Fotos hoch laden, Schlagworte (Tags) vergeben und Beschreibungen hinzufügen, anhand derer dann die Recherche erfolgt. Andere Benutzer haben die Möglichkeit, ihrerseits zu allen Bildern jederzeit Kommentare abzugeben. In Flickr gibt es keine Kategorien mehr, alles ist vermischt (eben »miscellaneous«), aber durch die Tags erschlossen. Freie Verschlagwortung? Weinberger führt sehr eindringlich aus, dass durch die elektronische Speicherung und die Erschließung durch Metadaten Erschließungssysteme wie Systematiken und kontrollierte Vokabulare obsolet werden, da sich diese noch am knappen Platz auf den Karteikarten der Zettelkataloge oder an der zweidimensionalen Darstellung auf dem Papier orientieren. Dies erlaube lediglich eine Anordnung in Baumstruktur und somit Entscheidungen für den einen oder anderen systematischen Platz. Computer könnten hingegen vielfältige Zuordnungen vornehmen, bräuchten keine Systematik mit ihren »Entweder hier/ oder da!«-Zuordnungen, da man jedem elektronischen Text-/Bild-/Tondokument Metadaten hinzufügen könne, die eine vielfältige Erschließung und freie Zuordnungen möglich machen. Das ist eine Zumutung für einen Berufsstand, der für eine kontrollierte, strukturierte Erschließung und damit Qualität steht. Jede/r soll frei verschlagworten können? Gibt es dann nicht ein großes Kuddelmuddel der verschiedenen Schreibformen, der Vermischung von Bedeutungen, beispielsweise bei Homonymen? Es gibt! Aber Weinberger beschreibt sehr anschaulich, wie Computer zunehmend hier unterschiedliche Bedeutungen auseinanderdividieren und unterschiedliche Benennungen zusammenführen können.
    Katalog 2.0 Und wir stehen erst am Anfang der Entwicklung, denn man erschrickt, wie kurz erst die »Erfindung« von Tags durch den Gründer des sozialen Bookmarkdienstes Delicious (http://del.icio.us), Joshua Schachter, her ist. Uns wird hier ein Lernprozess abverlangt. Wer beispielsweise seine Bookmarks mithilfe eines sozialen Bookmarkdienstes wie Delicious, Furl (www.furl.net) oder Mr. Wong (www.mister-wong.de) verwaltet, wird zunächst einmal sehr verunsichert sein, die Links nicht in Schubladen zu haben, sondern mithilfe von Tags zu verwalten und zu suchen. Der Rezensent kann sich noch erinnern, wie erleichtert er war, dass Delicious sogenannte Bundles anbietet, doch wieder Schubladen, in denen man die Tags grob gliedern kann. Das stellt sich leider nicht immer als besonders sinnvoll heraus... Wahrscheinlich wird immer wieder die Qualität als Gegenargument ins Feld geführt werden. Die F.A.Z. hat sich über das Buch ziemlich lustig gemacht und auf die wenig qualitätvolle Arbeit von Reader-Editoren und von der Banalität der hoch gerankten Nachrichten bei Digg (www.digg.com) verwiesen. Diese Kritik hat schon ihre Berechtigung, aber auch bei anderen sozialen Diensten wie den Weblogs war es so, dass anfangs Banalität herrschte und jetzt mehr und mehr Fachblogs qualitativ höherwertigen Inhalt bieten. Wenn einmal die Experten die Potenz der Erschließung durch Metatags entdecken, wird die Qualität ansteigen. Das heißt nicht, dass kontrollierte Vokabulare wie die Medical Subject Headings oder RSWK bedeutungslos werden, sie werden aber durch die Verschlagwortung der Nutzer notwendigerweise ergänzt werden müssen, weil sich der Mehrwert dieser Nutzererschließung zeigen wird. Solches wird unter dem Stichwort Katalog 2.0 bereits diskutiert, und es existieren auch schon einige Beispiele dafür.
    Kontrolle aufgeben Es gibt noch weitere Aspekte dieses Buches, die überaus bedenkenswert sind. Über das Wissensmanagement beispielsweise, die Schwierigkeit implizites Wissen explizit zu machen. Der Gedanke auch, dass Wissen vor allem in der Kommunikation, im Gespräch erarbeitet wird, während unsere ganze Bildungskonzeption immer noch von dem Bild ausgeht, dass Wissen etwas sei, was jeder Einzelne in seinen Kopf trichtert. Weinberger benutzt als Beispiel die Schulkinder, die schon längst kollektiv Hausaufgaben machen, indem neben dem Erledigen der Aufgaben her zwei oder drei Chatfenster offen sind und die Lösungswege gemeinsam erarbeitet werden. Gibt es einen Trost für die Bibliothekare? Nach diesem Buch nicht. Prof. Hans-Christoph Hobohm bezweifelt aber in einer Besprechung des Buches im Weblog LIS der FH Potsdam (http://tinyurl.com/ywb8ld), dass es sich um einen Paradigmenwechsel handelt. Aber auch wenn die Zukunft von Bibliotheken im Buch nicht explizit erörtert wird: Zum Schluss behandelt der Autor anhand mehrerer Beispiele die Wirtschaft, die unter diesen Rahmenbedingungen ihr Marketing umstellen müsse: Nur wer seine Kontrolle über die Information aufgebe, könne unter den wechselnden Rahmenbedingungen wieder an Reputation, an Wert gewinnen. Wer sie festzuhalten versucht, verliere notwendigerweise die Kunden! Das lässt sich eins zu eins auf die Bibliotheken übertragen: Nur wer seine Informationen freigibt und die Benutzer (auch) erschließen lässt, wird Erfolg haben. Also muss man in Richtung Katalog 2.0 denken oder beispielsweise an die Zugänglichmachung von RSS-Feeds bestimmter Medien (in Öffentlichen Bibliotheken) oder Zeitschriftenin halten (in wissenschaftlichen Bibliotheken)."
  17. Encyclopædia Britannica 2003 (2002) 0.05
    0.047515534 = product of:
      0.09503107 = sum of:
        0.03768909 = weight(_text_:und in 2701) [ClassicSimilarity], result of:
          0.03768909 = score(doc=2701,freq=46.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.29379928 = fieldWeight in 2701, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2701)
        0.057341978 = weight(_text_:handelt in 2701) [ClassicSimilarity], result of:
          0.057341978 = score(doc=2701,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.16548067 = fieldWeight in 2701, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2701)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft 2003, H.7, S.95-96 (E. Reinecke): "Mehr als zweihundert Jahre lang stellte der Star unter den Nachschlagewerken, die Encyclopaedia Britannica, sich selbst als echt britischen Luxusartikel dar, obgleich sie schon seit den 1930er Jahren in Chicago produziert wird. Nicht nur die edle Ausstattung der Bände selbst beeindruckte den Kunden; auch der persönliche Besuch eines Lexikonvertreters vermittelte das Gefühl, hier einen besonderen Kauf zu tätigen. Der stolze Preis passte in diesen Rahmen: Schon die bescheidenste Ausgabe des Prachtwerks kostete über 3000 DM. Dann kam das Internet, und alles wurde anders. In Gestalt der Microsoft Encarta trat 1992 ein großmächtiger Konkurrent mit niedrigen Preisen auf. Sie konnte zwar die Qualität der ehrwürdigen »Britannica« nicht erreichen; doch wie in anderen Fällen siegte Masse über Klasse. 1996 hatten sich die Verkaufszahlen der »Britannica« halbiert, auch die Produktion einer eigenen CD-Rom-Version konnte die Talfahrt nicht mehr aufhalten. Sie endete noch im selben Jahr mit dem Verkauf des Traditionsunternehmens an einen Schweizer Investor. Für Computer- und Internetfans folgte eine Ära der Freude: Die neuen Eigentümer passten sich dem Trend der Zeit an und gaben den Verkauf über Vertreter zu Gunsten der digitalen Version auf. Wer zu diesem Zeitpunkt die Britannica erwerben wollte, mußte sich mit einer Scheibe zufrieden geben oder den Weg ins World Wide Web gehen. Im Internet waren die Artikel zunächst sogar umsonst zu haben. Heute werden drei verschiedene CDRom-/DVD-Versionen angeboten, und die Website der Encyclopxdia Britannica ist allseits bekannt und beliebt - allerdings nicht mehr kostenlos zugänglich. Wer mehr als Appetithäppchen will, muss sich auf ein Abonnement einlassen. Dieses ist schnell und einfach abgeschlossen; die Kundenfreundlichkeit der Site und ihrer Betreiber ist durchaus bemerkenswert. Nachdem die Entwicklung der elektronischen Britannica schon so weit vorangetrieben war, gab der Verlag 2002 wieder eine neue Devise aus: »Back to the roots«. Nach vier Jahren rein digitaler Vermarktung kommt eine überarbeitete Neuauflage in gedruckter Form auf den Markt. Nun kann der geneigte Leser sich wieder am Anblick von fast anderthalb Metern Buch erfreuen und trotzdem auf dem letzten Stand sein - zumindest kurzfristig. In der Darstellung des deutschen Vertreibers sind gar die CD-Rom-Versioneu nur noch eine »Ergänzung« zum »repräsentativen gedruckten Erzeugnis«. Was kann einen deutschen Leser bewegen, sich der Sprachhürde zum Trotz für die Encyclopxdia Britannica zu entscheiden - egal ob digital oder gedruckt? Der Umfang ist in der Tat beeindruckend. Allein der zwölfbändige erste Teil, die »Micropxdia«, enthält bereits die Stichwortartikel eines kompletten Lexikons. Das richtig tief gehende Wissen (»Knowledge in Depth«) steht in der 17 Bände umfassenden »Macropxdia«. Auf durchschnittlich zwanzig, gelegentlich bis zu 300 Seiten findet der Leser eine Art Überblicksvorlesung zu Themen wie »Telekommunikation«, »Algebra« oder »Die Schweiz«. So wird der Nachschlagende im besten Sinne zum Studierenden. Insgesamt kommen über 65 000 Artikel mit mehr als 24 000 Fotos, Karten und Illustrationen zusammen. Zur Erschließung dieser Fülle gibt es einen zweibändigen Index der Luxusklasse: mit 700 000 Einträgen, die zum Stich wort nicht nur Band und Seitenzahl, sondern auch die Spalte und die - obere oder untere - Spaltenhälfte nennen.
    Der pädagogische Anspruch des Werkes zeigt sich am deutlichsten im »nullten Band«, der »Propaedia« oder »Outline of Knowledge«. Es handelt sich um nichts weniger als den Versuch, die Gesamtheit des menschlichen Wissens säuberlich in zehn große Schubladen zu sortieren, die wieder in Unter- und Unterunterschubladen (divisions und sections) eingeteilt sind. Eine division des großen Wissensgebiets »Human Life« ist zum Beispiel »Stabes in the Development of Human Life« mit den sections »Human Evolution« und »Human Heredity«. Letztere enthalten Empfehlungen zum Weiterlesen in Micro- und Macropeadia. Wie sieht es mit Aktualität und Detailreichtum des gedruckten Werkes aus? Zumindest dem Kandidaten von »Wer wird Millionär?«, der bei der Frage nach dem zweiten Vornamen der »Harry Potter«-Autorin Joanne K. Rowling sehr ins Schwitzen geriet, hätte das Werk geholfen. Die Dame heißt »Kathleen«. Joschka Fischer wird mit einer ausführlichen Biografie gewürdigt. Diese bekommt allerdings nicht jeder Besitzer des Werkes zu Gesicht: Sie befindet sich in einem der jedes Jahr zusätzlich aufgelegten Bände »Britannica Book of the Year« - in diesem Fall von 1996. Für den Hauptteil ist unser Außenminister offensichtlich noch nicht lange genug im Geschäft. Schwieriger wird es, wenn schon die Frage nicht ganz klar ist: »Apropros Alarmanlagen. War da nicht irgendwann einmal etwas mit Gänsen, die einen Überfall verhinderten?« Unter welchem Stichwort sollte man da schauen? Gänse? Historische Überfälle? Hier hilft die elektronische Version, die schon auf die Suchbegriffe »geese« und »warning system« die Geschichte vom nächtlichen Überfall der Gallier auf Rom im Jahre 390 v. Chr. liefert. Die Begeisterung über den Erfolg darf sich aber in Grenzen halten. Die Internet-Suchmaschine Google findet die Gänsegeschichte genauso schnell, sogar in wesentlich ausführlicherer Form, desgleichen den zweiten Vornamen von Frau Rowling. Und über Joschka Fischer findet man auf dessen eigener Website noch einiges mehr als nur seine Biografie. Macht also eine gute Suchmaschine das ganze Lexikon entbehrlich? Ich glaube nicht. Die Encyclopaedia beantwortet doch noch mehr Fragen als das Internet. Vor allem aber kann man den Antworten in (fast) jeder Hinsicht vertrauen. Für Recherchezwecke ist die gedruckte Form der »Britannica« der digitalen eindeutig unterlegen. Letztere wird immerhin vierteljährlich aktualisiert; außerdem bietet sie vielfältige Suchstrategien, zusätzliche Bilder, Videos, Animationen, den Online-Zugriff auf mehrere tausend Zeitschriftenartikel, Videoclips und Verweise auf Zigtausende von Websites, die eigens von den »Britannica«-Redakteuren ausgewählt wurden. Ist es also reine Nostalgie - vielleicht sogar Snobismus -, sich die Prachtbände ins Regal zu stellen? Vielleicht mag es ja Leute geben, die ganze Kapitel am Bildschirm lesen oder sich ausdrucken. Wenn es um Lernvergnügen und nicht nur um kurze Fakteninformation geht, dann ist für mich ein Buch in den meisten Fällen die bessere Wahl. Durch die pädagogische Sorgfalt der Redakteure fühlt sich der Leser eingeladen, sich einen Überblick über ganze Gebiete zu verschaffen und nicht nur schnelles Wissen abzugreifen. Wo ein Kapitel bis zu 300 Seiten lang sein kann, da ist die Buchform sehr willkommen. Und ganz ehrlich - ein bisschen Tradition und Nostalgie schadet nicht. Die Herausgeber pflegen diese Tradition auf besondere Weise. Unter http:// www.1911encyclopedia.org ist die Originalausgabe der »Britannica« von 1911 abzurufen - kostenlos."
  18. Libraries and Google (2005) 0.05
    0.04751316 = product of:
      0.09502632 = sum of:
        0.03015127 = weight(_text_:und in 2973) [ClassicSimilarity], result of:
          0.03015127 = score(doc=2973,freq=46.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.23503943 = fieldWeight in 2973, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=2973)
        0.06487505 = weight(_text_:handelt in 2973) [ClassicSimilarity], result of:
          0.06487505 = score(doc=2973,freq=4.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.18722002 = fieldWeight in 2973, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.015625 = fieldNorm(doc=2973)
      0.5 = coord(2/4)
    
    Footnote
    Co-published simultaneously as Internet reference services quarterly, vol. 10(1005), nos. 3/4 Rez. in: ZfBB 54(2007) H.2, S.98-99 (D. Lewandowski): "Google und Bibliotheken? Meist hat man leider den Eindruck, dass hier eher ein oder gedacht wird. Dies sehen auch die Herausgeber des vorliegenden Bandes und nehmen deshalb neben Beiträgen zur Diskussion um die Rolle der Bibliotheken im Zeitalter von Google auch solche auf, die Tipps zur Verwendung unterschiedlicher Google-Dienste geben. Die allgemeine Diskussion um Google und die Bibliotheken dreht sich vor allem um die Rolle, die Bibliotheken (mit ihren Informationsportalen) noch spielen können, wenn ihre Nutzer sowieso bei Google suchen, auch wenn die Bibliotheksangebote (zumindest von den Bibliothekaren) als überlegen empfunden werden. Auch wenn die Nutzer geschult werden, greifen sie doch meist lieber zur einfachen Recherchemöglichkeit bei Google oder anderen Suchmaschinen - vielleicht lässt sich die Situation am besten mit dem Satz eines im Buch zitierten Bibliothekars ausdrücken: »Everyone starts with Google except librarians.« (5.95) Sollen die Bibliotheken nun Google die einfache Recherche ganz überlassen und sich auf die komplexeren Suchfragen konzentrieren? Oder verlieren sie dadurch eine Nutzerschaft, die sich mittlerweile gar nicht mehr vorstellen kann, dass man mit anderen Werkzeugen als Suchmaschinen bessere Ergebnisse erzielen kann? Diese sicherlich für die Zukunft der Bibliotheken maßgebliche Frage wird in mehreren Beiträgen diskutiert, wobei auffällt, dass die jeweiligen Autoren keine klare Antwort bieten können, wie Bibliotheken ihre Quellen so präsentieren können, dass die Nutzer mit der Recherche so zufrieden sind, dass sie freiwillig in den Bibliotheksangeboten anstatt in Google recherchieren. Den Schwerpunkt des Buchs machen aber nicht diese eher theoretischen Aufsätze aus, sondern solche, die sich mit konkreten Google-Diensten beschäftigen. Aufgrund ihrer Nähe zu den Bibliotheksangeboten bzw. den Aufgaben der Bibliotheken sind dies vor allem Google Print und Google Scholar, aber auch die Google Search Appliance. Bei letzterer handelt es sich um eine integrierte Hard- und Softwarelösung, die die Indexierung von Inhalten aus unterschiedlichen Datenquellen ermöglicht. Der Aufsatz von Mary Taylor beschreibt die Vor- und Nachteile des Systems anhand der praktischen Anwendung in der University of Nevada.
    Ebenfalls direkt aus der Praxis erhält der Leser Informationen zum Google-PrintProgramm. Robert Milne beschreibt die Zusammenarbeit von Google und der Universität Oxford. In diesem Aufsatz wird - was dem Autor natürlich nicht anzulasten ist - ein Problem des vorliegenden Werks deutlich: Viele Informationen sind doch von sehr beschränkter Haltbarkeit. Der Redaktionsschluss war im Frühsommer 2005, sodass sich in vielen Bereichen bereits neue Entwicklungen ergeben haben. Dies ist beim Print-Programm der Fall, vor allem wird es aber bei dem Hauptthema des Bandes, nämlich Google Scholar, deutlich. Dieser Dienst wurde im November 2004 gestartet und stieß auf unterschiedlichste Reaktionen, die (anhand von Beispielen amerikanischer Bibliotheken) im Beitrag von Maurice C. York beschrieben werden. Einige Bibliotheken nahmen den Dienst begeistert auf und verlinkten diesen mit Lob versehen auf ihren Websites. Andere reagierten gegenteilig und warnten vor dessen schlechter Qualität. Auch weil vorauszusehen war, dass Google Scholar bei den Nutzern gut ankommen würde, darf das folgende Statement von einer Bibliothekswebsite geradezu als ignorant gelten: Google Scholar »is wonderful for those who do not have access to the library's databases« (S.119). Wie nun die Scholar-Nutzer auf die Bibliotheksangebote gelenkt werden können, beschreibt der ironisch »Running with the Devil« betitelte Aufsatz von Rebecca Donlan und Rachel Cooke. Die Autorinnen beschreiben den Einsatz von Link-Resolvern und gehen auf die in Google Scholar bestehenden Probleme durch unklare Bezeichnungen in den Trefferlisten ein. Einige Beispiele zeigen, dass Google Scholar auch in Kombination mit der Verlinkung auf die Bibliotheksbestände keine befriedigende Recherchesituation herstellt, sondern vielmehr weitere Anstrengungen nötig sind, um »das Beste beider Welten« zusammenzuführen. Zwei weitere Aufsätze beschäftigen sich mit der Frage, wie gut Google Scholar eigentlich ist. Einmal geht es darum, wie gut Scholar den »ACRL Information Literacy Standards« genügt. Der zweite Beitrag vergleicht Google Scholar anhand von fünf Suchaufgaben einerseits mit einem lokalen Bibliothekskatalog, andererseits mit EBSCOs Academic Search Premier und jeweils einer fachspezifischen Datenbank. Die Ergebnisse zeigen keine durchgehende Überlegenheit einer Suchlösung, vielmehr wird deutlich, dass es auf die Auswahl des richtigen Suchwerkzeugs für die bestehende Suchanfrage ankommt bzw. dass erst eine Kombination dieser Werkzeuge zu optimalen Ergebnissen führt. Man könnte also auch hier wieder sagen: Google und Bibliotheken, nicht Google oder Bibliotheken.
    Ein besonders interessanter Aufsatz widmet sich der Frage, wie Bibliotheken ihre Web-Angebote (hier: vor allem die Seiten zu digitalisierten Werken) so optimieren können, dass sie von Google und anderen Suchmaschinen optimal indexiert werden können. Dies wird leicht verständlich erklärt und dürfte für viele Bibliotheken, deren entsprechende Websites noch suboptimal gestaltet sind, eine gute Hilfestellung sein. Auch sehr praktisch orientiert ist der letzte Beitrag des Bandes, der verschiedene Quellen vorstellt, die sich mit aktuellen Entwicklungen bei Google (bzw. bei Suchmaschinen allgemein) beschäftigen, diese einzeln bewertet und Empfehlungen abgibt, welche man regelmäßig und welche man ab und zu lesen sollte. Die Bedeutung ist hier klar: Wenn Bibliotheken sich mit Google messen (oder darüber hinaus gehen?) möchten, müssen sie die Konkurrenz und ihre aktuellen Produkte kennen. Interessant wäre gewesen, noch den einen oder anderen Beitrag zu Suchprodukten von Bibliotheksseite zu lesen. Wie sollten solche Produkte beschaffen sein, um den Google-Nutzer zu den Bibliotheksangeboten zu führen? Welche Angebote gibt es hier bereits? Wie sehen die Anbieter von OPACs und Bibliothekssystemen die Zukunft der Bibliotheksrecherche? Und auch auf die nach Meinung des Rezensenten zurzeit wohl wichtigste Frage im Google-Kontext wird nicht eingegangen: Wie kann es den Bibliotheken gelingen, ein System (oder Systeme) zu schaffen, das nicht nur versucht, die Stärken der Suchmaschinen zu adaptieren, sondern ihnen einen Schritt voraus zu sein? Diese Kritik soll aber nicht darüber hinwegtäuschen, dass es sich bei dem vorliegenden Werk um eine gut lesbare Zusammenstellung von Aufsätzen handelt, die allen empfohlen werden kann, die sich einen Überblick zur Thematik verschaffen wollen, die Diskussion in den internationalen Fachzeitschriften aber nicht sowieso minutiös verfolgen."
  19. New directions in human information behavior (2006) 0.04
    0.04487215 = product of:
      0.0897443 = sum of:
        0.032402325 = weight(_text_:und in 1577) [ClassicSimilarity], result of:
          0.032402325 = score(doc=1577,freq=34.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.25258717 = fieldWeight in 1577, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1577)
        0.057341978 = weight(_text_:handelt in 1577) [ClassicSimilarity], result of:
          0.057341978 = score(doc=1577,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.16548067 = fieldWeight in 1577, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1577)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Mitt VÖB 59(2006) H.2, S.83-88 (O. Oberhauser): "Dieser neue Sammelband möchte Interessenten aus den Bereichen Informationswissenschaft, Bibliothekswesen sowie Sozial- und Evolutionspsychologie aktuelle Entwicklungen und neue theoretische Ansätze auf dem Gebiet des menschlichen Informationsverhaltens-human information behavio(u)r bzw. kurz HIB - vermitteln. Es geht dabei um die komplexen Informationsprozesse, die in das alltägliche Sozialverhalten und die Lebensabläufe menschlicher Individuen eingebettet sind. Die beiden Herausgeber sind in diesem Teilbereich der Informationswissenschaft auch durch eine Reihe anderer Publikationen einschlägig ausgewiesen: Amanda Spink (vormals Universität Pittsburgh), die sich kürzlich selbst in aller Bescheidenheit als "world-class ICT researcher" beschrieb,' ist Professorin an der Technischen Universität Queensland (Australien); Charles Cole ist Research Associate (wissenschaftlicher Projektmitarbeiter) an der McGill University in Montreal und selbständiger Berater für Informationsdesign. Gemeinsam haben Spink und Cole zuletzt, ebenfalls bei Springer, eine weitere Aufsatzsammlung - New Directions in Cognitive Information Retrieval (2005) - herausgegeben. Das Buch versammelt zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich allerdings bei den Sektionen 1 und 5 (= Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Während erstere eigentlich nur eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden, darstellt, kann letztere als eigenständiger Beitrag gelten, der versucht, die in diesem Band angesprochenen Aspekte in einem vorläufigen HIB-Modell zu integrieren.
    ... New Directions in Human Information Behavior ist ein Sammelband, der eindrucksvoll dokumentiert, dass sich die Forschung zu den Themen Informationssuche bzw. Informationsverhalten - ein in unserem Sprachraum freilich wenig bekannter und weitgehend unrezipierter Teilbereich der Informationswissenschaft - gegenwärtig stark im Umbruch befindet. Der Trend von den bisherigen, eher an Paradigmen wie Dokument, fachliche Informationssuche, Bibliothek, wissenschaftliche Informationsnutzung orientierten Ansätzen hin zur Betrachtung alltäglicher Situationen und weiterer Bevölkerungsschichten sowie die Einbeziehung von neuen bzw. aus anderen sozialwissenschaftlichen Bereichen stammenden theoretischen Überlegungen ist nicht zu übersehen. Mitunter mutet dies wie eine (Wieder- bzw. Neu-)Entdeckung der Kommunikationswissenschaft durch die Informationswissenschaft an - oder auch umgekehrt, zumal einige der im vorliegenden Band Schreibenden aus communication departments kommen. Wie auch immer, wer sich für den gegenwärtigen Stand der Entwicklung auf dem HIB-Sektor interessiert, kommt um dieses Buch nicht herum. Allerdings taucht darin der Begriff framework - erfahrungsgemäss oft mit weniger handfesten Inhalten korreliert und mir daher stets ein wenig suspekt - für meinen Geschmack etwas zu häufig auf. HIB ist leider nicht das einzige Akronym, das hier eingeführt wird. Bisher ging es im gegenständlichen Kontext ja bloss um IS (information seeking) - ein neben IR (information retrieval) auch schon bekanntes und eingeführtes Kurzwort.
    Angesichts des skizzierten Umbruchs kann HIB wohl akzeptiert werden, doch ist es - wie dieses Buch zu suggerieren trachtet - wirklich notwendig, daneben auch noch IBEC (information behaviour in everyday contexts), ELIS (everyday life information seeking), HIOB (human information organizing behaviour), CIB (collaborative information behaviour), CIS&R (collaborative information seeking & retrieval) und HICB (human information co-ordinating behaviour) zu verwenden? Wohl kaum, doch wer wird bzw. kann ein solches Spamming verhindern? Würde der akademische Ernst nicht jede Schadenfreude verbieten, so könnte man konstatieren, dass diese Akronymenflut zu unnötigen Druckfehlern führt (z.B. p.172, wo sogar in einer Zwischenüberschrift "HIBO" statt "HIOB" zu lesen ist). In herausgeberischer Hinsicht ist weiter zu bemängeln, dass die meist ansehnlichen und sich naheliegenderweise zum Teil überschneidenden Literaturverzeichnisse der einzelnen Beiträge besser in einer Gesamtbibliographie mit konsistentem Zitierstil zu vereinen gewesen wären, zumal sie in der vorliegenden Form auch etwas inkonsistent und nicht fehlerfrei sind. In diese Richtung zu investieren wäre sinnvoller gewesen als in die Erstellung eines geradezu erbärmlichen Sachregisters (dessen Verriss den Rahmen dieser Besprechung sprengen würde), welches auf Herausgeber bzw. Lektorat - falls es letzteres überhaupt noch gibt - ein eher fahles Licht wirft. Abgesehen davon fielen mir nur einige fehlerhafte bzw. unvollständige Angaben der Institutszugehörigkeiten am Beginn der einzelnen Kapitel (z.B. p.113, p.203) sowie die nicht ganz homogen gestalteten Kurzbiographien der Verfasser/innen am Ende des Buches auf. Der Band selbst ist von gewohnt solider Springer-Machart und zielt schon aufgrund seines hohen Preis wohl nur auf institutionelle Käufer ab."
  20. Booth, P.F.: Indexing : the manual of good practice (2001) 0.04
    0.044487454 = product of:
      0.08897491 = sum of:
        0.04310133 = weight(_text_:und in 2968) [ClassicSimilarity], result of:
          0.04310133 = score(doc=2968,freq=94.0), product of:
            0.12828176 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057839315 = queryNorm
            0.33598953 = fieldWeight in 2968, product of:
              9.69536 = tf(freq=94.0), with freq of:
                94.0 = termFreq=94.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=2968)
        0.045873582 = weight(_text_:handelt in 2968) [ClassicSimilarity], result of:
          0.045873582 = score(doc=2968,freq=2.0), product of:
            0.34651768 = queryWeight, product of:
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.057839315 = queryNorm
            0.13238454 = fieldWeight in 2968, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.9910407 = idf(docFreq=301, maxDocs=44421)
              0.015625 = fieldNorm(doc=2968)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.7, S.440-442 (R. Fugmann): "Das Buch beginnt mit dem Kapitel "Myths about Indexing" und mit der Nennung von weit verbreiteten Irrtümern über das Indexieren, und zwar vorrangig über das Registermachen. Mit einem einzigen Satz ist die Problematik treffend skizziert, welcher das Buch gewidmet ist: "With the development of electronic documents, it has become possible to store very large amounts of information; but storage is not of much use without the capability to retrieve, to convert, transfer and reuse the information". Kritisiert wird die weit verbreitet anzutreffende Ansicht, das Indexieren sei lediglich eine Sache vom "picking out words from the text or naming objects in images and using those words as index headings". Eine solche Arbeitsweise führt jedoch nicht zu Registern, sondern zu Konkordanzen (d.h. zu alphabetischen Fundstellenlisten für Textwörter) und"... is entirely dependent an the words themselves and is not concerned with the ideas behind them". Das Sammeln von Information ist einfach. Aber die (Wieder-) Auffindbarkeit herzustellen muss gelernt werden, wenn mehr ermöglicht werden soll als lediglich das Wiederfinden von Texten, die man in allen Einzelheiten noch genau in Erinnerung behalten hat (known-item searches, questions of recall), die Details der sprachlichen Ausdrucksweise für die gesuchten Begriffe eingeschlossen. Die Verfasserin beschreibt aus ihrer großen praktischen Erfahrung, welche Schritte hierzu auf der gedanklichen und technischen Ebene unternommen werden müssen. Zu den erstgenannten Schritten rechnet die Abtrennung von Details, welche nicht im Index vertreten sein sollten ("unsought terms"), weil sie mit Sicherheit kein Suchziel darstellen werden und als "false friends" zur Überflutung des Suchenden mit Nebensächlichkeiten führen würden, eine Entscheidung, welche nur mit guter Sachkenntnis gefällt werden kann. All Dasjenige hingegen, was in Gegenwart und Zukunft (!) ein sinnvolles Suchziel darstellen könnte und "sufficiently informative" ist, verdient ein Schlagwort im Register. Man lernt auch durch lehrreiche Beispiele, wodurch ein Textwort unbrauchbar für das Register wird, wenn es dort als (schlechtes) Schlagwort erscheint, herausgelöst aus dem interpretierenden Zusammenhang, in welchen es im Text eingebettet gewesen ist. Auch muss die Vieldeutigkeit bereinigt werden, die fast jedem natursprachigen Wort anhaftet. Sonst wird der Suchende beim Nachschlagen allzu oft in die Irre geführt, und zwar um so öfter, je größer ein diesbezüglich unbereinigter Speicher bereits geworden ist.
    Der Zugang zum Informationsspeicher ist auch von verwandten Begriffen her zu gewährleisten, denn der Suchende lässt sich gern mit seiner Fragestellung zu allgemeineren und vor allem zu spezifischeren Begriffen leiten. Verweisungen der Art "siehe auch" dienen diesem Zweck. Der Zugang ist auch von unterschiedlichen, aber bedeutungsgleichen Ausdrücken mithilfe einer Verweisung von der Art "siehe" zu gewährleisten, denn ein Fragesteller könnte sich mit einem von diesen Synonymen auf die Suche begeben haben und würde dann nicht fündig werden. Auch wird Vieles, wofür ein Suchender sein Schlagwort parat hat, in einem Text nur in wortreicher Umschreibung und paraphrasiert angetroffen ("Terms that may not appear in the text but are likely to be sought by index users"), d.h. praktisch unauffindbar in einer derartig mannigfaltigen Ausdrucksweise. All dies sollte lexikalisch ausgedrückt werden, und zwar in geläufiger Terminologie, denn in dieser Form erfolgt auch die Fragestellung. Hier wird die Grenze zwischen "concept indexing" gegenüber dem bloßen "word indexing" gezogen, welch letzteres sich mit der Präsentation von nicht interpretierten Textwörtern begnügt. Nicht nur ist eine solche Grenze weit verbreitet unbekannt, ihre Existenz wird zuweilen sogar bestritten, obwohl doch ein Wort meistens viele Begriffe ausdrückt und obwohl ein Begriff meistens durch viele verschiedene Wörter und Sätze ausgedrückt wird. Ein Autor kann und muss sich in seinen Texten oft mit Andeutungen begnügen, weil ein Leser oder Zuhörer das Gemeinte schon aus dem Zusammenhang erkennen kann und nicht mit übergroßer Deutlichkeit (spoon feeding) belästigt sein will, was als Unterstellung von Unkenntnis empfunden würde. Für das Retrieval hingegen muss das Gemeinte explizit ausgedrückt werden. In diesem Buch wird deutlich gemacht, was alles an außertextlichem und Hintergrund-Wissen für ein gutes Indexierungsergebnis aufgeboten werden muss, dies auf der Grundlage von sachverständiger und sorgfältiger Interpretation ("The indexer must understand the meaning of a text"). All dies lässt gutes Indexieren nicht nur als professionelle Dienstleistung erscheinen, sondern auch als Kunst. Als Grundlage für all diese Schritte wird ein Thesaurus empfohlen, mit einem gut strukturierten Netzwerk von verwandtschaftlichen Beziehungen und angepasst an den jeweiligen Buchtext. Aber nur selten wird man auf bereits andernorts vorhandene Thesauri zurückgreifen können. Hier wäre ein Hinweis auf einschlägige Literatur zur Thesaurus-Konstruktion nützlich gewesen.
    Es wird auch die Frage erörtert, wer wegen seines Naturells lieber Abstand vom Indexieren nehmen sollte. Diese Ausführungen sind ebenso nützlich wie die konkrete Indexierungsanleitung. Es könnte manch einem erspart bleiben, sich einer Arbeit zuzuwenden, mit der er überfordert wäre. Hier klärt sich auch die oft gestellte Frage, wer ein Register erstellen soll, der Autor oder ein professioneller Indexer: Der Autor ist dieser Aufgabe gewachsen, sofern er das Indexieren gelernt hat, und zwar mehr als lediglich das Entnehmen von Textwörtern (oder ihrer morphologischen Varianten) und deren programmierte Weiterverarbeitung. Auch darf der Autor beim Indexieren nicht nur die eigene Terminologie im Kopf haben. Der professionelle Indexer ist dieser Aufgabe erst recht gewachsen, wenn er sich auf dem Sachgebiet der Texte gut auskennt. Manch ein Buchautor, der glaubt (oder sich einreden lässt), dass er zum Indexieren nur den Markierstift und die Kenntnis vom Alphabet braucht, müsste sich hier den Spiegel vorhalten, oder auch ein Verleger, der in solchen oder ähnlichen Primitivvarianten eine billige und vollwertige Alternative erblickt. Ein Buch dieser Art lädt zu einem Seitenblick auf die Situation der professionellen Indexierung hierzulande ein. Weder ist hier eine Indexierungs-Profession etabliert, noch scheint sie bei Verlegern und Autoren wenigstens so weit bekannt zu sein, dass sich eine solche Profession entwickeln könnte. Das Ergebnis sind Buchregister voller Anfängerfehler, zum Beispiel überfüllt mit unsinnigen Schlagwörtern (Beispiele hierzu sind in diesem Buch aufgeführt) oder mit Schlagwörtern in unvorhersehbaren und dadurch wertlosen Formulierungen, und dies selbst im informationswissenschaftlichen Lehrbuch oder in der Enzyklopädie. Viele Schlagwörter für wichtige Themen fehlen oftmals gänzlich. Das Nachschlagen gestaltet sich dann zur ungeliebten Mühe und Glücksache. Das Ergebnis sind demzufolge hierzulande Bücher meistens weit unter demjenigen Wert, den sie hätten, wenn sie durch ein gutes Register erschlossen wären.
    Die interpretationslos zusammengestellten "Register" sind auch daran zu erkennen, dass ihnen die informativen, mit viel Sprachgefühl und Sachkenntnis formulierten Untereinträge fehlen, für deren Gestaltung im Buch zahlreiche Ratschläge gegeben werden. Das Resümee von Booth lautet: Wenn ein Indexierungsprogramm brauchbare Ergebnisse erbringen soll, dann kann es nicht vollautomatisch sein. Neben diesen Ausführungen zum gedanklichen Teil der Indexierungsarbeit bietet das Buch auch eine Fülle von Ratschlägen zum rein technischen Teil, speziell zur Orthographie und Typographie des Registers. Vieles, was für den anglo-amerikanischen Sprachraum gilt, könnte direkt für deutschsprachige Register übernommen werden. Dies betrifft z.B. die Singular/PluralFrage bei den Schlagwörtern, die Übersichtlichkeit der Registergestaltung, die Verwendung verschiedener Schriftarten, usw. Ratschläge für die praktische Arbeit werden reichlich gegeben, z.B. wie man sich verhält, wenn der Platz für das Register nachträglich eingeschränkt wird oder wenn zusätzlich Platz zur Verfügung gestellt wird. Man erfährt, wo man sich seine Ausbildung holt (und zwar eine, die über die naive Entnahme von Textwörtern und deren programmierte Weiterverarbeitung hinausgeht), wie man Arbeitsverträge abschließt und Kontakte knüpft, z.B. mit künftigen Auftraggebern oder auch mit Fachkollegen zum Erfahrungsaustausch, wie man sich einen gesunden Arbeitsplatz einrichtet und seine Arbeitszeit einteilen sollte, welche Gesellschaften zum Indexierungsproblem es weltweit gibt und welche Fachzeitschriften man sich halten sollte, um auf dem Laufenden zu bleiben. Es werden auch die Registerprobleme bei einer Neuauflage erörtert. Das Buch möchte eine Anleitung nicht nur zum Buchindexieren geben, sondern auch zum Indexieren von Datenbanken für Zeitschriften. Diesen Anspruch erfüllt das Buch jedoch weniger gut, denn auf die dort akuten Probleme wird nicht genügend eingegangen, wie z.B. auf die Problematik der Präkombinationen und einer retrievaltauglichen Syntax, auf das Problem des schleichenden Verlusts an Vokabularübersichtlichkeit, einer ausreichend hohen (anfänglich stets übertrieben erscheinenden) Indexierungsspezifität und des ständigen Kampfs mit den Controllern und Unternehmensberatern, welche glauben, vorrangig bei der Indexierung Kosten einsparen zu können, weil sie den Nutzen einer guten Indexierung nicht messen können, deswegen nicht zu würdigen wissen (und damit letztlich Fortbestand und Zukunft eines ganzen Dokumentationsunternehmens gefährden). Es ist wohltuend zu lesen, dass Perfektion beim Indexieren aus der Sicht späterer Nutzer "kaum" zu erreichen ist (was im angloamerikanischen Sprachgebrauch so viel bedeutet wie "überhaupt nicht").
    Zwar ist das Register zu diesem Buch ein Vorbild, und dem Verlag sei gedankt, dass dem Register neun Prozent vom Buchumfang zugestanden worden sind. Aber auch hier vermisst man noch immer Schlagwörter wie z.B. "Interpretation" oder "Cutter's Rule" (für die Notwendigkeit, die jeweils besttreffenden Schlagwörter aus dem Indexsprachenwortschatz beim Indexieren zu benutzen), alles Themen, die im Buch abgehandelt sind. Wohltuend ist auch die undogmatische Art, in welcher verschiedene formale Indexierungsvarianten als zulässige Alternativen nebeneinander gestellt werden. Unkonventionell ist es beispielsweise im Register zu diesem Buch, dass ein Schlagwort dort auch schon dann durch Untereinträge aufgegliedert wird, wenn es weniger als fünf bis sechs Fundstellenangaben hat. Wohltuend auch die Unvoreingenommenheit, in welcher die Stärken von nicht interpretierter Volltextverarbeitung dort hervorgehoben werden, wo sie zum Zug kommen können, wie z.B. bei simplen Erinnerungs- und Namenrecherchen. Ein wenig ins Auge springender Ratschlag an jeden, der beruflichen oder privaten Schriftwechsel führt oder Fachliteratur liest, verdient hervorgehoben zu werden. Es ist ratsam, frühzeitig mit einer wenigstens rudimentären Indexierung seines Schrifttums zu beginnen, nicht erst dann, wenn einem seine private Sammlung über den Kopf gewachsen ist und wenn sich die Suchfehlschläge häufen und an den Nerven zu zehren beginnen. Die Erinnerung an den Wortlaut der gesuchten Dokumente, worauf man sich anfänglich noch stützen kann, ist nämlich bald verblasst und steht dann nicht mehr als Suchhilfe zur Verfügung. Allerdings wird man für den Eigenbedarf keine derartig ausführliche Einführung in die Theorie und Praxis des Indexierens benötigen, wie sie in diesem Buch geboten wird. Hierfür gibt es andernorts gute Kurzfassungen. Wer dieses Buch als Indexierungsneuling gelesen hat, wird die Indexierungsarbeit und ein Buchregister fortan mit anderen Augen ansehen, nämlich als einen wesentlichen Teil eines Buchs, besonders wenn es sich um ein Nachschlagewerk handelt. Schon eine kurze Einblicknahme in das Buch könnte das Management, einen Verleger oder einen Buchautor davor warnen, all denjenigen Glauben zu schenken, welche behaupten, den Indexer durch ihr vollautomatisches Computerprogramm ersetzen zu können. Das Indexieren umfasst das Übersetzen als einen Teilschritt, nämlich das Übersetzen der Essenz eines Textes oder eines Bildes in eine Indexsprache mit ihrem geregelten Wortschatz. Was man in der Praxis von vollautomatischen Übersetzungen her kennt, selbst von den bisher am weitesten entwickelten Programmen, sollte hier zur Warnung dienen."

Authors

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 733
  • m 300
  • el 96
  • s 91
  • i 21
  • n 17
  • x 12
  • r 10
  • b 7
  • ? 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications