Search (1161 results, page 1 of 59)

  • × language_ss:"e"
  1. Hartmann, R.R.K.; James, G.: Dictionary of lexicography (1998) 0.13
    0.13237658 = product of:
      0.5295063 = sum of:
        0.5295063 = weight(_text_:hartmann in 4429) [ClassicSimilarity], result of:
          0.5295063 = score(doc=4429,freq=2.0), product of:
            0.50149274 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062971555 = queryNorm
            1.0558604 = fieldWeight in 4429, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.09375 = fieldNorm(doc=4429)
      0.25 = coord(1/4)
    
  2. Digital libraries : policy, planning and practice (2004) 0.12
    0.12136197 = product of:
      0.24272394 = sum of:
        0.18464358 = weight(_text_:jene in 4587) [ClassicSimilarity], result of:
          0.18464358 = score(doc=4587,freq=4.0), product of:
            0.4313197 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.062971555 = queryNorm
            0.42808983 = fieldWeight in 4587, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.03125 = fieldNorm(doc=4587)
        0.058080353 = weight(_text_:und in 4587) [ClassicSimilarity], result of:
          0.058080353 = score(doc=4587,freq=36.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.41585606 = fieldWeight in 4587, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4587)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Der Aufbau digitaler Bibliotheken gilt manchen Unkundigen immer noch als Ei des Kolumbus, um mittels einer Digitalisierung umfangreicher Bestände Stellplatz und Finanzmittel zu sparen. Mittlerweile ist aber offenbar, dass auch die Digitalisierung einen nicht zu vernachlässigenden Aufwand bedeutet und das Problem der zukunftssicheren Aufbewahrung auch auf dieser Ebene immer noch nicht gelöst ist. Es ist somit weder einfach noch billig, entsprechende Vorhaben zu verwirklichen und nicht wenige Projekte sind zu einem Investitionsgrab verkommen. Um so erfreulicher, dass dieser Band nun einen Überblick über die Erfahrungen von koordinierten Forschungsprogrammen in den USA und Großbritannien von 1994 bis ca. 2002 gibt und Einblicke in Politik, Planung, Einrichtung und Handhabung der von diesen Programmen gesponserten Projekten erlaubt und dies aus unterschiedlichen Perspektiven. Im einleitenden Teil wird in zwei Kapiteln zunächst eine Übersicht über die Entwicklung der Forschungsprogramme in den USA und GB gegeben. Bei der Lektüre wird offenbar, wie viel im angelsächsischen Bereich in diesem Bereich investiert wurde und dass viele bekannte aktuelle Dienste, kostenlose als auch kommerzielle, in ihnen ihre Wurzeln haben. Insbesondere die Abhandlung über die USA sollte deutsche Bibliothekspolitiker interessieren, handelt es sich doch dabei um eine umfangreiche Finanzierung eines föderalen politischen Systems. Im darauf folgenden ersten Teil werden dann die Themenbereiche Ökonomie und Finanzierung, Inhaltsarten, Open Access, digitale Präservation und Evaluation von elektronischen Informationsdiensten eingehend behandelt. Es werden jeweils die Probleme und "Handlungsfelder" in allen Facetten dargestellt, welche sich beim Aufbau jeder digitalen Bibliothek stellen und gelöst werden müssen.
    Teil zwei bietet dann Fallbeispiele für Implementation und Aufbau verschiedener digitaler Bibliotheken, u.a. von städtischen, universitären digitalen Bibliotheken und von solchen, die per Netzwerk erstellt werden. Auch eine digitale Bibliothek, welche Musik beinhaltet und jene der Library of Congress werden vorgestellt. Im dritten Teil werden dann Aspekte der Zukunft digitaler Bibliotheken am Beispiel der Tilburg University Library vorgestellt. Entwicklungslinien und einige Sackgassen seit 1992 werden herausgearbeitet und die Zukunft als eine Implementation der digitalen Bibliothek in eLearning-Strategien der Trägerorganisation dargestellt. Ein Stichwortregister rundet den Band ab. Der Band, geschrieben von kompetenten, aus der Praxis kommenden Beiträgern, sollte Pflichtlektüre sein nicht nur für jene, welche Projekte im Bereich der Digitalisierung planen oder durchführen, sondern für alle, welche sich für die Weiterentwicklung des Bibliothekswesens interessieren. Insbesondere der Teil zu den einzelnen Handlungsfeldern bietet gute Zusammenfassungen von Problemstellungen, an denen sich früher oder später jede Bibliothek abmühen muss. Die Vielfalt der aufgeführten Praxisbeispiele ist ebenfalls sehr anregend. Lektüre empfohlen!"
  3. Harvey, D.R.: Preserving digital materials (2005) 0.11
    0.11396706 = product of:
      0.22793412 = sum of:
        0.18464358 = weight(_text_:jene in 1643) [ClassicSimilarity], result of:
          0.18464358 = score(doc=1643,freq=4.0), product of:
            0.4313197 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.062971555 = queryNorm
            0.42808983 = fieldWeight in 1643, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.03125 = fieldNorm(doc=1643)
        0.04329054 = weight(_text_:und in 1643) [ClassicSimilarity], result of:
          0.04329054 = score(doc=1643,freq=20.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.3099608 = fieldWeight in 1643, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1643)
      0.5 = coord(2/4)
    
    Classification
    AN 72300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Buchaufstellung / Bestandssicherung
    Footnote
    Rez. in: Mitt VÖB 60(2007) H.3, S.86-89 (C. Müller): "Ross Harvey widmet sich im vorliegenden Buch den aktuellen Methoden und Praktiken im Bereich der Langzeitarchivierung wie sie einerseits in Bibliotheken aber auch in anderen Institutionen, die sich mit der langfristigen Aufbewahrung digitaler Objekte beschäftigen müssen, angewandt werden. Langzeitarchivierung gehört in den letzten Jahren zu den am meisten diskutierten Themen in der Bibliothekswelt. Die Fülle an Materialien, Meinungen und Positionspapieren im Internet ist nahezu unüberschaubar. Den Bedarf an einem praktischen, überschaubaren Band, der sich den komplexen Belangen rund um das Thema digitale Archivierung widmet, möchte der Autor mit diesem Werk decken. Das Buch ist nicht als Gebrauchsanweisung für jene, die technische Maßnahmen zur Langzeitarchivierung durchführen müssen, konzipiert. Es will vielmehr eine Einführung in die Prinzipien, Strategien und Verfahren der Langzeitarchivierung sein, wie sie derzeit in Bibliotheken schon zum Einsatz kommen. Ross Harvey tut dies vor dem Hintergrund der Ergebnisse schon abgeschlossener und noch laufender Forschungen und praktischer Anwendungen in diesem Bereich. Dabei stützt er sich nicht nur auf Erfahrungen aus Bibliotheken, sondern auch auf Erfahrungen anderer Communities, für welche Langzeitarchivierung ein kritischer Punkt ist, wie zum Beispiel die Geowissenschaften. Der Autor beschreibt, dass die Archivierung digitalen Materials viele Herausforderungen birgt, für die vordigitale Modelle der Konservierung nur wenig Unterstützung bieten.
    Er spricht ganz klar aus, dass es zu dieser Frage keine schnelle technologische Lösung geben wird. Die Erhaltung digitaler Archive über eine lange Zeit ist neben einer technischen vielmehr auch eine institutionelle Frage. Auch organisatorische und rechtliche Herausforderungen spielen in diesen Bereich hinein. "Preserving Digital Materials" widmet sich vier großen Fragen, die dem Buch auch seine Struktur geben: - Warum bewahren wir digitales Material auf? - Welches digitale Material bewahren wir auf? - Wie tun wir dies? - Wie managen wir die digitale Langzeitarchivierung? . . . Im gesamten Buch ist eine Fülle an Materialien und Studien eingearbeitet. Abgerundet wird dieser ausführliche, aber trotzdem übersichtliche Band durch ein Literaturverzeichnis, welches auch viele Online-Quellen enthält. "Preserving Digital Material" ist nicht für ausgewiesene Langzeitarchivierungsexperten konzipiert, sondern wendet sich an all jene, die sich mit der Digitalen Bibliothek beschäftigen und einen fundierten Einstieg in das Thema Langzeitarchivierung suchen."
    RVK
    AN 72300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Buchaufstellung / Bestandssicherung
  4. ¬Der Alte Realkatalog der Staatsbibliothek ist online (2006) 0.10
    0.104238875 = product of:
      0.20847775 = sum of:
        0.16320342 = weight(_text_:jene in 5876) [ClassicSimilarity], result of:
          0.16320342 = score(doc=5876,freq=2.0), product of:
            0.4313197 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.062971555 = queryNorm
            0.37838155 = fieldWeight in 5876, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5876)
        0.045274332 = weight(_text_:und in 5876) [ClassicSimilarity], result of:
          0.045274332 = score(doc=5876,freq=14.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.32416478 = fieldWeight in 5876, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5876)
      0.5 = coord(2/4)
    
    Abstract
    Wissenschaftshistoriker schätzen den Alten Realkatalog (ARK) der Staatsbibliothek zu Berlin als beinahe unerschöpfliche Quelle der Information; aber auch für alle anderen historisch ausgerichteten wissenschaftlichen Disziplinen, die Literatur aus der Zeit von 1501 bis 1955 benötigen, ist der ARK von unschätzbarem Wert. Ab sofort steht dieses unverzichtbare Nachweisinstrument der internationalen Wissenschaft und Forschung online zur Verfügung: http://ark.staatsbibliothek-berlin.de
    Content
    "Der Alte Realkatalog erschließt rund drei Millionen Titel, den umfangreichsten historischen Druckschriftenbestand in einer deutschen Bibliothek, nach inhaltlich-sachlichen Kriterien. Die Bedeutung des ARK liegt nicht nur in seinem Umfang und seiner feinen Gliederung, sondern auch in seiner fachlichen, geographischen und sprachli chen Universalität begründet. Entstanden ist der rund 1800 Sachbände umfassende Katalog in der zweiten Hälfte des 19. Jahrhunderts; mit dem Erscheinungsjahr 1955 wurde er abgeschlossen, da die Weiterentwicklung der Wissenschaften eine modernere Klassifikation erforderte. Bis heute jedoch werden alle antiquarischen Neuerwerbungen der Staatsbibliothek aus dem Zeitraum 1501 bis 1955 über die ARK-Systematik erschlossen. Bislang konnten Titel, die zwischen 1501 und 1955 erschienen sind, nur auf konventionelle Weise in den Folio-Bänden beziehungsweise in der Mikrofiche-Ausgabe des Alten Realkataloges nach sachlichen Kriterien ermittelt werden. Nun kann dies mit vielfach erweiterten und verbesserten Recherchemöglichkeiten sukzessive auch auf elektronischem Wege erfolgen. Im Rahmen eines Erschließungsprojekts der Abteilung Historische Drucke wurden bereits vierzig Prozent der gesamten Systematik (darunter die Katalogteile Jurisprudenz, Kunst, Orientalische Sprachen und die so genannten Kriegsammlungen) elektronisch erfasst, sodass in ihr geblättert oder mit Suchbegriffen recherchiert werden kann; als Ergebnis werden sämtliche Titel der jeweiligen Systemstelle angezeigt. Insgesamt sind auf diese Weise schon weit über eine Million Bücher zu ermitteln. Dabei werden auch jene Titel angezeigt, die einst zum Bestand der Bibliothek gehörten, jedoch als Kriegsverlust einzustufen sind; so bleibt der bibliographische Nachweis der Werke erhalten und der ursprüngliche Sammlungszusammenhang weiterhin erkennbar."
  5. Orna, E.: Information strategy in practice (2004.) 0.08
    0.08253135 = product of:
      0.1650627 = sum of:
        0.11424239 = weight(_text_:jene in 4589) [ClassicSimilarity], result of:
          0.11424239 = score(doc=4589,freq=2.0), product of:
            0.4313197 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.062971555 = queryNorm
            0.26486707 = fieldWeight in 4589, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4589)
        0.05082031 = weight(_text_:und in 4589) [ClassicSimilarity], result of:
          0.05082031 = score(doc=4589,freq=36.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.36387405 = fieldWeight in 4589, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4589)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.203 (J. Plieningr): "Auf der Vorderseite des Umschlags des Paperbacks prangt eine Grafik von der Art, wie man sie im Inhalt des Buches häufig finden kann: Ein runder Kreis, Pfeile nach innen und außen deuten die In- und Outputs an, innen konzentrische Kreise. Ganz außen ist die Organisation zu finden, eins weiter drinnen die Business strategy und den Kern bildet die information strategy. Das strategische Management der Information stellt also in der Vorstellung der Autorin den Kern einer Firma oder Organisation dar. Das Werk soll die Anleitung zu einer solchen Strategie geben. Allerdings handelt es sich im Grunde bei diesem Buch um bekannte Inhalte, da es sich um die nahezu unveränderte, und auch in den Bibliographien der einzelnen Kapitel nicht aktualisierte zweite Auflage von Practical information policies aus dem Jahre 1999 handelt. Aus diesem "Klassiker" wurden die detaillierten Fallstudien entfernt und hier durch eine neue Einleitung und zwei abschließende Kapitel ergänzt. Die Autorin weist denn auch in der Einleitung darauf hin, dass dieses Buch als Studienausgabe des Werkes von 1999 anzusehen ist. Die Literaturangaben der übernommenen Artikel wurden nicht aktualisiert, jene der neu hinzugefügten Kapitel endet bei 2002. Beim Lesen entfaltet das Werk seinen ganzen Charme angelsächsischer Kompetenz, praktische Inhalte theoretisch angeleitet und doch mit immensem Praxisbezug durchzuarbeiten und auszubreiten. Der Inhalt ist häufig durch Aufzählungen und Auflistungen ergänzt, wobei als Kritikpunkt anzumerken -ist, dass die Aufzählungspunkte im Unterschied zu der Vorauflage nicht jeweils auf einer neuen Zeile stehen, sondern in den Zeilenfluss eingearbeitet wurden um Platz zu sparen. Dies geht auf Kosten der Obersichtlichkeit, was einem Werk, das laut Verlagstexten auch für Lehr- und Studierzwecke eingesetzt werden soll, schlecht ansteht.
    Bei der Lektüre fällt zweierlei auf: Zum einen wird großer Wert auf ein "Information Audit" gelegt, ein Gebiet, auf dem deutsche Bibliotheken großen Nachholbedarf haben. Ein solcher Audit geht über eine bloße Benutzerbefragung hinaus und soll die Informationsströme in der Trägerorganisation der Bibliothek untersuchen, um dann erst zu einer Formulierung der Informationsstrategie der Trägerorganisation zu kommen, welche in Folge der gediegenen Vorarbeit dann auf einem gesicherten Fundament steht. Wer sich das Know-how zu einer solchen umfassenden Untersuchung nicht durch Spezialliteratur aneignen will, der bekommt hier eine knappe und doch umfassende Anleitung zur Hand geliefert. Zum anderen wird klar, dass sich die Ausführungen zur Formulierung, Implementation und Umsetzung einer Informationsstrategie vor allem auf Firmen- und Spezialbibliotheken beziehen, ja sogar eher auf die Ebene des Informationsmanagements der Trägerorganisation selbst, also auf die Bibliothek bzw. Informationsvermittlungsstelle. Bibliothe-kare von kommunalen und universitären Systemen werden also nicht unmittelbaren praktischen Nutzen aus der Lektüre ziehen können, gleichwohl bietet das Buch einen guten Ausblick in ein mögliches Handlungsfeld, in das sich diese Bibliotheken sich bewegen könnten. Obgleich im Grunde sechs Jahre alt, sind die Inhalte dieses "Primers" immer noch aktuell. Die angelsächsische Art, Inhalte knapp und didaktisch aufzubereiten, ist hier hervorragend umgesetzt. Die in der Vorauflage breit dokumentierten praktischen Beispiele fehlen hier nicht ganz, da sie verkürzt eingearbeitet wurden und auch sonst immer wieder auf praktische Erfahrungen und Umsetzungen Bezug genommen wird. Die Lektüre wird dem Fachpublikum empfohlen!"
  6. Vickery, B.C.; Vickery, A.: Information science in theory and practice (2004) 0.08
    0.082276486 = product of:
      0.16455297 = sum of:
        0.11540224 = weight(_text_:jene in 5320) [ClassicSimilarity], result of:
          0.11540224 = score(doc=5320,freq=4.0), product of:
            0.4313197 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.062971555 = queryNorm
            0.26755613 = fieldWeight in 5320, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5320)
        0.04915073 = weight(_text_:und in 5320) [ClassicSimilarity], result of:
          0.04915073 = score(doc=5320,freq=66.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.35191986 = fieldWeight in 5320, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5320)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: BuB 56(2004) H.12, S.743 (H, Meinhardt): "1987 erstmals erschienen und seitdem ein Klassiker unter den Lehrbüchern im Feld der Information Science, liegt nunmehr die dritte, deutlich veränderte Auflage vor. Notwendig geworden war die Überarbeitung vor allem durch die Dynamik im Bereich der Informationstechnologien und deren Auswirkungen sowohl auf die Praxis der Informationsspezialisten wie auch die Disziplin selber. Augenfälligste Veränderung ist denn auch ein neues Kapitel zu »Internet und Informationswissenschaft«. »Chemical librarians« Zunächst einige Worte zu den Autoren, die dem einen oder anderen vielleicht nicht bekannt sind: Brian C. Vickery und Alina Vickery sind beide von ihrer Ausbildung her Chemiker und waren als Ehepartner (Alina Vickery starb Ende 2001) auch beruflich vielfältig gemeinsam tätig. Wie viele Chemiker (man denke nur Eugene Garfield, den Begründer der modernen Szientometrie) sensibilisiert für den Umgang mit enormen Informationsmengen und damit Informationsproblemen, zudem als »chemical librarian« (Brian C. Vickery) und Mitarbeiter von chemischen Fachzeitschriften auch professionell beschäftigt mit Fragen des Fachinformationstransfers, haben sie sich (insbesondere Brian C. Vickery) frühzeitig und kontinuierlich informationswissenschaftlich betätigt. Resultat ist eine Fülle von Publikationen, vor allem zu den Bereichen Indexieren, Klassifizieren, Information Retrieval, auch zur Geschichte der wissenschaftlichen Kommunikation (alle Arbeiten sind im Anhang aufgelistet). Brian C. Vickery war außerdem, das dürfte für Bibliothekare von Interesse sein, als Deputy beim Aufbau der National Lending Library for Science and Technology (NLLST) in Boston Spa beteiligt, die ihre Arbeit 1961 aufnahm und 1973 mit in die neu gegründete British Library einging. Und es sei hier schon vorab bemerkt, dass der immer wiederkehrende Bezug von informationswissenschaftlichen Fragestellungen auf die bibliothekarische Praxis ein Vorzug dieses Buches ist.
    Ungewohnte Einordnung und Gewichtung Von der Konzeption her ist das Buch am ehesten als eine Art einführendes Handbuch zu beschreiben, das sehr stark Querschnittscharakter hat. Dem entspricht die inhaltlich weit gespannte Gliederung, die die meisten informationswissenschaftlichen Bereiche streift. Die Autoren verfolgen explizit nicht das Ziel, eine Art Manual für die Informationspraxis oder für das Informationsmanagement vorzulegen, sondern versprechen einen Mix aus theoretischer Annäherung und praxisorientierter Handreichung - und enttäuschen damit nicht. Der deutsche Leser, der mit hiesigen Lehrbüchern zur Informationswissenschaft nicht gerade verwöhnt ist und sich in aller Regel aus vielen Quellen Puzzleartig sein Bild von »Informationswissenschaft« zusammenstoppeln muss (eine nach wie vor rühmliche Ausnahme sind die mehrbändigen »Grundlagen der praktischen Information und Dokumentation«, deren Neuauflage gerade erschienen sind), wird vieles, allerdings in ungewohnter Einordnung und Gewichtung, hier gesammelt vorfinden. Im Einzelnen gehen Vickery auf folgende Bereiche ein: Information und Gesellschaft, Informationstransfer in natürlichen, sozialen, maschinellen Umgebungen, Besonderheiten und Ausprägungen menschlicher Kommunikation und Informationsbedürfnisse, das gesamte Gebiet des Information Retrieval, Wissensrepräsentation, Informationsvermittlung, Informationssysteme und deren Evaluation, Internet und Informationswissenschaft.
    Soziologisch geprägt Das alles auf nicht einmal 350 Seiten: Hier kann es also immer nur um ein »Anreißen« gehen, was sich immer wieder, zum Beispiel in den Abschnitten zu Information Retrieval oder zu Formen der Wissensrepräsentation, schmerzhaft bemerkbar macht. Auf Klassifikationen, Thesauri, Formen des Abstracting und so weiter wird so gut wie nicht eingegangen. Hier ist generell zu fragen, ob die Gewichtung, die die Autoren vornehmen, sinnvoll ist. Ihr Ansatz, Informationswissenschaft zu beschreiben als »the study of the communication of information in sociery«, ist ein sehr weiter und findet seinen Niederschlag in überdimensionierten Abschnitten, die stark soziologisch geprägt sind, ohne wirklich erhellend zu sein; dazu sind die Aussagen, zum Beispiel zu Reichweiten von Kommunikation oder zu verschiedenen Kommunikationstypen, zu allgemein. Bedeutsamer, da dieser umfassende Ansatz überhaupt nicht durchgehalten wird, sondern sich immer stärker verengt hin auf Kommunikation von wissenschaftlicher Information, ist jedoch, dass auch dieses Buch letztlich den Eindruck hinterlässt, Informationswissenschaft sei ein Konglomerat miteinander relativ unverbundener Theorien und Bausteine. Dieser Eindruck, der sich beim Lesen auch deshalb immer wieder aufdrängt, weil sowohl die historische EntwicklungderDisziplin nur sehr verknappt (generell USA-zentriert) wie auch die Abgrenzung/Überschneidungzu anderen Wissenschaften wenig thematisiert wird (ganz stark spürbarim Kapitel 3 »Widercontexts of information transfer«), mildert sich etwas durch die sehr verdienstvolle Auflistung von bekannten Informationsspezialisten im Anhang und die Visualisierung der Informationswissenschaft, ihrer Zweige und bedeutender Vertreter, in Form einer Art »Landkarte«.
    Ein Anliegen aller Das neu hinzugekommene Kapitel zu Informationswissenschaft und Internet versucht auf rund 40 Seiten einen Rundumschlag zu informationswissenschaftlichen Fragestellungen von HTML bis hin zu digitalen Bibliotheken. Auch wenn dieses Kapitel nicht konsistent erscheint, knüpfen die Autoren hier an unmittelbar zurückliegende Forschungen an und fordern ein neues und erweitertes Verständnis von Informationswissenschaft, die die Informationsbedürfnisse aller sozialen Gruppen zu ihrem Anliegen machen müsse. Hier am ehesten schließt sich der Kreis zu dem eingangs bekundeten Verständnis von Informationswissenschaft. Kritische Anmerkung Kritisch muss angemerkt werden, dass es mit den Aktualisierungen, ausgenommen das neu hinzugekommene Kapitel zum Internet, so weit nicht her ist. Besonders ärgerlich sind die vielen Verweise auf Studien und Forschungsergebnisse der Sechziger- und Siebzigerjahre. Unbenommen dieser kritischen Hinweise, bleibt der Titel der Vickerys ein einführendes Buch, dessen Lektüre Gewinn bringend ist und das nach wie vor ein Grundlagenwerk genannt werden kann."
    Weitere Rezension in. Mitteilungen VÖB 57(2004) H.3/4, S.84-86 (O. Oberhauser): " ... Fazit: Wer sich von der Neuauflage von Vickery & Vickery eine auf dem neuesten Stand befindliche Einführung in die Informationswissenschaft erhofft hat, wird enttäuscht sein. Für jene Personen, die das Buch hingegen noch nicht kannten, bzw. jene Bibliotheken, die die ältere Auflage nicht im Bestand haben, ist diese dritte Auflage, ungeachtet ihrer Schwächen und des überhöhten Preises, ein "Muss"!
  7. Hartmann, K.; Lienau, H.-J.: Gruner & Jahr press data bank : first experiences of the usage of optical disc storage technology (MEGADOC) for a large archive (1986) 0.08
    0.07721967 = product of:
      0.3088787 = sum of:
        0.3088787 = weight(_text_:hartmann in 2550) [ClassicSimilarity], result of:
          0.3088787 = score(doc=2550,freq=2.0), product of:
            0.50149274 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062971555 = queryNorm
            0.6159186 = fieldWeight in 2550, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2550)
      0.25 = coord(1/4)
    
  8. Poli, R.: Ontology as categorial analysis (2011) 0.08
    0.07721967 = product of:
      0.3088787 = sum of:
        0.3088787 = weight(_text_:hartmann in 819) [ClassicSimilarity], result of:
          0.3088787 = score(doc=819,freq=2.0), product of:
            0.50149274 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062971555 = queryNorm
            0.6159186 = fieldWeight in 819, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0546875 = fieldNorm(doc=819)
      0.25 = coord(1/4)
    
    Abstract
    Ontological categories are organized along a number of different dimensions. The simplest is the distinction between categories that apply to all entities, both real and ideal, and categories that apply only to some families of entities. More complicated is the analysis of the relations that connect categories one to another. Two different exemplifications of the latter case are provided, i.e., the form of duality linking some paired categories and the relations of superformation and superconstruction that connect levels of reality. Furthermore, an in-depth analysis of the category of temporality is presented. Ideas previously advanced by Nicolai Hartmann are exploited throughout the paper.
  9. Notess, G.R.: Teaching Web search skills : techniques and strategies of top trainers (2006) 0.07
    0.07248626 = product of:
      0.14497252 = sum of:
        0.09792205 = weight(_text_:jene in 1201) [ClassicSimilarity], result of:
          0.09792205 = score(doc=1201,freq=2.0), product of:
            0.4313197 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.062971555 = queryNorm
            0.22702892 = fieldWeight in 1201, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1201)
        0.04705047 = weight(_text_:und in 1201) [ClassicSimilarity], result of:
          0.04705047 = score(doc=1201,freq=42.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.33688194 = fieldWeight in 1201, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1201)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Online-Mitteilungen 2007, H.89, S.17-18 (M. Katzmayr): "Eine der Herausforderungen, der sich Web-Trainerinnen regelmäßig ausgesetzt sehen, besteht in der Kurzlebigkeit der Recherchetools und ihrer ständig wechselnden Funktionalitäten. Wer spricht heute noch von den Suchmaschinen AltaVista oder Lycos? (Hoffentlich) niemand mehr. Diese Dynamik in der Internetbranche wirkt allerdings auf viele potentielle Vortragende abschreckend, scheint es doch ein unzumutbarer Aufwand zu sein, sich laufend über neue Entwicklungen zu informieren. Wer darunter leidet oder zum ersten Mal eine Webschulung vorbereitet, sollte einen Blick in das vorliegende Buch werfen. Dessen Autor, Greg. R. Notess ist im Bereich des praktischen Web Information Retrieval kein Unbekannter: der Auskunftsbibliothekar an der Montana State University hat sich als Betreiber der Website Search Engine Showdown (http://www.search engineshowdown.com), vielgereister Vortragender, erfahrener Didaktiker und regelmäßiger Autor der Zeitschrift Online einen exzellenten Ruf in der Internet-Gemeinde erworben. Nun liegen seine Kenntnisse zur Vermittlung der Webrecherche auch als Monographie vor, die sich an Leiterinnen von Webschulungen richtet. Zum einen finden sich darin eine Vielzahl an didaktischen und organisatorischen Hinweisen zur Planung und Durchführung von Webschulungen. So werden z.B. die verschiedenen Typen von Kursteilnehmerinnen beschrieben und welchen Problemen sich Anfängerinnen in der Webrecherche in der Regel gegenübersehen. Es werden die verschiedenen Arten von Schulungen (Frontalvorträge, Schulungen mit Übungsmöglichkeiten und Online-Tutorials) mit ihren jeweiligen Vor- und Nachteilen sowie idealtypischen Einsatzmöglichkeiten dargestellt, weiters werden Hinweise zu Zielsetzungen und Länge von Kursen gegeben.
    Die anderen Kapitel verweisen auf den Inhalt von Webschulungen. Neben der wichtigen Diskussion von terminologischen Fragen - die Fähigkeit zur Differenzierung von Suchmaschine, Metasuchmaschine und Verzeichnis ist immerhin unverzichtbare Grundlage der-Internetkompetenz - wird auf allgemeine Suchfunktionen wie Phrasensuche, Suchoperatoren, Feldsuche etc. eingegangen. Zwei Kapitel befassen sich mit den möglichen Themenschwerpunkten von Webschulungen: als besonders wesentlich werden von Notess unter anderem die Ausformulierung der Fragestellung, der Hinweis auf die Vielfalt der zur Verfügung stehenden Recherchewerkzeuge, die differenzierte Verwendung von Suchmaschinen und Verzeichnissen und die Bewertung der im Web aufgefundenen Information genannt. Durch diese Auswahl wird (im Buch leider nur implizit) verdeutlicht, dass hier ein wesentlicher Schlüssel zur Bewältigung der eingangs erwähnten Problemstellung liegt: durch eine Konzentration auf diese "zukunftssicheren" Themen - sie unterliegen keinen kurzfristigen Änderungen - ist auch die Vorbereitung von Webkursen und die Aktualisierung der Lehrunterlagen ein überschaubarer Aufwand. Eine Strategie, der übrigens auch das vorliegende Buch folgt: es beschränkt sich auf allgemeine Konzepte und Herangehensweisen und vermeidet eine allzu detailreiche Darstellung der gegenwärtig gerade angesagten Tools und Web-Plattformen. Dezidiert aktuell will nur das Kapitel zur Auflistung und kurzen Beschreibung der derzeit wichtigsten Universalsuchmaschinen sein; es ist zum Zeitpunkt des Schreibens dieser Rezension bereits veraltet. Der sehr umfangreiche Anhang enthält neben einem Verzeichnis relevanter Internetquellen eine hilfreiche Fundgrube an Musterbeispielen von Lehrunterlagen zu verschiedensten Webthemen. Ein knappes Literaturverzeichnis und ein sorgfältig gearbeitetes Register beschließen den Band. Fazit: Jene, die vor oder am Beginn ihrer Schulungstätigkeit stehen, sollten diesen durchwegs gelungenen Band unbedingt zu Rate ziehen, und selbst erfahrene Vortragende können sicher das eine oder andere Detail zur Verbesserung ihrer Unterrichtsgestaltung darin finden. Da ein lebendiger und leicht verständlicher Stil gewählt wurde, ist es auch Leserlnnen mit nicht-englischer Muttersprache möglich, das Buch zügig durchzulesen, wobei aufgrund der eingestreuten Anekdoten die Lektüre recht kurzweilig ausfällt. Schließlich ist auch dem Verlag Information Today zu gratulieren: vom Inhaltsverzeichnis über Gliederung und Schriftbild bis hin zum Register ist dieses Buch ein Musterbeispiel guter und zugleich preiswerter verlegerischer Arbeit."
  10. Negrini, G.; Zozi, P.: Ontological analysis of the literary work of art (2003) 0.07
    0.06618829 = product of:
      0.26475316 = sum of:
        0.26475316 = weight(_text_:hartmann in 3687) [ClassicSimilarity], result of:
          0.26475316 = score(doc=3687,freq=2.0), product of:
            0.50149274 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062971555 = queryNorm
            0.5279302 = fieldWeight in 3687, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=3687)
      0.25 = coord(1/4)
    
    Abstract
    Ontological structures can aid the understanding and modelling of works of art. Ontology of the aesthetic object, and particularly of the literary work, has been analysed by Hartmann and Ingarden. Application of Dahlberg's ontical 'systematifier' model enabled us to organize the entire structure of the Thesaurus of Italian Literature, and to highlight a number of significant aspects of the literary work. After describing the conclusions arising from the experience of compiling the thesaurus, the paper briefly outlines Hartmann's and Ingarden's theories of levels and seeks to identify commonalities between the ontological analysis of the two theories and the conclusions of the thesaurus.
  11. Gnoli, C.; Poli, R.: Levels of reality and levels of representation (2004) 0.07
    0.06618829 = product of:
      0.26475316 = sum of:
        0.26475316 = weight(_text_:hartmann in 4533) [ClassicSimilarity], result of:
          0.26475316 = score(doc=4533,freq=2.0), product of:
            0.50149274 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062971555 = queryNorm
            0.5279302 = fieldWeight in 4533, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=4533)
      0.25 = coord(1/4)
    
    Abstract
    Ontology, in its philosophical meaning, is the discipline investigating the structure of reality. Its findings can be relevant to knowledge organization, and models of knowledge can, in turn, offer relevant ontological suggestions. Several philosophers in time have pointed out that reality is structured into a series of integrative levels, like the physical, the biological, the mental, and the cultural, and that each level plays as a base for the emergence of more complex levels. More detailed theories of levels have been developed by Nicolai Hartmann and James K. Feibleman, and these have been considered as a source for structuring principles in bibliographic classification by both the Classification Research Group (CRG) and Ingetraut Dahlberg. CRG's analysis of levels and of their possible application to a new general classification scheme based an phenomena instead of disciplines, as it was formulated by Derek Austin in 1969, is examined in detail. Both benefits and open problems in applying integrative levels to bibliographic classification are pointed out.
  12. Ingwersen, P.; Järvelin, K.: ¬The turn : integration of information seeking and retrieval in context (2005) 0.06
    0.061317526 = product of:
      0.12263505 = sum of:
        0.08160171 = weight(_text_:jene in 2323) [ClassicSimilarity], result of:
          0.08160171 = score(doc=2323,freq=2.0), product of:
            0.4313197 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.062971555 = queryNorm
            0.18919078 = fieldWeight in 2323, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2323)
        0.041033346 = weight(_text_:und in 2323) [ClassicSimilarity], result of:
          0.041033346 = score(doc=2323,freq=46.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.29379928 = fieldWeight in 2323, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2323)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2, S.81-83 (O. Oberhauser): "Mit diesem Band haben zwei herausragende Vertreter der europäischen Informationswissenschaft, die Professoren Peter Ingwersen (Kopenhagen) und Kalervo Järvelin (Tampere) ein Werk vorgelegt, das man vielleicht dereinst als ihr opus magnum bezeichnen wird. Mich würde dies nicht überraschen, denn die Autoren unternehmen hier den ambitionierten Versuch, zwei informations wissenschaftliche Forschungstraditionen, die einander bisher in eher geringem Ausmass begegneten, unter einem gesamtheitlichen kognitiven Ansatz zu vereinen - das primär im sozialwissenschaftlichen Bereich verankerte Forschungsgebiet "Information Seeking and Retrieval" (IS&R) und das vorwiegend im Informatikbereich angesiedelte "Information Retrieval" (IR). Dabei geht es ihnen auch darum, den seit etlichen Jahren zwar dominierenden, aber auch als zu individualistisch kritisierten kognitiven Ansatz so zu erweitern, dass technologische, verhaltensbezogene und kooperative Aspekte in kohärenter Weise berücksichtigt werden. Dies geschieht auf folgende Weise in neun Kapiteln: - Zunächst werden die beiden "Lager" - die an Systemen und Laborexperimenten orientierte IR-Tradition und die an Benutzerfragen orientierte IS&R-Fraktion - einander gegenübergestellt und einige zentrale Begriffe geklärt. - Im zweiten Kapitel erfolgt eine ausführliche Darstellung der kognitiven Richtung der Informationswissenschaft, insbesondere hinsichtlich des Informationsbegriffes. - Daran schliesst sich ein Überblick über die bisherige Forschung zu "Information Seeking" (IS) - eine äusserst brauchbare Einführung in die Forschungsfragen und Modelle, die Forschungsmethodik sowie die in diesem Bereich offenen Fragen, z.B. die aufgrund der einseitigen Ausrichtung des Blickwinkels auf den Benutzer mangelnde Betrachtung der Benutzer-System-Interaktion. - In analoger Weise wird im vierten Kapitel die systemorientierte IRForschung in einem konzentrierten Überblick vorgestellt, in dem es sowohl um das "Labormodell" als auch Ansätze wie die Verarbeitung natürlicher Sprache und Expertensysteme geht. Aspekte wie Relevanz, Anfragemodifikation und Performanzmessung werden ebenso angesprochen wie die Methodik - von den ersten Laborexperimenten bis zu TREC und darüber hinaus.
    - Kapitel fünf enthält einen entsprechenden Überblick über die kognitive und benutzerorientierte IR-Tradition. Es zeigt, welche anderen (als nur die labororientierten) IR-Studien durchgeführt werden können, wobei sich die Betrachtung von frühen Modellen (z.B. Taylor) über Belkins ASK-Konzept bis zu Ingwersens Modell der Polyrepräsentation, und von Bates Berrypicking-Ansatz bis zu Vakkaris "taskbased" IR-Modell erstreckt. Auch Web-IR, OKAPI und Diskussionen zum Relevanzbegriff werden hier thematisiert. - Im folgenden Kapitel schlagen die Autoren ein integriertes IS&R Forschungsmodell vor, bei dem die vielfältigen Beziehungen zwischen Informationssuchenden, Systementwicklern, Oberflächen und anderen beteiligten Aspekten berücksichtigt werden. Ihr Ansatz vereint die traditionelle Laborforschung mit verschiedenen benutzerorientierten Traditionen aus IS&R, insbesondere mit den empirischen Ansätzen zu IS und zum interaktiven IR, in einem holistischen kognitiven Modell. - Kapitel sieben untersucht die Implikationen dieses Modells für IS&R, wobei besonders ins Auge fällt, wie komplex die Anfragen von Informationssuchenden im Vergleich mit der relativen Einfachheit der Algorithmen zum Auffinden relevanter Dokumente sind. Die Abbildung der vielfältig variierenden kognitiven Zustände der Anfragesteller im Rahmen der der Systementwicklung ist sicherlich keine triviale Aufgabe. Wie dabei das Problem der Einbeziehung des zentralen Aspektes der Bedeutung gelöst werden kann, sei dahingestellt. - Im achten Kapitel wird der Versuch unternommen, die zuvor diskutierten Punkte in ein IS&R-Forschungsprogramm (Prozesse - Verhalten - Systemfunktionalität - Performanz) umzusetzen, wobei auch einige kritische Anmerkungen zur bisherigen Forschungspraxis getroffen werden. - Das abschliessende neunte Kapitel fasst das Buch kurz zusammen und kann somit auch als Einstieg in dieThematik gelesen werden. Darauffolgen noch ein sehr nützliches Glossar zu allen wichtigen Begriffen, die in dem Buch Verwendung finden, eine Bibliographie und ein Sachregister. Ingwersen und Järvelin haben hier ein sehr anspruchsvolles und dennoch lesbares Buch vorgelegt. Die gebotenen Übersichtskapitel und Diskussionen sind zwar keine Einführung in die Informationswissenschaft, decken aber einen grossen Teil der heute in dieser Disziplin aktuellen und durch laufende Forschungsaktivitäten und Publikationen berührten Teilbereiche ab. Man könnte es auch - vielleicht ein wenig überspitzt - so formulieren: Was hier thematisiert wird, ist eigentlich die moderne Informationswissenschaft. Der Versuch, die beiden Forschungstraditionen zu vereinen, wird diesem Werk sicherlich einen Platz in der Geschichte der Disziplin sichern. Nicht ganz glücklich erscheint der Titel des Buches. "The Turn" soll eine Wende bedeuten, nämlich jene hin zu einer integrierten Sicht von IS und IR. Das geht vermutlich aus dem Untertitel besser hervor, doch dieser erschien den Autoren wohl zu trocken. Schade, denn "The Turn" gibt es z.B. in unserem Verbundkatalog bereits, allerdings mit dem Zusatz "from the Cold War to a new era; the United States and the Soviet Union 1983-1990". Der Verlag, der abgesehen davon ein gediegenes (wenn auch nicht gerade wohlfeiles) Produkt vorgelegt hat, hätte derlei unscharfe Duplizierend besser verhindert. Ungeachtet dessen empfehle ich dieses wichtige Buch ohne Vorbehalt zur Anschaffung; es sollte in keiner grösseren Bibliothek fehlen."
  13. Andretta, S.: Information literacy : a practitioner's guide (2004) 0.06
    0.060866557 = product of:
      0.121733114 = sum of:
        0.08160171 = weight(_text_:jene in 714) [ClassicSimilarity], result of:
          0.08160171 = score(doc=714,freq=2.0), product of:
            0.4313197 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.062971555 = queryNorm
            0.18919078 = fieldWeight in 714, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.01953125 = fieldNorm(doc=714)
        0.04013141 = weight(_text_:und in 714) [ClassicSimilarity], result of:
          0.04013141 = score(doc=714,freq=44.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.2873414 = fieldWeight in 714, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=714)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Mitteilungen VOEB 59(2006) H.4, S.74-76 (M. Katzmayr): "Information Literacy (IL) bzw. Informationskompetenz ist in aller Munde, wird sie doch als Schlüsselqualifikation angesehen, um an der so genannten Informationsgesellschaft teilzuhaben. Susie Andretta, Dozentin für Informationsmanagement an der London Metropolitan University, hat nun einen praxisorientierten Leitfaden zur IL vorgelegt, worin zwei Aspekte im Vordergrund stehen: einerseits die Vermittlung der IL in der universitären Lehre, womit andererseits auch ein erfolgreiches lebenslanges Lernen nach Verlassen der Universität ermöglicht werden soll. Das Buch beginnt mit einer theoretischen Einführung. Dort ist zu lesen, dass sich die Vermittlung von IL aus Kursen zur Bibliotheksbenutzung entwickelt habe - doch während letztere traditionell den effektiven Umgang mit Bibliotheksressourcen vermitteln und somit auf die Bibliothek beschränkt seien, beinhalte IL auch Herangehensweisen zur Lösung komplexer Problemstellungen. Drei prominente IL-Konzeptionen folgender Organisationen werden anschließend ausführlicher vorgestellt und verglichen: die der US-amerikanischen "Association of Colleges and Research Libraries" (ACRL), des "Australian and New Zealand Institute for information Literacy" (ANZIIL) und der britischen "Society of College, National and University Libraries" (SCONUL). In allen drei besteht IL zumindest aus dem Wahrnehmen eines Informationsbedarfes, Methoden zum Erhalt dieser Information und schließlich ihrer Bewertung, um die Fragen zu beantworten, die zum Informationsbedarf geführt haben. Alle drei gehen über die rein technologische Kompetenz (IT-Kompetenz) hinaus und umfassen u. a. Medien-, Bibliotheks-, und Recherchekompetenzen, um nur einige zu nennen. Allerdings gehen zwei dieser Konzeptionen noch wesentlich weiter - so fordert die ANZIIL von einer informationskompetenten Person u.a. folgende Fähigkeit: "the information-literate person applies prior and new information to construct new concepts or create new understandings" (S. 157), der Lernzielkatalog der SCONUL beinhaltet: "The ability to synthesise and build upon existing information, contributing to the creation of new knowledge" (S. 162).
    Was hier auffällt, ist der äußerst weit reichende inhaltliche Anspruch dieser Sichtweise von IL. Inwieweit dadurch eine Abgrenzung zum Themenund Lehrgebiet des "wissenschaftlichen Arbeitens" bzw. zu den Charakteristika umfassender Bildung überhaupt noch sinnvoll möglich ist, wird von der Autorin leider nicht behandelt. Interessant ist der Stellenwert der Bibliotheken in der Lehre der IL: In allen drei Konzeptionen wird eine Kooperation zwischen Bibliothek und Wissenschaftsbetrieb empfohlen, ja erfolge die Vermittlung von IL idealiter im jeweiligen Fachstudium durch die problemlösungsorientierte Bearbeitung spezifischer Fragestellungen. So gesehen könne also nicht von einem Monopol der Bibliotheken ausgegangen werden, ihre Rolle sei vielmehr mit dem Motto "information literacy is an issue for the library but not of the library" (S. 53) angemessen umschrieben. In Großbritannien gehe dabei die Initiative meist von den Bibliotheken aus, in den USA und Australien eher vom Wissenschaftsbetrieb. In beiden Fällen funktioniere diese Partnerschaft aber nicht immer reibungslos. Die Beweggründe von Bibliotheken, sich hierzu engagieren, werden von der Autorin jedoch keiner tiefer gehenden Analyse unterzogen. Dies wurde vielleicht nicht völlig unbeabsichtigt unterlassen, da daran nämlich eine - im vorliegenden Werk ausgeblendete - grundsätzliche und weit verbreitete Kritik an der IL anknüpfen könnte. Ein Blick in die relevante Literatur zeigt nämlich, dass Bibliothekarinnen nicht nur hehre Motive zugeschrieben werden, wenn sie sich am IL-Hype beteiligen bzw. ihn vorantreiben. Neben Erfahrungen mit der dürftigen Informationskompetenz vieler Studierender werden ihnen auch ganz andere, pragmatischere Beweggründe zugedacht'. Ein Beispiel: Die zunehmende institutionelle Marginalisierung von Bibliotheken und ihren Mitarbeiterinnen im Universitätsbetrieb mag eine kreative Vorwärtsverteidigung unter dem Deckmantel der IL als zweckmäßig erscheinen lassen' - überspitzt formuliert: IL als Konstrukt oder zumindest willkommene Gelegenheit, um den Bibliotheken auch weiterhin eine zentrale Rolle an den Universitäten zu sichern. Zum Glück gelingt es Andretta, anhand der relevanten Literatur und eigener Erfahrungen als Dozentin plausibel zu argumentieren, dass der Mangel vieler Studierender an Informationskompetenz tatsächlich eklatant und somit ein Handlungsbedarf gegeben ist. Welche Motive die Bibliotheken hier sonst noch haben mögen, kann so gesehen ruhig im Dunkeln bleiben.
    Die praktischen Erfahrungen der Autorin in der Lehre von IL werden mittels zweier Fallstudien beschrieben. Die erste behandelt IL im sozialwissenschaftlichen Grundstudium, wobei die Schwerpunkte auf IT-Kompetenz und Webrecherche lagen. Die zweite hat die Vermittlung von IL im postgradualen informationswissenschaftlichen Studium zum Thema - nicht zuletzt, um den sich verändernden Berufsbildern im Bibliothekswesen und verwandten Bereichen gerecht zu werden. Die Aufgabe der Studierenden war es, einen Forschungsantrag zu schreiben und zu präsentieren, wozu ein breites Spektrum an Informationskompetenzen erforderlich war. Beide Fallstudien beschreiben detailliert die Lehrpläne, Ergebnisse und daraus gewonnene Erfahrungen. Sie dokumentieren eine insgesamt erfolgreiche Vermittlung der IL im universitären Kontext und liefern äußerst wertvolle Anregungen und Hilfestellungen. Im sehr umfangreichen Anhang sind die besprochenen TL-Konzeptionen vollständig abgedruckt. Daneben sind u. a. auch Fragebögen zum Abschätzen der Informationskompetenz dargestellt; diese können nach einiger Anpassung für eigene Zwecke verwendet werden. Ein umfassendes Literaturverzeichnis und ein thematisches Register beschließen den Band. Fazit: Dieses Buch wird seinem Titel durchaus gerecht und kann als kompakter, übersichtlicher und hilfreicher Leitfaden für all jene dienen, die Lehrveranstaltungen zur IL konzeptionell gestalten und durchführen. Allerdings: gemessen am äußerst stolzen Preis dürfte es auch um keinen Deut schlechter sein."
  14. Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003) 0.06
    0.05944832 = product of:
      0.11889664 = sum of:
        0.08160171 = weight(_text_:jene in 2418) [ClassicSimilarity], result of:
          0.08160171 = score(doc=2418,freq=2.0), product of:
            0.4313197 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.062971555 = queryNorm
            0.18919078 = fieldWeight in 2418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2418)
        0.03729493 = weight(_text_:und in 2418) [ClassicSimilarity], result of:
          0.03729493 = score(doc=2418,freq=38.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.26703218 = fieldWeight in 2418, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2418)
      0.5 = coord(2/4)
    
    Abstract
    Selbst wenn es nach heutigem Ermessen nicht wertvoll wäre, müsste man Onlinematerial zumindest teilweise archivieren. Denn die Bedeutung von Quellen wandelt sich minder Zeit. Heutige Forschergenerationen würden viel für einen Blick auf jene Kurzfilme geben, die man Anfang des vergangenen Jahrhunderts nach einigen Durchläufen als Unterhaltungsmaterial achtlos zur Seite warf. Schon heute ist absehbar, dass lnternetseiten von 1998 Kommunikationswissenschaftler viel über die Beschleunigung und Aufheizung des Mediengeschäfts erzählen können. Wie schnell zogen kommerzielle Medien im Netz im Vergleich zur gedruckten Version der Skandalberichterstattung Matt Drudges über Bill Clintons Affaire nach? Welche Funktion hatten dabei öffentliche Nachrichtenforen? Historiker dürften vom frühen E-Mail-Verkehr in Regierungen und großen Unternehmen einst weit weniger finden als von den früher so geheimen Depeschen.
    Content
    "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
    Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."
  15. Widén-Wulff, G.: ¬The challenges of knowledge sharing in practice : a social approach (2007) 0.06
    0.05944832 = product of:
      0.11889664 = sum of:
        0.08160171 = weight(_text_:jene in 1727) [ClassicSimilarity], result of:
          0.08160171 = score(doc=1727,freq=2.0), product of:
            0.4313197 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.062971555 = queryNorm
            0.18919078 = fieldWeight in 1727, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1727)
        0.03729493 = weight(_text_:und in 1727) [ClassicSimilarity], result of:
          0.03729493 = score(doc=1727,freq=38.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.26703218 = fieldWeight in 1727, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1727)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Mitt VÖB 60(2007) H.4, S.95-97 (O. Oberhauser): "Die Autorin ist Dozentin am Institut für Informationswissenschaft der Åbo Akademi University (Finnland) und vertritt zur Zeit den dort vakanten Lehrstuhl. Ihr vorliegendes Buch geht zumindest teilweise auf einen längeren Forschungsaufenthalt an der Napier University, Edinburgh, zurück, wo die informationswissenschaftlich orientierte Forschung am Centre for Social Informatics, welches zum dortigen Fachbereich Informatik zählt, angesiedelt ist. Social informatics (nicht zu verwechseln mit Sozialinformatik, einem Terminus aus dem Gebiet der Sozialen Arbeit), bezieht sich auf die disziplinübergreifende Beschäftigung mit dem Design, dem Einsatz und der Verwendung von Informations- und Kommunikationstechnologien und ihrer Interaktion mit institutionellen und kulturellen Kontexten unter Einschluss von Institutionen/Organisationen und der Gesellschaft. Sie wird von Vertretern verschiedener Wissenschaftsdisziplinen mit unterschiedlichen Themenstellungen bzw. methodischen Ansätzen betrieben. In diesem Umfeld ist auch das vorliegende Buch beheimatet. Zwar ist "information sharing" ein Begriff, der aus der Forschung zu dem breiteren Themenbereich "information seeking and use" bzw. "(human) information behaviour" stammt, doch macht schon der erste Satz des Vorworts klar, dass hier eine thematische Festlegung auf den institutionellen Bereich und damit eine Einordnung in das Gebiet des Wissensmanagements erfolgt ist: "How can organisations correspond to the current demands of effective information and knowledge sharing?" (p. ix). Die Herausforderungen ("challenges") werden im Hinblick auf das Verständnis, die Organisation und die Verwaltung von Wissen gesehen und in technische, betriebliche, persönliche und soziale Aspekte unterteilt. Die Konzentration auf die soziale Dimension, so die Autorin, sei heute besonders wichtig für eine kohärente Beurteilung von Informationsverhalten und -austausch im Unternehmen.
    Das Buch gliedert sich in drei Teile. Im ersten Abschnitt, Theories of Information Sharing, erfolgt eine kurze Diskussion von Begriffen und Konzepten aus dem Bereich der kontextuellen Informationssuche, der Information im organisatorischen Umfeld, der Sozial- und Gruppenpsychologie, sowie vor allem die Einführung des Konzeptes "social capital" (soziales Kapital, Sozialkapital), eines aus der Soziologie stammenden theoretischen Ansatzes, als Rahmen für die Betrachtung der Informationsprozesse im Unternehmen. Hier wird Sozialkapital verstanden als die Werte, Normen und Netzwerke, die informationsbezogene Interaktionen möglich und wirksam machen und so die Basis für kollaborative Arbeit zur Verfolgung gemeinsamer Ziele schaffen (p. 30). Der zweite Teil - umfangmässig der größte des Buches - ist mit Two Practices in Information Sharing überschrieben und berichtet detailliert über Fallstudien, die die Autorin in zwei finnischen Unternehmen mittels einer kleinen Zahl qualitativer Interviews durchführte. Dabei wird eine Firma aus der Versicherungsbranche (als einer eher stabilen Branche) mit einem biotechnologischen Produktionsbetrieb (eher turbulent-expansives Umfeld) verglichen. Im dritten Teil, Insights into Information, Knowledge Sharing and Social Capital, diskutiert die Autorin die Resultate ihrer Erhebung, insbesondere im theoretischen Kontext des Sozialkapitals - so etwa die Motive für den Austausch von Informationen und Wissen. Natürlich wird Widén-Wulffs Studie vor allem jene interessieren, die sich mit dem betrieblichen Informations- und Wissensmanagement beschäftigen. Für Interessenten an "information seeking and retrieval" oder "human information behaviour" im Allgemeinen ist das Buch nur bedingt zu empfehlen, doch werden auch sie von den Hinweisen auf den überblicksartig gestreiften Forschungsstand profitieren können. Hingegen werden Rezipienten aus den klassischeren Bereichen des Bibliotheks- bzw. Informationswesens die Lektüre vermutlich als weniger leicht verdaulich empfinden. Der Ladenpreis von mehr als 55 Euro ist für einen Broschurband von knapp 230 Seiten im übrigen viel zu hoch."
  16. Scognamiglio, C.: Workshop on Levels of reality as a KO paradigm : "strata" and top categories for an ontologically oriented classification (2010) 0.06
    0.055156913 = product of:
      0.22062765 = sum of:
        0.22062765 = weight(_text_:hartmann in 512) [ClassicSimilarity], result of:
          0.22062765 = score(doc=512,freq=2.0), product of:
            0.50149274 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062971555 = queryNorm
            0.43994185 = fieldWeight in 512, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0390625 = fieldNorm(doc=512)
      0.25 = coord(1/4)
    
    Abstract
    In spite of its difficulty, communication between philosophy and classification - and more precisely between ontological research and knowledge organization - is conceptually very intriguing, and implies a lot of problems for scientific research. One of these, which is the object of discussion of this paper, is the theme of the "something" (the matter) of classification. After a quick examination of the debate around the alternative between classification of documents and of entities, the paper shows how every kind of rigorous classification must be supported by an ontology. An example of an ontological approach to knowledge classification is the implementation of the theory of levels of reality. Nicolai Hartmann's idea of a stratification of the real world is individuated as a robust support to the aim. However a theory of levels needs a set of general categories, common for all the levels. The aim of exploring the fundamental or top categories is pursued through a combination of the critical ontology elaborated by Hartmann and some notions from General System Theory.
  17. Gnoli, C.: Mentefacts as a missing level in theory of information science (2018) 0.04
    0.044125527 = product of:
      0.17650211 = sum of:
        0.17650211 = weight(_text_:hartmann in 624) [ClassicSimilarity], result of:
          0.17650211 = score(doc=624,freq=2.0), product of:
            0.50149274 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062971555 = queryNorm
            0.35195348 = fieldWeight in 624, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.03125 = fieldNorm(doc=624)
      0.25 = coord(1/4)
    
    Abstract
    Purpose The current debate between two theoretical approaches in library and information science and knowledge organization (KO), the cognitive one and the sociological one, is addressed in view of their possible integration in a more general model. The paper aims to discuss these issues. Design/methodology/approach Personal knowledge of individual users, as focused in the cognitive approach, and social production and use of knowledge, as focused in the sociological approach, are reconnected to the theory of levels of reality, particularly in the versions of Nicolai Hartmann and Karl R. Popper (three worlds). The notions of artefact and mentefact, as proposed in anthropological literature and applied in some KO systems, are also examined as further contributions to the generalized framework. Some criticisms to these models are reviewed and discussed. Findings Both the cognitive approach and the sociological approach, if taken in isolation, prove to be cases of philosophical monism as they emphasize a single level over the others. On the other hand, each of them can be considered as a component of a pluralist ontology and epistemology, where individual minds and social communities are but two successive levels in knowledge production and use, and are followed by a further level of "objectivated spirit"; this can in turn be analyzed into artefacts and mentefacts. While all these levels are relevant to information science, mentefacts and their properties are its most peculiar objects of study, which make it distinct from such other disciplines as psychology and sociology. Originality/value This analysis shows how existing approaches can benefit from additional notions contributed by levels theory, to develop more complete and accurate models of information and knowledge phenomena.
  18. Chafe, W.L.: Meaning and the structure of language (1980) 0.02
    0.023956923 = product of:
      0.09582769 = sum of:
        0.09582769 = weight(_text_:und in 1220) [ClassicSimilarity], result of:
          0.09582769 = score(doc=1220,freq=32.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.6861275 = fieldWeight in 1220, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1220)
      0.25 = coord(1/4)
    
    Classification
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ET 430 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Synchrone Semantik / Allgemeines (Gesamtdarstellungen)
    RVK
    ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
    ET 430 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Synchrone Semantik / Allgemeines (Gesamtdarstellungen)
  19. Boßmeyer, C.: UNIMARC und MAB : Strukturunterschiede und Kompatibilitätsfragen (1995) 0.02
    0.023711206 = product of:
      0.094844826 = sum of:
        0.094844826 = weight(_text_:und in 2436) [ClassicSimilarity], result of:
          0.094844826 = score(doc=2436,freq=6.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.67909014 = fieldWeight in 2436, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=2436)
      0.25 = coord(1/4)
    
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 42(1995) H.5, S.465-480
  20. SimTown : baue deine eigene Stadt (1995) 0.02
    0.020957943 = product of:
      0.08383177 = sum of:
        0.08383177 = weight(_text_:und in 5546) [ClassicSimilarity], result of:
          0.08383177 = score(doc=5546,freq=12.0), product of:
            0.13966456 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062971555 = queryNorm
            0.60023654 = fieldWeight in 5546, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=5546)
      0.25 = coord(1/4)
    
    Abstract
    SimTown wurde entwickelt, um Kindern die wichtigsten Konzepte der Wirtschaft (Angebot und Nachfrage), Ökologie (Rohstoffe, Umweltverschmutzung und Recycling) und Städteplanung (Gleichgewicht zwischen Wohnraum, Arbeitsplätzen und Erholungsstätten) auf einfache und unterhaltsame Art nahezubringen
    Issue
    PC CD-ROM Windows. 8 Jahre und älter.

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 738
  • m 300
  • el 96
  • s 91
  • i 22
  • n 17
  • x 12
  • r 10
  • b 7
  • ? 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications