Search (4971 results, page 3 of 249)

  • × year_i:[2000 TO 2010}
  1. Springer, M.: Was hier steht, ist nicht wahr (2006) 0.09
    0.090885825 = product of:
      0.18177165 = sum of:
        0.14229698 = weight(_text_:jene in 309) [ClassicSimilarity], result of:
          0.14229698 = score(doc=309,freq=2.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.30270523 = fieldWeight in 309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.03125 = fieldNorm(doc=309)
        0.03947467 = weight(_text_:und in 309) [ClassicSimilarity], result of:
          0.03947467 = score(doc=309,freq=14.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.25933182 = fieldWeight in 309, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=309)
      0.5 = coord(2/4)
    
    Content
    "Was halten Sie von diesem Satz, der von sich aussagt, dass er falsch sei? Wenn er, wie behauptet, nicht wahr ist, stimmt nicht, was er aussagt, und das bedeutet, dass er wahr ist - im Widerspruch zu dem, was er behauptet. Als Urform solcher sich selbst torpedierenden Aussagen gilt die Paradoxie des kretischen Priesters Epimenides, der alle Kreter als Lügner bezeichnete. Auch dies führt zu einer Antinomie: einem unauflöslichen Selbstwiderspruch. Vor hundert Jahren, am 28. April 1906, wurde im heutigen Tschechien, damals Teil der österreichischen Monarchie, Kurt Gödel geboren, den die Fachwelt zu diesem Jubiläum als den größten Logiker seit Aristoteles feiert. Sein Ruhm beruht im Wesentlichen auf einem einzigen Theorem, dem Gödel'schen Unvollständigkeitssatz, der auf raffinierte Weise die Antinomie des Lügners nutzt. Damit zeigte Gödel 1931, dass die damalige Erwartung, die gesamte Mathematik lasse sich nach dem Vorbild der Euklidischen Geometrie aus einigen Axiomen und Ableitungsregeln entwickeln, trügerisch war. In jedem formalen System, das es erlaubt, die Theoreme der Arithmetik herzuleiten, können systemsprengende Sätze von der Art des Lügnerparadoxons konstruiert werden, die sich weder beweisen noch widerlegen lassen. Gödel selbst sah in seiner - für die Zeitgenossen völlig überraschenden - Entdeckung nichts Negatives, obwohl sie die Hoffnung, die Mathematik könne letztlich komplett auf Logik zurückgeführt werden, gründlich zerstörte. Hätte jene Hoffnung sich bewahrheitet, so gäbe es zumindest theoretisch ein Computerprogramm, das automatisch sämtliche Sätze der Mathematik zu produzieren vermöchte. Gödel hingegen meinte als überzeugter Anhänger der Platon'schen Ideenlehre, die Tätigkeit der Mathematiker gleiche der Entdeckungsreise in eine unbekannte Welt geistiger Objekte und nicht der freien Erfindung von Spielregeln, Formalismen und Rechenprogrammen. Dafür schien ihm sein Unvollständigkeitssatz ein klares Indiz (siehe »Kurt Gödel«, Spektrum-Biografie 1/2002). Wie groß der denkerische Ehrgeiz des großen Logikers war, offenbaren erst Gödels postum edierte Notizen. Schon der Halbwüchsige betitelte ein Schulheft mit »Fehler der Bibel« - nicht einmal das Buch der Bücher war vor seinem kritischen Misstrauen sicher. In reifen Jahren arbeitete er an einem Beweis für die Existenz Gottes auf rein logischer Basis - nach dem Vorbild des mittelalterlichen Scholastikers Anselm von Canterbury. Gödels ontologischer Gottesbeweis geht kurz gesagt so: Gott ist nur denkbar als Wesen, das alle positiven Eigenschaften in sich vereint, und da Existenz eine solche positive Eigenschaft ist, muss Gott existieren. Was zu beweisen war. In gewisser Weise erscheint mir dieses Argument als logische Umkehrung der Antinomie des Lügners. Der Satz »Ich bin falsch« sprengt die Konsistenz des Systems, in dem er formuliert wird; die Behauptung »Ich bin wahr« macht das Gegenteil: Eigenmächtig, kühn und herausfordernd stellt sie sich selbst im logischen Raum auf. Um dieser Behauptung blindlings zu vertrauen, ja sie als Selbstaussage des höchsten Wesens zu verstehen - etwa im Sinne des Jesu-Worts »Ich bin die Wahrheit und das Leben« -, dazu muss man freilich wie Gödel bedingungslos an die reale Existenz logisch-mathematischer Objekte glauben."
  2. Teaching Library : eine Kernaufgabe für Bibliotheken (2007) 0.09
    0.09070769 = product of:
      0.18141538 = sum of:
        0.12450986 = weight(_text_:jene in 2805) [ClassicSimilarity], result of:
          0.12450986 = score(doc=2805,freq=2.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.26486707 = fieldWeight in 2805, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2805)
        0.056905508 = weight(_text_:und in 2805) [ClassicSimilarity], result of:
          0.056905508 = score(doc=2805,freq=38.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.37384504 = fieldWeight in 2805, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2805)
      0.5 = coord(2/4)
    
    Abstract
    Bibliotheken sind ein wichtiger Bestandteil in der deutschen Bildungslandschaft. Eine ihrer Kernaufgaben ist die Vermittlung von Informations- und Medienkompetenz. Bibliotheken entwickeln sich zu Teaching Libraries, da neue Lösungen angesichts vernetzter Informationswelten notwendig sind. Der Inhalt dieses Sammelbandes umfasst die ganze Bandbreite der derzeitigen theoretischen und praktischen Auseinandersetzungen mit dem Konzept der Teaching Library. Durch Best Practice-Beispiele, aber auch durch theoretische Überlegungen zur Vermittlung von Informations- und Medienkompetenz, wird das Konzept der Teaching Library dem Leser näher gebracht.
    Classification
    AN 76400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliotheksbenutzung / Auskunft, Information
    Content
    Enthält die Beiträge: Aus dem Inhalt: Ute Krauß-Leichert: Teaching Library - eine Einführung - Wilfried Sühl-Strohmenger: Neue Entwicklungen auf dem Weg zur «Teaching Library» - insbesondere bei den Wissenschaftlichen Bibliotheken - Thomas Hapke: Perspektive E-Learning - Die Rolle von Universitätsbibliotheken in neuen Lernumgebungen - Benno Homann: Standards und Modelle der Informationskompetenz - Kooperationsgrundlagen für bibliothekarische Schulungsaktivitäten - Detlev Dannenberg/Jana Haase: In 10 Schritten zur Teaching Library - erfolgreiche Planung bibliothekspädagogischer Veranstaltungen und ihre Einbindung in Curricula - Katrin Seewald: Lehren lernen oder Wie entsteht eine Teaching Library? - Oliver Kohl-Frey: Beyond the Bachelor. Informationskompetenz für Anfänger und Fortgeschrittene an der Universität Konstanz - Holger Schultka: Gedanken zur (Bibliotheks-)Pädagogik.
    Footnote
    2., durchges. Aufl. 2008. Rez. in MittVÖB 61(2008) H.1, S.95-99 (H. Heller: "Ausgangspunkt für den von Ute Krauß-Leichert herausgegebenen Sam melband war das 9. Hamburger Kolloquium des Bibliotheks- und Informationsmanagements, das im Sommersemester 2006 an der Hochschule für Angewandte Wissenschaften Hamburg veranstaltet wurde und unter dem Motto "Teaching Library - eine Kernaufgabe für Bibliotheken" stand. Bereits der Veranstaltungs- und Buchtitel legen nahe, dass die Aktivitäten einer Teaching Library zu einer bibliothekarischen Kernaufgabe geworden sind. In sieben Beiträgen von Referenten und weiteren deutschen Spezialisten auf dem Gebiet der Vermittlung und Förderung von Informationskompetenz wird das Thema sowohl unter theoretischem als auch unter praktischem Blickwinkel beleuchtet. Dabei spannt sich der Bogen von der Beschreibung von Programmen zur Sprach- und Leseförderung für Kinder und Jugendliche in Stadtbibliotheken des Berliner Bezirks Friedrichshain-Kreuzberg, deren Startmodul "Wort-Stark" von der Unternehmensberatung McKinsey 2005 beim Wettbewerb "Chancengerechtigkeit - alle Talente fördern" ausgezeichnet wurde und deren Module auf andere Gegebenheiten und Bibliotheken übertragbar sind (Katrin Seewald) bis hin zur Vermittlung von lnformationskompetenz für Fortgeschrittene an der Universitätsbibliothek Konstanz (Oliver Kohl-Frey). ... Insgesamt liegt mit "Teaching Library- eine Kernaufgabe für Bibliotheken" ein Werk vor, das für all jene Bibliothekare interessant ist, die sich mit dem Thema in seiner ganzen Bandbereite näher auseinandersetzen wollen. Literaturhinweise und Verweise aufWebseiten laden außerdem ein, sich in die jeweilige Thematik weiter zu vertiefen. Interessantwäre in diesem Zusammenhang auch eine zusammenfassende Darstellung und Aufarbeitung der Aktivitäten österreichischer Bibliotheken. Erfreulich ist, dass dem Thema offenbar so viel Aufmerksamkeit zuteil wird, dass der Sammelband topaktuell schon in zweiter Auflage vorliegt. Allfällige Veränderungen in der neuen Auflage sind in diesem Artikel noch nicht berücksichtigt."
    RVK
    AN 76400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliotheksbenutzung / Auskunft, Information
  3. Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009) 0.09
    0.09049833 = product of:
      0.18099666 = sum of:
        0.026375124 = weight(_text_:und in 26) [ClassicSimilarity], result of:
          0.026375124 = score(doc=26,freq=4.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.17327337 = fieldWeight in 26, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
        0.15462153 = weight(_text_:headings in 26) [ClassicSimilarity], result of:
          0.15462153 = score(doc=26,freq=6.0), product of:
            0.33302557 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06863109 = queryNorm
            0.46429324 = fieldWeight in 26, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
      0.5 = coord(2/4)
    
    Abstract
    Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
  4. Orna, E.: Information strategy in practice (2004.) 0.09
    0.08994881 = product of:
      0.17989762 = sum of:
        0.12450986 = weight(_text_:jene in 4589) [ClassicSimilarity], result of:
          0.12450986 = score(doc=4589,freq=2.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.26486707 = fieldWeight in 4589, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4589)
        0.055387758 = weight(_text_:und in 4589) [ClassicSimilarity], result of:
          0.055387758 = score(doc=4589,freq=36.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.36387405 = fieldWeight in 4589, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4589)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: B.I.T. online 8(2005) H.2, S.203 (J. Plieningr): "Auf der Vorderseite des Umschlags des Paperbacks prangt eine Grafik von der Art, wie man sie im Inhalt des Buches häufig finden kann: Ein runder Kreis, Pfeile nach innen und außen deuten die In- und Outputs an, innen konzentrische Kreise. Ganz außen ist die Organisation zu finden, eins weiter drinnen die Business strategy und den Kern bildet die information strategy. Das strategische Management der Information stellt also in der Vorstellung der Autorin den Kern einer Firma oder Organisation dar. Das Werk soll die Anleitung zu einer solchen Strategie geben. Allerdings handelt es sich im Grunde bei diesem Buch um bekannte Inhalte, da es sich um die nahezu unveränderte, und auch in den Bibliographien der einzelnen Kapitel nicht aktualisierte zweite Auflage von Practical information policies aus dem Jahre 1999 handelt. Aus diesem "Klassiker" wurden die detaillierten Fallstudien entfernt und hier durch eine neue Einleitung und zwei abschließende Kapitel ergänzt. Die Autorin weist denn auch in der Einleitung darauf hin, dass dieses Buch als Studienausgabe des Werkes von 1999 anzusehen ist. Die Literaturangaben der übernommenen Artikel wurden nicht aktualisiert, jene der neu hinzugefügten Kapitel endet bei 2002. Beim Lesen entfaltet das Werk seinen ganzen Charme angelsächsischer Kompetenz, praktische Inhalte theoretisch angeleitet und doch mit immensem Praxisbezug durchzuarbeiten und auszubreiten. Der Inhalt ist häufig durch Aufzählungen und Auflistungen ergänzt, wobei als Kritikpunkt anzumerken -ist, dass die Aufzählungspunkte im Unterschied zu der Vorauflage nicht jeweils auf einer neuen Zeile stehen, sondern in den Zeilenfluss eingearbeitet wurden um Platz zu sparen. Dies geht auf Kosten der Obersichtlichkeit, was einem Werk, das laut Verlagstexten auch für Lehr- und Studierzwecke eingesetzt werden soll, schlecht ansteht.
    Bei der Lektüre fällt zweierlei auf: Zum einen wird großer Wert auf ein "Information Audit" gelegt, ein Gebiet, auf dem deutsche Bibliotheken großen Nachholbedarf haben. Ein solcher Audit geht über eine bloße Benutzerbefragung hinaus und soll die Informationsströme in der Trägerorganisation der Bibliothek untersuchen, um dann erst zu einer Formulierung der Informationsstrategie der Trägerorganisation zu kommen, welche in Folge der gediegenen Vorarbeit dann auf einem gesicherten Fundament steht. Wer sich das Know-how zu einer solchen umfassenden Untersuchung nicht durch Spezialliteratur aneignen will, der bekommt hier eine knappe und doch umfassende Anleitung zur Hand geliefert. Zum anderen wird klar, dass sich die Ausführungen zur Formulierung, Implementation und Umsetzung einer Informationsstrategie vor allem auf Firmen- und Spezialbibliotheken beziehen, ja sogar eher auf die Ebene des Informationsmanagements der Trägerorganisation selbst, also auf die Bibliothek bzw. Informationsvermittlungsstelle. Bibliothe-kare von kommunalen und universitären Systemen werden also nicht unmittelbaren praktischen Nutzen aus der Lektüre ziehen können, gleichwohl bietet das Buch einen guten Ausblick in ein mögliches Handlungsfeld, in das sich diese Bibliotheken sich bewegen könnten. Obgleich im Grunde sechs Jahre alt, sind die Inhalte dieses "Primers" immer noch aktuell. Die angelsächsische Art, Inhalte knapp und didaktisch aufzubereiten, ist hier hervorragend umgesetzt. Die in der Vorauflage breit dokumentierten praktischen Beispiele fehlen hier nicht ganz, da sie verkürzt eingearbeitet wurden und auch sonst immer wieder auf praktische Erfahrungen und Umsetzungen Bezug genommen wird. Die Lektüre wird dem Fachpublikum empfohlen!"
  5. Vickery, B.C.; Vickery, A.: Information science in theory and practice (2004) 0.09
    0.08967104 = product of:
      0.17934208 = sum of:
        0.12577395 = weight(_text_:jene in 5320) [ClassicSimilarity], result of:
          0.12577395 = score(doc=5320,freq=4.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.26755613 = fieldWeight in 5320, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5320)
        0.05356813 = weight(_text_:und in 5320) [ClassicSimilarity], result of:
          0.05356813 = score(doc=5320,freq=66.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.35191986 = fieldWeight in 5320, product of:
              8.124039 = tf(freq=66.0), with freq of:
                66.0 = termFreq=66.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5320)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: BuB 56(2004) H.12, S.743 (H, Meinhardt): "1987 erstmals erschienen und seitdem ein Klassiker unter den Lehrbüchern im Feld der Information Science, liegt nunmehr die dritte, deutlich veränderte Auflage vor. Notwendig geworden war die Überarbeitung vor allem durch die Dynamik im Bereich der Informationstechnologien und deren Auswirkungen sowohl auf die Praxis der Informationsspezialisten wie auch die Disziplin selber. Augenfälligste Veränderung ist denn auch ein neues Kapitel zu »Internet und Informationswissenschaft«. »Chemical librarians« Zunächst einige Worte zu den Autoren, die dem einen oder anderen vielleicht nicht bekannt sind: Brian C. Vickery und Alina Vickery sind beide von ihrer Ausbildung her Chemiker und waren als Ehepartner (Alina Vickery starb Ende 2001) auch beruflich vielfältig gemeinsam tätig. Wie viele Chemiker (man denke nur Eugene Garfield, den Begründer der modernen Szientometrie) sensibilisiert für den Umgang mit enormen Informationsmengen und damit Informationsproblemen, zudem als »chemical librarian« (Brian C. Vickery) und Mitarbeiter von chemischen Fachzeitschriften auch professionell beschäftigt mit Fragen des Fachinformationstransfers, haben sie sich (insbesondere Brian C. Vickery) frühzeitig und kontinuierlich informationswissenschaftlich betätigt. Resultat ist eine Fülle von Publikationen, vor allem zu den Bereichen Indexieren, Klassifizieren, Information Retrieval, auch zur Geschichte der wissenschaftlichen Kommunikation (alle Arbeiten sind im Anhang aufgelistet). Brian C. Vickery war außerdem, das dürfte für Bibliothekare von Interesse sein, als Deputy beim Aufbau der National Lending Library for Science and Technology (NLLST) in Boston Spa beteiligt, die ihre Arbeit 1961 aufnahm und 1973 mit in die neu gegründete British Library einging. Und es sei hier schon vorab bemerkt, dass der immer wiederkehrende Bezug von informationswissenschaftlichen Fragestellungen auf die bibliothekarische Praxis ein Vorzug dieses Buches ist.
    Ungewohnte Einordnung und Gewichtung Von der Konzeption her ist das Buch am ehesten als eine Art einführendes Handbuch zu beschreiben, das sehr stark Querschnittscharakter hat. Dem entspricht die inhaltlich weit gespannte Gliederung, die die meisten informationswissenschaftlichen Bereiche streift. Die Autoren verfolgen explizit nicht das Ziel, eine Art Manual für die Informationspraxis oder für das Informationsmanagement vorzulegen, sondern versprechen einen Mix aus theoretischer Annäherung und praxisorientierter Handreichung - und enttäuschen damit nicht. Der deutsche Leser, der mit hiesigen Lehrbüchern zur Informationswissenschaft nicht gerade verwöhnt ist und sich in aller Regel aus vielen Quellen Puzzleartig sein Bild von »Informationswissenschaft« zusammenstoppeln muss (eine nach wie vor rühmliche Ausnahme sind die mehrbändigen »Grundlagen der praktischen Information und Dokumentation«, deren Neuauflage gerade erschienen sind), wird vieles, allerdings in ungewohnter Einordnung und Gewichtung, hier gesammelt vorfinden. Im Einzelnen gehen Vickery auf folgende Bereiche ein: Information und Gesellschaft, Informationstransfer in natürlichen, sozialen, maschinellen Umgebungen, Besonderheiten und Ausprägungen menschlicher Kommunikation und Informationsbedürfnisse, das gesamte Gebiet des Information Retrieval, Wissensrepräsentation, Informationsvermittlung, Informationssysteme und deren Evaluation, Internet und Informationswissenschaft.
    Soziologisch geprägt Das alles auf nicht einmal 350 Seiten: Hier kann es also immer nur um ein »Anreißen« gehen, was sich immer wieder, zum Beispiel in den Abschnitten zu Information Retrieval oder zu Formen der Wissensrepräsentation, schmerzhaft bemerkbar macht. Auf Klassifikationen, Thesauri, Formen des Abstracting und so weiter wird so gut wie nicht eingegangen. Hier ist generell zu fragen, ob die Gewichtung, die die Autoren vornehmen, sinnvoll ist. Ihr Ansatz, Informationswissenschaft zu beschreiben als »the study of the communication of information in sociery«, ist ein sehr weiter und findet seinen Niederschlag in überdimensionierten Abschnitten, die stark soziologisch geprägt sind, ohne wirklich erhellend zu sein; dazu sind die Aussagen, zum Beispiel zu Reichweiten von Kommunikation oder zu verschiedenen Kommunikationstypen, zu allgemein. Bedeutsamer, da dieser umfassende Ansatz überhaupt nicht durchgehalten wird, sondern sich immer stärker verengt hin auf Kommunikation von wissenschaftlicher Information, ist jedoch, dass auch dieses Buch letztlich den Eindruck hinterlässt, Informationswissenschaft sei ein Konglomerat miteinander relativ unverbundener Theorien und Bausteine. Dieser Eindruck, der sich beim Lesen auch deshalb immer wieder aufdrängt, weil sowohl die historische EntwicklungderDisziplin nur sehr verknappt (generell USA-zentriert) wie auch die Abgrenzung/Überschneidungzu anderen Wissenschaften wenig thematisiert wird (ganz stark spürbarim Kapitel 3 »Widercontexts of information transfer«), mildert sich etwas durch die sehr verdienstvolle Auflistung von bekannten Informationsspezialisten im Anhang und die Visualisierung der Informationswissenschaft, ihrer Zweige und bedeutender Vertreter, in Form einer Art »Landkarte«.
    Ein Anliegen aller Das neu hinzugekommene Kapitel zu Informationswissenschaft und Internet versucht auf rund 40 Seiten einen Rundumschlag zu informationswissenschaftlichen Fragestellungen von HTML bis hin zu digitalen Bibliotheken. Auch wenn dieses Kapitel nicht konsistent erscheint, knüpfen die Autoren hier an unmittelbar zurückliegende Forschungen an und fordern ein neues und erweitertes Verständnis von Informationswissenschaft, die die Informationsbedürfnisse aller sozialen Gruppen zu ihrem Anliegen machen müsse. Hier am ehesten schließt sich der Kreis zu dem eingangs bekundeten Verständnis von Informationswissenschaft. Kritische Anmerkung Kritisch muss angemerkt werden, dass es mit den Aktualisierungen, ausgenommen das neu hinzugekommene Kapitel zum Internet, so weit nicht her ist. Besonders ärgerlich sind die vielen Verweise auf Studien und Forschungsergebnisse der Sechziger- und Siebzigerjahre. Unbenommen dieser kritischen Hinweise, bleibt der Titel der Vickerys ein einführendes Buch, dessen Lektüre Gewinn bringend ist und das nach wie vor ein Grundlagenwerk genannt werden kann."
    Weitere Rezension in. Mitteilungen VÖB 57(2004) H.3/4, S.84-86 (O. Oberhauser): " ... Fazit: Wer sich von der Neuauflage von Vickery & Vickery eine auf dem neuesten Stand befindliche Einführung in die Informationswissenschaft erhofft hat, wird enttäuscht sein. Für jene Personen, die das Buch hingegen noch nicht kannten, bzw. jene Bibliotheken, die die ältere Auflage nicht im Bestand haben, ist diese dritte Auflage, ungeachtet ihrer Schwächen und des überhöhten Preises, ein "Muss"!
  6. Kaiser, R.: Bibliotheken im Web 2.0 Zeitalter : Herausforderungen, Perspektiven und Visionen (2008) 0.09
    0.08916855 = product of:
      0.1783371 = sum of:
        0.12450986 = weight(_text_:jene in 60) [ClassicSimilarity], result of:
          0.12450986 = score(doc=60,freq=2.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.26486707 = fieldWeight in 60, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.02734375 = fieldNorm(doc=60)
        0.053827226 = weight(_text_:und in 60) [ClassicSimilarity], result of:
          0.053827226 = score(doc=60,freq=34.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.35362202 = fieldWeight in 60, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=60)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: MittVÖB 62(2009) H.3, S.91-92 (H. Prillinger): "Ronald Kaiser beschäftigt sich in diesem Buch mit den Technologien, die unter den Schlagworten "Web 2.0" und "Bibliothek 2.0" zur verbesserten Kommunikation und Interaktion zwischen Bibliotheken und deren Nutzerinnen eingesetzt werden können. Dabei ist der Titel ein wenig irreführend, den der Schwerpunkt des Buches liegt nicht auf "Bibliotheken", sondern auf "Web 2.0". Kaiser gibt einen guten Überblick über die technischen Möglichkeiten, die unter"Web 2.0" zusammengefasst sind, und stellt Weblogs, RSS-Feeds, Videos, Podcasts und Wikis in einer Form vor, von der sowohl Anfängerinnen als auch Personen mit Grundkenntnissen profitieren können. Bei jedem dieser Medien geht Kaiser sowohl auf die dahinter stehende Technik und Implementierung als auch auf wichtige Grundregeln der Benützung bei der Inhaltserstellung ein (z.B. 15 Tipps für attraktive Blogangebote, oder was beim Drehen eines Videos beachtet werden sollte) und ergänzt jedes Kapitel durch ein Interview, in dem ein Experte zum jeweiligen Medium Erfahrungen, Anregungen oder wichtige Überlegungen einbringt. Die Vorstellung der Web 2.0-Technologien ist gelungen, verständlich, und für Bibliotheken, die in dieser Hinsicht aktiv werden wollen, auch sehr hilfreich; nicht ganz so erfolgreich ist das Buch leider dabei, die Relevanz dieser Technologien für Bibliotheken darzustellen.
    Trotz des Titels Bibliotheken im Web 2.0 Zeitalter geht Kaiser nur am Rande darauf ein, in welcher Rolle sich Bibliotheken zum derzeitigen Zeitpunkt tatsächlich befinden, auf welche Herausforderungen sie reagieren müssen, und warum es deshalb hilfreich oder gar notwendig ist, Web 2.0-Konzepte zu übernehmen und umzusetzen. Auch die erwarteten oder potenziellen Wirkungen werden leider nur sehr sparsam oder gar nicht angesprochen. Vielmehr entsteht der Eindruck, dass es sich bei "Web 2.0" um ein post factum handelt, das einfach übernommen werden muss. Auch bei der Besprechung der einzelnen Web 2.0-Medien wird die Frage nach dem Warum nie gestellt; dass die Einrichtung eines Blogs oder eines Wikis nicht die Lösung aller Probleme darstellt, sondern im Gegenteil nur sehr spezifische Wirkungen hat, wird nicht thematisiert; ebenso wenig wird nicht darauf eingegangen, welche neuen Probleme möglicherweise durch den Einsatz dieser Technologien geschaffen werden. Für mich ist das Grundproblem dieses Buches, dass Kaiser zwar sehr ausführlich auf die Bedürfnisse jener Bibliotheken eingeht, die noch keine Erfahrungen bei der technischen Umsetzung dieser Technologien haben, aber gleichzeitig beim Großteil seiner Leserinnen umfangreiche theoretische Grundkenntnisse über eben diese Technologien vorauszusetzen scheint. Das Buch wirkt daher ein wenig so, als ob ihm eine Hälfte fehlen würde, und es fehlt eben jene Hälfte, die die Relevanz und die Wirkungspotenziale dieser Technologien für Bibliotheken enthalten sollte. Eventuell wäre ein Titel wie "Web 2.0-Technologien für Bibliotheken" zutreffender und hilfreicher gewesen, um nicht einen falschen Eindruck zu erwecken. Bibliotheken, die über Relevanz und Wirkungspotenziale bereits nachgedacht haben und den Schluss gezogen haben, dass der Einsatz dieser Technologien vorteilhaft ist, finden darin nämlich durchaus brauchbare und praxisrelevante Informationen."
  7. Czepel, R.: ¬Die Geographie der wissenschaftlichen Zitierung (2003) 0.09
    0.08782959 = product of:
      0.17565918 = sum of:
        0.14229698 = weight(_text_:jene in 3273) [ClassicSimilarity], result of:
          0.14229698 = score(doc=3273,freq=2.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.30270523 = fieldWeight in 3273, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.03125 = fieldNorm(doc=3273)
        0.033362187 = weight(_text_:und in 3273) [ClassicSimilarity], result of:
          0.033362187 = score(doc=3273,freq=10.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.2191754 = fieldWeight in 3273, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3273)
      0.5 = coord(2/4)
    
    Abstract
    Ein britischer Forscher hat sich die Mühe gemacht, die geografischen Muster der Zitierungen von 1981 bis zur Gegenwart freizulegen. Das Ergebnis: Die publizistische Wahrnehmung ist in der Wissenschaft äußerst ungleich verteilt. Die USA dominieren mit großem Abstand vor dem Rest der WeIt. Und auch dort konzentrieren sich die Verweise auf einige wenige Ballungsräume der Forschung. Michael Batty vom Centre for Advanced Spatial Analysis in London bediente sich für seine Analyse der Datenbank "ISIHighlyCited.com" (http: //www.isihighlycited.com/), in der Forscher aus verschiedenen Disziplinen aufgelistet werden, die die weltweit meisten Zitate auf sich gezogen haben. In diesen Ranglisten nehmen die akademischen Edelschmieden aus den USA etwa jene Rolle ein, die Österreichische Athleten im Alpinschisport besetzen. Einzig der Forschungsraum London kann mit der Konkurrenz aus Übersee halbwegs mithalten. Der Artikel "Citation Geography: It's About Location" von Michael Batty erschien im Magazin "The Scientist" (Band 17, Heft 16/10, Ausgabe vom 25.8.03; http://www.thescientist.com/yr2003/aug/opinion 030825.html). Die Zeitschrift ist nach individueller Registrierung frei zugänglich. Der Homepage des Autors http: //www.casa.ucl.ac.uk/citations/ können weitere Details entnommen werden. Ob die Anzahl derZitate auch etwas über die wissenschaftliche Qualität aussagt, ist genau so Gegenstand von Diskussionen, wie dies etwa bei den "Impact-Faktoren" von Journalen der Fall ist (vgl. "Kann wissenschaftliche Qualität gemessen werden?", http://science.orf.at/science/news/58648). Ganz wertfrei kann man die ISI-Daten jedenfalls dazu verwenden, um herauszufinden, in welchem Land, in welcher Stadt und in welcher Institution die meist zitierten Forscher dieses Erdballs sitzen. Das Ergebnis dieser von Michael Batty erstellten "Geografie derwissenschaftlichen Zitierung" ist eindeutig: Einige Wenige ziehen den Großteil der publizistischen Aufmerksamkeit auf sich - und lassen für den Rest nur wenig über. Diese Aussage gilt gleichermaßen für Ranglisten von Städten, Institutionen und Ländern. Und: In allen drei Fällen kommen die Spitzereiter aus dem US-amerikanischen Raum.
  8. Kreyche, M.: Subject headings for the 21st century : the lcsh-es.org bilingual database (2008) 0.09
    0.08693878 = product of:
      0.17387757 = sum of:
        0.022380034 = weight(_text_:und in 3625) [ClassicSimilarity], result of:
          0.022380034 = score(doc=3625,freq=2.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.14702731 = fieldWeight in 3625, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3625)
        0.15149753 = weight(_text_:headings in 3625) [ClassicSimilarity], result of:
          0.15149753 = score(doc=3625,freq=4.0), product of:
            0.33302557 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06863109 = queryNorm
            0.4549126 = fieldWeight in 3625, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=3625)
      0.5 = coord(2/4)
    
    Abstract
    Spanish is one of the most widely spoken languages in the world and a review of the lists of subject headings in this language reveals numerous efforts over a period of time, usually involving some form of collaboration, but largely isolated from each other. Technological developments suggest that a greater degree of cooperation is now possible and would be beneficial to the international library community if other barriers can be surmounted. The lcsh-es.org project demonstrates this concept in a practical way and suggest a new model for international cooperation in authority control. The site may be accessed at http://lcsh-es.org.
    Content
    Beitrag während: World library and information congress: 74th IFLA general conference and council, 10-14 August 2008, Québec, Canada. Vgl. auch: http://www.ibiblio.org/fred2.0/wordpress/?p=20 (mit Grafik der Beziehung zwischen 'mammal' und 'doorbell')
  9. Jochum, U.: Informationskompetenz, Bibliothekspädagogik und Fachreferate (2003) 0.09
    0.08667864 = product of:
      0.17335728 = sum of:
        0.12450986 = weight(_text_:jene in 3023) [ClassicSimilarity], result of:
          0.12450986 = score(doc=3023,freq=2.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.26486707 = fieldWeight in 3023, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3023)
        0.04884741 = weight(_text_:und in 3023) [ClassicSimilarity], result of:
          0.04884741 = score(doc=3023,freq=28.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.32090676 = fieldWeight in 3023, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3023)
      0.5 = coord(2/4)
    
    Abstract
    Die Debatte um das Berufsbild des Bibliothekars, die 1998 im 32. Jahrgang dieser Zeitschrift mit Vehemenz geführt wurde, ist längst abgeebbt und durch eine Debatte um die Informationskompetenz als neuem Arbeitsfeld für Bibliothekare ersetzt worden. Daran ist erfreulich, dass man nach der eher theoretischen Auseinandersetzung um den Status besonders des höheren Dienstes nun den Blick auf die Praxis zurücklenkt und schaut, was ebendiese Praxis angesichts veränderter Rahmenbedingungen an Herausforderungen für Bibliotheken und Bibliothekare zu bieten hat. Bedauerlich ist jedoch, dass man bei diesem Blick in die Praxis den Zusammenhang mit der Theorie allzu rasch aufgegeben hat, so dass man einmal mehr das tut, was man in der Bibliotheksgeschichte nur zu gerne getan hat: Man überlässt sich einer vermeintlich innovativen Praxis und verdrängt, dass das Plädoyer für eine bestimmte Praxis implizit immer auch ein Plädoyer für eine bestimmte Art von Bibliothek ist. So praktisch die Praxis daher auch immer sein will, stets hat sie im Schlepptau eine Theorie, auch dann, wenn sie selber diese Theorie nicht explizit macht. Der Streit um die richtige Theorie der Bibliothek ist daher kein müßiger Streit um Begriffe, sondern der Versuch, die Autosuggestion einer reinen Praxis zu unterlaufen, um in diesem Unterlaufen überhaupt erst jene Perspektive finden zu können, die eine wohlüberlegte und begrifflich fundierte Kritik der jeweiligen Praxis erlaubt. Entzieht man sich diesem kritischen Unterlaufen der Praxis, bleibt man in ebenjenem Mechanismus verfangen, der das Bibliothekswesen schon seit langem bestimmt: man adaptiert unkritisch die jeweils neuesten Schlagworte, die schon aufgrund ihrer schieren Neuheit und ihrer aufgeregten Zirkulation im öffentlichen Raum mit einer innovativen Energie locken, die man scheinbar nur noch auf die Mühlen der Bibliotheken lenken muss, wenn man ebendiese Bibliotheken als moderne und innovative Einrichtungen der Öffentlichkeit gegenüber darstellen will. Da die Sache aber eine unkritische Adaptation von außen an die Bibliotheken herangetragener Schlagworte bleibt, muss man sich nicht wundern, wenn die Bibliotheken alle paar Jahre ein neues "Paradigma" ausrufen, das sie im Gleichschritt mit den gesellschaftlichen Innovationen halten soll. Der Praktiker ist damit zufrieden, denn er hat den Anschluss an die jüngste Tendenz geschafft, und dass dieser Anschluss in ein paar Jahren gewechselt werden wird, stört ihn nicht im geringsten, im Gegenteil: der Anschlusswechsel suggeriert einmal mehr ein innovatives Potential, selbst dann, wenn man nur die Begriffe austauscht, im übrigen aber so weitermacht wie bisher.
    Die Strecke dieser vermeintlich rein praktischen Anschlusswechsel mit unterstelltem innovativem Potential ist lang und reicht von der "Bibliothek als speziellem Informationssystem" über die "Self-renewing library", die "virtuelle Bibliothek", die "hybride Bibliothek" bis hin zu der im Netz des "New Public Management" gefangenen Bibliothek. Immer wieder ein neues Paradigma, immer wieder breite Debatten um die Umsetzung des jeweils neuesten Trends, und immer wieder nur geringe Lust, von der Seite der Theorie die Implikationen des jeweiligen Paradigmas und seine genaue Reichweite für die Bibliotheken zu klären. Dafür aber ein rascher Wechsel offiziöser "Berufsbilder", die die begriffliche Atemlosigkeit aufs bürokratische Streckbett diverser Ausbildungsordnungen spannen, um auf diesem Weg zu oktroyieren, was vor dem Forum der Theorie unausgewiesen bleibt. Die gegenwärtige Debatte um das neue bibliothekarische Arbeitsfeld der "Informationskompetenz" wiederholt das bekannte Muster aufs schönste: die zunächst im außerbibliothekarischen Raum kursierenden Schlagworte von der "Information literacy" und "Informationskompetenz" wurden rasch auf die Mühlen der Bibliotheken geleitet, um dort flugs das neue Paradigma von der "Teaching library" zu kreieren, die nicht nur in der Informationsflut eine Orientierung bieten soll, sondern auch einen "Paradigmenwechsel von der objektorientierten hin zur kundenorientierten Bibliothek" verlange. Dabei stellt man sich den geforderten Paradigmenwechsel so vor, dass die "Teaching library" ihre Leistung durch den Nutzen der jeweiligen Schulungsveranstaltung "für die konkrete Arbeit oder für das Lehren und Lernen" definiert, was man durch geeignete Evaluierungsmethoden dann auch gleich messen will.
  10. Berg-Schorn, E.: MeSH 2006: Deutsche Version lieferbar (2006) 0.09
    0.0859655 = product of:
      0.171931 = sum of:
        0.045683052 = weight(_text_:und in 959) [ClassicSimilarity], result of:
          0.045683052 = score(doc=959,freq=12.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.30011827 = fieldWeight in 959, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
        0.12624794 = weight(_text_:headings in 959) [ClassicSimilarity], result of:
          0.12624794 = score(doc=959,freq=4.0), product of:
            0.33302557 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06863109 = queryNorm
            0.37909386 = fieldWeight in 959, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
      0.5 = coord(2/4)
    
    Abstract
    Beim DIMDI erhalten Sie ab sofort die aktuelle deutsche Übersetzung des Thesaurus Medical Subject Headings (MeSH) 2006 der National Library of Medicine (NLM). Auf Anfrage liefern wir die neue Version 11.0 (Stand 2006) als kostenpflichtige XML-Datei auf CD-ROM. Gegenüber 2005 enthält derThesaurus 933 neue Deskriptoren. Andere wurden nach der aktuellen Terminologie umbenannt, obsolete Benennungen entfielen ganz. Da jede Deskriptorklasse in Konzepte und Unterkonzepte mit zugehörigen Begriffen unterteilt ist, beträgt die tatsächliche Zahl neuer Bezeichnungen etwa das Fünffache. Der laufend weiterentwickelte Thesaurus umfasst jetzt 23.880 Hauptschlagwörter (Main Headings). Zum Vergleich: vor zehn Jahren gab die NLM erst 18.436 Deskriptoren an. Zuwachs verzeichnet vor allem die Kategorie Chemische Substanzen, Drogen und Arzneimittel mit 684 neuen Schlagwörtern. Zahlreiche neue Begriffe enthalten auch die Kategorien Organismen, Krankheiten, Biowissenschaften, Anatomie sowie Analytische, diagnostische und therapeutische Verfahren und Geräte. Neue Deskriptoren sind beispielsweise Kalziumaktivierte Kaliumkanäle mit großer Leitfähigkeit, Tritonia-Meeresschnecke, Mesangiumzellen oder Bariatrische Chirurgie. Das DIMDI übersetzt den MeSH in enger Anlehnung an die amerikanische Vorlage und ist offizieller Herausgeber der deutschen Version (inkl. Urheberrechte). Der Thesaurus ist Bestandteil des UMLS (Unified Medical Language System) der NLM. Übersetzungen liegen auch in Finnisch, Französisch, Italienisch, Portugiesisch, Russisch und Spanisch vor.
  11. Schlüter, C.: ¬Der blinde Fleck im System des Wissens (2005) 0.08
    0.08486689 = product of:
      0.16973378 = sum of:
        0.12450986 = weight(_text_:jene in 4737) [ClassicSimilarity], result of:
          0.12450986 = score(doc=4737,freq=2.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.26486707 = fieldWeight in 4737, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4737)
        0.045223918 = weight(_text_:und in 4737) [ClassicSimilarity], result of:
          0.045223918 = score(doc=4737,freq=24.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.29710194 = fieldWeight in 4737, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4737)
      0.5 = coord(2/4)
    
    Abstract
    Die Wikipedia lebt vom ehrenamtlichen Engagement ihrer Anhänger und darf somit als soziales Projekt gelten. Wie aber organisiert sich ein Wissen, das aus diesem Geiste entstanden ist?
    Content
    "Manche Begriffe sind das Geld nicht wert, das sie nicht kosten. Der Begriff "Projekt" gehört in jedem Fall dazu, denn er bezeichnet mittlerweile alles und bedeutet aus genau diesem Grunde nichts. So genügt es bereits, eine Absicht zu haben, um ein "Projekt" zu verfolgen. Wer aber hätte im Laufe eines Tages nicht die eine oder andere Absicht? Das Kühlschrankprojekt, das Toilettenprojekt, das Beischlafprojekt ... Wo soll das nur enden? Eine Frage, die sich die Erfinder der freien Online-Enzyklopädie mit dem klingenden Namen Wikipedia so noch nicht gestellt haben. Eben dieser Umstand verrät viel über die Beschaffenheit der im Jahre 2001 gegründeten Unternehmung, die sich laut Selbstauskunft als ein stetig wachsendes "Projekt" versteht, das "von vielen ehrenamtlichen Autoren verfasste, mehrsprachige" Artikel versammelt und bei dem "alle Inhalte unter einer Lizenz stehen, die jedermann das Recht einräumt, die Inhalte unentgeltlich - auch kommerziell - zu nutzen'' zu verändern und zu verbreiten". Die Wikipedia ist überaus auskunftsfreudig' geradezu sprechend sind allerdings die Auskünfte, die sie über sich selbst erteilt. Also weiter im Text: Das Wort Wikipedia setzt sich aus "Wiki" und "Encyclopedia" zusammen. Dabei bezeichnet Wiki eine "im World Wide Web verfügbare Seitensammlung, die von den Benutzern nicht nur gelesen, sondern auch online geändert werden kann ... Der Name stammt von wikiwiki, dem hawaiianischen Wort für schnell." Als Enzyklopädie "bezeichnet man den Versuch der vollständigen und strukturierten Darstellung des Wissens zu einem bestimmten Thema oder des gesamten Wissens der Welt: Wir dürfen das vorerst so verstehen, dass es sich bei der Wikipedia um die systematische Versammlung von Inhalten handelt, die allein deswegen existiert, weil Menschen ehrenamtlich an ihr arbeiten; diese Wissensarbeiter gehören definitionsgemäß zum Begriff des Wikipedia-Projekts. Ohne Arbeit keine Enzyklopädie. Das wiederum bedeutet: Das Wissen ist an eine bestimmte - als offen bezeichnete - soziale Praxis gebunden, und zwar an das Ehrenamt, insoweit es prinzipiell von allen übernommen werden kann, von einigen aber zuverlässig übernommen werden muss.
    Letzteres, die Pflicht um der Wikipedia Willen, ist nun entscheidend. Scheinbar gehört es zum Begriff des Wissens, dass es sich einer Verpflichtung verdankt und damit in seinem-Innersten eine moralische Forderung enthält. Eben diese Moral durchzieht die ganze Wikipedia, hält sie zusammen und verleiht ihr das sie bestimmende Gepräge: Weil das Wissen eine moralische Forderung enthält, kann es nur sein, wenn dieser Forderung auch nachgekommen wird. Das klingt nach einem Widerspruch, denn entweder fordert das Wissen zu einer sozialen Praxis auf oder aber diese Praxis lässt das Wissen überhaupt erst entstehen. Der Widerspruch ist nicht aufzuheben, nirgends, jedoch weiß die Wikipedia, elegant über ihn hinwegzugehen: Sie begreift sich als emergentes System, wobei "als emergent jene Eigenschaften eines 'Ganzen' bezeichnet werden, die sich aus den einzelnen 'Teilen' nicht direkt herleiten lassen und nur aus dem Zusammenwirken der Teile, d.h: aus ihrem Prozess heraus, erklärbar sind". Mit anderen Worten, die Wikipedia ist eine Selbstorganisation des Wissens, in der sich 'Ganzes' und 'Teile' gegenseitig beeinflussen und unablässig neu anordnen. Was aber, um zur Eingangsfrage zurückzukehren, kann hierbei "Projekt" bedeuten? Die Selbstauskunft: "Ein Projekt ist nach DIN 69901 ein Vorhaben, bei dem innerhalb einer definierten Zeitspanne ein definiertes Ziel erreicht werden soll:" Das aber trifft auf die Wikipedia gerade nicht zu, denn ihre Emergenz unterläuft jedwede Definition, sei es, die einer genauen Zeitspanne oder die eines genauen Zielpunktes: Es ist kein Zufall, dass sich in der Wikipedia zwar der Eintrag "Emergentes Organisations-Netz" findet, dieser Eintrag aber bis heute leer geblieben ist. Das ist der, blinde Fleck im System des Wissens: Dort lauert entweder Gott oder wartet das Nichts."
  12. Rauch, W.: Auch Information ist eine Tochter der Zeit (2006) 0.08
    0.084006496 = product of:
      0.16801299 = sum of:
        0.10672274 = weight(_text_:jene in 62) [ClassicSimilarity], result of:
          0.10672274 = score(doc=62,freq=2.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.22702892 = fieldWeight in 62, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.0234375 = fieldNorm(doc=62)
        0.061290253 = weight(_text_:und in 62) [ClassicSimilarity], result of:
          0.061290253 = score(doc=62,freq=60.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.40265095 = fieldWeight in 62, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=62)
      0.5 = coord(2/4)
    
    Abstract
    Die meist Francis Bacon zugeschriebene Erkenntnis veritas filia temporis - die Wahrheit ist eine Tochter der Zeit - gilt auch, sogar in noch viel höherem Maße, für Information. So trivial diese Erkenntnis auch sein mag, so wenig wird sie von Informationswissenschaft und -praxis derzeit beachtet. Das beginnt schon bei den Grundlagen unseres Faches: Der Prozess der Informationsvermittlung geht in der Regel von folgendem Modell aus: Ein Individuum (der Informationssuchende) benötigt zur Lösung einer Aufgabenstellung Information, über die dieser Informationssuchende in seinem 'erweiterten Gedächtnis' nicht verfügt (also im eigenen Gedächtnis und den zu seiner Unterstützung persönlich verfügbaren Wissenssammlungen, wie z.B. Verzeichnissen, Büchern, Ablagesystemen). Daher wendet sich der Informationssuchende an das 'kollektive Gedächtnis der Menschheit', also an Bibliotheken, Datenbanken oder das Internet, um dort jene Information zu erhalten, die zur Problemlösung benötigt wird. In diesem 'kollektiven Gedächtnis der Menschheit' gibt es Dokumente, die zur Lösung einer konkreten Problemstellung beitragen können (die sogenannten relevanten Dokumentationseinheiten), nennen wir diese Menge A. Eine konkrete Anfrage durch den Informationssuchenden liefert als Ergebnis relevante und nicht relevante Dokumente: die Menge B. Die Schnittmenge von A und B, also die gefundenen relevanten Dokumente, sind schließlich das Ergebnis des Informationsvermittlungsprozesses. An der Brauchbarkeit dieser Schnittmenge zur Problemlösung werden Erfolg oder Misserfolg einer Informationssuche gemessen (z.B. mit den Maßzahlen Recall und Precision). Das Modell geht also von einer (Teil-)Menge von gespeichertem Weltwissen aus, dem 'kollektiven Gedächtnis der Menschheit', das natürlich durchaus widersprüchlich und unvollständig sein kann und ständiger Erweiterung und Veränderung unterliegt. Während des Information-Retrieval-Vorganges ist dieses Weltwissen in Struktur und Inhalt allerdings unveränderlich und wird durch die Fragestellung des Informationssuchenden auch nicht beeinflusst. Diesem gespeicherten Weltwissen wird die konkrete ebenfalls während des Suchvorganges unveränderliche Fragestellung des Informationssuchenden gegenübergestellt. Wissenschaft, Kunst und Handwerk des Information Retrieval bestehen nun darin, in den richtigen Datensammlungen mit den besten Instrumenten und den sinnvollsten Fragestellungen zu suchen. Dieses Modell mag bei zahlreichen Retrieval-Aufgaben durchaus zutreffend sein: Bibliothekarische Anfragen, Flugplan-Informationen, Routine-Abfragen nach Lagerbeständen, Auskünfte aus einem Melderegister und ähnliche Fragestellungen werden von diesem Modell hinreichend beschrieben. Für die meisten wissenschaftlichen Aufgaben, für die Reduktion von Ungewissheit (Wersig 1971, 73ff.), für 'Wissen in Aktion' (Kuhlen 1990, 14) ist dieses Modell hingegen zu starr. Es berücksichtigt nicht, dass jedes gefundene Dokument, sobald es vom Informationssuchenden verarbeitet wird, eine Veränderung in dessen Problemsicht bewirken kann: Wenn die aufgefundene Dokumentationseinheit nicht nur redundantes Wissen enthält, wenn sie also Information bewirkt, dann muss sie ja per definitionem die Sichtweise des Fragestellers verändern. Damit ändert sich aber auch die Fragestellung selbst: Hypothesen werden erhärtet oder beginnen zu wanken, Vermutungen werden in eine bestimmte Richtung gelenkt, neue Probleme oder Lösungsmöglichkeiten tun sich auf. Die gesamte ursprüngliche Aufgabenstellung kann als richtig oder falsch erkannt werden. Damit werden neue Fragen aktuell, alte obsolet.
    Jedes einzelne gefundene Dokument kann also nach seiner Verarbeitung durch einen Informationssuchenden die Fragestellung ändern und damit die Menge der relevanten Dokumente A, ebenso wie die Formulierung der Suchanfrage und damit die Menge der gefundenen Dokumente B. Die Teilmengen A und B können sich während einer Suchanfrage damit ständig verändern. Information Retrieval wird damit zu einem dynamischen Vorgang (Rauch 1994, 15 ff.), ebenso wie der Informationsbegriff sich als zeitabhängig erweist (Rauch 2004, 109 ff.). Dieses Phänomen der 'Informationsdynamik' kennt jeder Studierende, der eine Diplomarbeit schreibt, ein Kunde, der ein Produkt sucht, jeder recherchierende Journalist, ein Urlauber, der eine Reise zusammenstellt, oder ein Unternehmer, der eine Geschäftsidee entwickelt. Der Informationsvorgang ist in diesen Anwendungsfällen eben kein neutraler Prozess, der Realität beschreibt, wie sie ist. Information Retrieval ist vielmehr selbst Teil der Realität, beeinflusst diese und verändert sie. Der Information-Retrieval-Vorgang verändert also zuerst die Weltsicht des Informationssuchenden (das 'interne Außenweltmodell') und damit dessen 'erweitertes Gedächtnis'. Es werden diesem Gedächtnis neue Inhalte hinzugefügt, alte möglicherweise verändert oder gar verworfen, neue Strukturen, Assoziationen, Verbindungen hergestellt. Wenn der Informationssuchende diese neuen Erkenntnisse anderen Menschen mitteilt, dann beginnt sich in einem zweiten Schritt möglicherweise langsam auch das kollektive Gedächtnis der Menschheit zu verändern: Eine Erkenntnis beginnt sich durchzusetzen, ein Gedanke verbreitet sich. Diese Rückkoppelung der eigenen Erkenntnis mit dem kollektiven Gedächtnis der Menschheit war in einer Sprechkultur noch leicht möglich. Das Wissen der Menschheit war in Sagen und Märchen, in Bauernweisheiten und Sinnsprüchen, in Gesängen und Epen, in Schulen und Akademien festgehalten. Das Wissen wurde mündlich weitergegeben und der Vermittler der Information war mit den Zuhörern unmittelbar konfrontiert: Zustimmung oder Ablehnung, Abweichung oder Übereinstimmung mit den Meinungen der Zuhörer wurden sofort wahrgenommen. Das kollektive Gedächtnis der Menschheit konnte daher auf Veränderungen der Welt reagieren, Fehler ausbessern und sich den geänderten Ansichten der Zuhörer anpassen, neue Erkenntnisse rasch übernehmen. Das System konnte damit Inhalte und Strukturen flexibel weiterentwickeln. Allerdings war es in seiner zeitlichen und örtlichen Verbreitung langsam, Änderungen wurden nicht dokumentiert, die Quellen des Wissens waren in der Regel nicht bekannt. Mit seiner Ausbreitung in Zeit und Raum konnte es sich unterschiedlich verändern. ...
    Source
    Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
  13. Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007) 0.08
    0.08316847 = product of:
      0.16633694 = sum of:
        0.059212003 = weight(_text_:und in 1557) [ClassicSimilarity], result of:
          0.059212003 = score(doc=1557,freq=14.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.38899773 = fieldWeight in 1557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
        0.10712493 = weight(_text_:headings in 1557) [ClassicSimilarity], result of:
          0.10712493 = score(doc=1557,freq=2.0), product of:
            0.33302557 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06863109 = queryNorm
            0.32167178 = fieldWeight in 1557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
      0.5 = coord(2/4)
    
    Abstract
    Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  14. Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003) 0.08
    0.083083406 = product of:
      0.16616681 = sum of:
        0.07689604 = weight(_text_:und in 5524) [ClassicSimilarity], result of:
          0.07689604 = score(doc=5524,freq=34.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.50517434 = fieldWeight in 5524, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
        0.08927078 = weight(_text_:headings in 5524) [ClassicSimilarity], result of:
          0.08927078 = score(doc=5524,freq=2.0), product of:
            0.33302557 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06863109 = queryNorm
            0.26805982 = fieldWeight in 5524, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
      0.5 = coord(2/4)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Daten-, Literatur- und Faktendokumentation enthält neben zahlreichen Übungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit Antworten. Das Buch ist von zentraler Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Das Thema gewinnt aber auch an Bedeutung für Wissenschaftler aller Fachrichtungen. Das Buch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden vierten Auflage werden insbesondere Entwicklungen im Bereich des Internets und der Informationssysteme berücksichtigt.
    Content
    Zweck und Grundzüge der Dokumentation.- Begriff und Wesen der Information.- Dateien und Informationsspeicher.Referate.- Ordnungsprinzip Klassifikation.- Hierarchische Begriffsstrukturen.- Alphabetisches Sortieren und systematisches Anordnen.- Die Klassfikationen ICD-10 und ICPM.- Ordnungsprinzip Register.- Beispiel einer Dokumentation mit Registern.- Ordnungsprinzip Fassettenklassifikation.- Ordnungsprinzip Begriffskombination.- Struktur eines Ordnungssystems.Beispielthesaurus Gebäude.- Ordnungssystem Medical Subject Headings (MeSH).- Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren.- Dokumenten-Deskriptoren-Matrix.Relevanz- und Vollzähligkeitsrate.- Recherchieren und Suchstrategien.- Dokumentations- und Retrievalsysteme.Aktive Informationsdienste.- Revision eines Ordnungssystems.
  15. Hobson, P.: Wie wir denken lernen : Gehirnentwicklung und die Rolle der Gefühle (2003) 0.08
    0.08296737 = product of:
      0.16593474 = sum of:
        0.10672274 = weight(_text_:jene in 3420) [ClassicSimilarity], result of:
          0.10672274 = score(doc=3420,freq=2.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.22702892 = fieldWeight in 3420, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3420)
        0.059212003 = weight(_text_:und in 3420) [ClassicSimilarity], result of:
          0.059212003 = score(doc=3420,freq=56.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.38899773 = fieldWeight in 3420, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3420)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Spektrum der Wissenschaft. 2004, H.3, S.99-100 (K. Lehmann): "Noch vor wenigen Jahren konnten sich Gehirnforscher wie Joseph LeDoux und Antonio Damasio etwas darauf zugute halten, ein bis dahin völlig vernachlässigtes Gebiet neu zu erkunden: die Rolle der Gefühle für die menschliche Verhaltenssteuerung. Jahrzehntelang war Kognitionsforschung die Ergründung rationalen Denkens gewesen; Gefühle hatte man als den störenden, irrationalen Sumpf in den Untergrund verbannt. Das hat sich mittlerweile völlig geändert. LeDoux (»Das Netz der Gefühle«) hat Emotionspsychologie und Neurobiologie in Einklang gebracht, Damasio (»Descartes' Irrtum«) dargelegt, dass wir gar nicht anders entscheiden können als »aus dem Bauch heraus«. Und nun geht Peter Hobson daran, unser Denken endgültig und buchstäblich vom Kopf auf die Füße zu stellen: Nur dank der Gefühle sei der Mensch zum symbolischen und kreativen Denken in der Lage. Vom ersten Schrei an strebt ein Kind danach, mit anderen Menschen in Beziehung zu treten. Es sucht Blickkontakt, ahmt nach und erkennt den emotionalen Gesichtsausdruck seines Gegenübers. So entsteht »primäre Intersubjektivität«: ein inniger Einklang und fein abgestimmter emotionaler Austausch zwischen Bezugsperson und Kind. Maßgeblich ist dabei, dass das Kind willens und fähig ist, sich in den anderen einzufühlen. Im Alter von etwa einem Jahr erweitert sich dieser Prozess zur »sekundären Intersubjektivität«: Das Kind sucht den Austausch über etwas Drittes. Es erfasst die Haltung, die ein anderer gegenüber Dingen und Erfahrungen einnimmt - wie die Angst der Mutter vor Schlangen oder die Neigung eines Spielgefährten zu seinem Lieblingsteddy - und kann sie für sein eigenes Verhalten berücksichtigen. Solche »Einstellungen zu etwas« fallen für Hobson unter »Emotionen«, eine Klassifizierung, die gewöhnungsbedürftig, aber durchaus üblich und sinnvoll ist. Wenn das Kind dann begriffen hat, dass es mehrere Perspektiven - zum Beispiel eine eigene und eine fremde - auf dasselbe Ding gibt, und zwischen ihnen wechseln kann, ist es nur noch ein kleiner Schritt dahin, ein Ding mal als es selbst, mal als etwas anderes zu betrachten - also zum Symbolgebrauch. Das Kind nimmt eine Kiste und tut so, als wäre es ein Auto: Es nimmt also gleichzeitig zwei unterschiedliche Haltungen zu der Kiste ein. Nahtlos schließt sich an solches Symbolspiel die höchste Form des Symbolgebrauchs an, die menschliche Sprache. Aus der emotionalen Einfühlung ist rationales Denken geworden.
    Wie Hobson diese Theorie entwickelt und anhand zahlreicher Untersuchungen untermauert, ist - trotz einiger Wiederholungen - höchst spannend zu lesen. Hobson ist als Professor für Psychopathologie in London zugleich Experimentalpsychologe, Psychiater und ausgebildeter Psychoanalytiker. Über alle drei Disziplinen hat er sich seit langem dem Phänomen des Autismus angenähert, das ihm für seine Theorie als natürliches Läsionsexperiment dient: Man beobachte, wie sich das Denken bei Menschen entwickelt, denen von Geburt an die Fähigkeit fehlt, andere Menschen als fühlende Wesen zu erfahren. Tatsächlich zeigen autistische Kinder nie Symbolspiel und haben Schwierigkeiten mit dem Sprechenlernen. Ähnliche Störungen bilden sich überdurchschnittlich häufig auch bei blinden Kindern heraus, die ja ebenfalls daran gehindert sind, die Gefühle anderer Menschen und den Gegenstand von deren Aufmerksamkeit wahrzunehmen. Hobsons Theorie kann nicht alle Symptome des Autismus erklären, etwa das stereotype Verhalten und die charakteristi schen Wahrnehmungsstörungen. Man vermisst auch eine Erklärung, warum Autisten, ohne angeblich Symbole verstehen zu können, trotzdem oft sprechen lernen. Aber Autismus ist auch nur ein Nebenthema des vorliegenden Buchs. Leider kommt die Gehirnentwicklung, die der deutsche Verlag vollmundig in den Titel genommen hat, überhaupt nicht vor. Dem Autor ist das nicht vorzuwerfen; das Buch ist, so wie es steht, vollständig. Aber interessiert hätte es einen doch, welche Schäden im Nervensystem so spezifisch diese scheinbar komplexe Fähigkeit, Menschen als Menschen wahrzunehmen, verhindern. Zumal dieses Wissen zugleich aufklären könnte, wie gesunde Menschen diese Leistung vollbringen. Spielen vielleicht die von Vittorio Gallese entdeckten »Spiegelneuronen« eine Rolle, jene Nervenzellen, die gleichermaßen feuern, wenn ein Affe eine Bewegung selbst ausführt, wie wenn er sie beobachtet?
    Auf der Einfühlung in Mitmenschen, die ja stets eine Zuschreibung von Eigenschaften und Zuständen ist, basieren verschiedene Begriffe der Philosophie: - Subjektivität: Hobson legt dar, dass ein gesundes Kleinkind Menschen von vornherein als eine Einheit aus Körper und Bewusstsein erlebt und nicht etwa als »Dinge«, von denen es später erfährt, dass sie auch Bewusstsein haben. - der freie Wille, den wir, wie Peter Strawson gezeigt hat (»Freiheit und Übelnehmen«), im menschlichen Umgang notwendig unterstellen, ganz gleich, ob es ihn wirklich gibt, und - die Individualität eines Lebewesens, die es für uns moralisch bedeutsam macht. Andere als Menschen wahrzunehmen und zu behandeln heißt, ihnen Subjektivität, freien Willen, Individualität zuzuschreiben. Es wäre spannend zu ergründen, wie das geschieht. Auch für eine Theorie des Selbst, wie sie Damasio entwickelt hat, könnte Hobsons Theorie relevant sein. Autisten verfügen über ein Selbstkonzept, insofern es um die Repräsentation eines »Ich« in Raum und Zeit geht. Ein reiches, vollwertiges Selbst aber bildet sich erst in den vielfältigen Beziehungen zu anderen Menschen heraus, die Autisten fehlen. Das Selbst, ebenso wie das Denken, ist, wie Hobson betont, keine Eigenschaft des einzelnen Gehirns, sondern ein soziales Phänomen. Es gehört zu den großen Leistungen dieses anregenden Buchs, diesen vernachlässigten Aspekt in das Blickfeld von Gehirnforschern gerückt zu haben. Möglicherweise ist das der neue Trend, der in zehn Jahren ebenso Mode sein wird wie heute die Gefühle."
  16. Stollberg, M.: Ontologiebasierte Wissensmodellierung : Verwendung als semantischer Grundbaustein des Semantic Web (2002) 0.08
    0.08289673 = product of:
      0.16579346 = sum of:
        0.12450986 = weight(_text_:jene in 495) [ClassicSimilarity], result of:
          0.12450986 = score(doc=495,freq=2.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.26486707 = fieldWeight in 495, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.02734375 = fieldNorm(doc=495)
        0.041283596 = weight(_text_:und in 495) [ClassicSimilarity], result of:
          0.041283596 = score(doc=495,freq=20.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.2712157 = fieldWeight in 495, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=495)
      0.5 = coord(2/4)
    
    Abstract
    In Kapitel A werden die Grundlagen von Ontologien als Verfahren der Wissensmodellierung erarbeitet. Dazu wird zunächst die definitorische Erfassung von Ontologien erläutert. Zur Erlangung eines fundierten Verständnisses von Wissensmodellierung und der Besonderheiten ontologiebasierter Verfahren ist die Eingliederung dieser in den relevanten wissenschaftlichen Kontext erforderlich. Die in diesem Zusammenhang betrachtete Art der Wissensmodellierung dient vornehmlich als konzeptionelle Grundlage für die Erstellung wissensverarbeitender Computersysteme. Die Entwicklung derartiger Systeme ist das Hauptanliegen der Künstlichen Intelligenz, weshalb eine Positionierung ontologiebasierter Verfahren in derselben vorgenommen wird. Dabei sind vor allem jene Ansätze interessant, auf denen ontologiebasierte Verfahren aufbauen. Zunächst werden daher die grundlegenden theoretischen Aspekte der Wissensrepräsentation erläutert und anschließend daran die Bedeutung von Ontologien im Knowledge Engineering aufgezeigt, um den Verwendungskontext derartiger Verfahren der Wissensmodellierung zu verdeutlichen. Aufbauend darauf werden die spezifischen Eigenschaften ontologiebasierter Verfahren der Wissensmodellierung erörtert, wodurch ein grundlegendes Verständnis dieser Methodik erreicht werden soll.
    Der in Kapitel B behandelte Schwerpunkt ist die Ontologie-Entwicklung. Nach der Erfassung der grundlegenden Charakteristika ontologiebasierter Wissensmodellierung stehen hier die Anforderungen bei der Erstellung einer Ontologie im Vordergrund. Dazu werden die wesentlichen diesbezüglichen Errungenschaften des sogenannten Ontology Engineering erörtert. Es werden zunächst methodologische Ansätze für den Entwicklungsprozess von Ontologien sowie für die einzelnen Aufgabengebiete entwickelter Techniken und Verfahren vorgestellt. Anschließend daran werden Design-Kriterien und ein Ansatz zur Meta-Modellierung besprochen, welche der Qualitätssicherung einer Ontologie dienen sollen. Diese Betrachtungen sollen eine Übersicht über den Erkenntnisstand des Ontology Engineering geben, womit ein wesentlicher Aspekt zur Nutzung ontologiebasierter Verfahren der Wissensmodellierung im Semantic Web abgedeckt wird. Als letzter Aspekt zur Erfassung der Charakteristika ontologiebasierter Wissensmodellierung wird in Kapitel C die Fragestellung bearbeitet, wie Ontologien in Informationssystemen eingesetzt werden können. Dazu werden zunächst die Verwendungsmöglichkeiten von Ontologien identifiziert. Dann werden Anwendungsgebiete von Ontologien vorgestellt, welche zum einen Beispiele für die aufgefundenen Einsatzmöglichkeiten darstellen und zum anderen im Hinblick auf die Untersuchung der Verwendung von Ontologien im Semantic Web grundlegende Aspekte desselben erörtern sollen. Im Anschluss daran werden die wesentlichen softwaretechnischen Herausforderungen besprochen, die sich durch die Verwendung von Ontologien in Informationssystemen ergeben. Damit wird die Erarbeitung der wesentlichen Charakteristika ontologiebasierter Verfahren der Wissensmodellierung als erstem Teil dieser Arbeit abgeschlossen.
    Basierend auf diesen Abhandlungen wird in Kapitel D die Verwendung von Ontologien im Semantic Web behandelt. Dabei ist das Semantic Web nicht als computergestützte Lösung für ein konkretes Anwendungsgebiet zu verstehen, sondern - ähnlich wie existente Web-Technologien - als eine informationstechnische Infrastruktur zur Bereitstellung und Verknüpfung von Applikationen für verschiedene Anwendungsgebiete. Die technologischen Lösungen zur Umsetzung des Semantic Web befinden sich noch in der Entwicklungsphase. Daher werden zunächst die grundlegenden Ideen der Vision des Semantic Web genauer erläutert und das antizipierte Architekturmodell zur Realisierung derselben vorgestellt, wobei insbesondere die darin angestrebte Rolle von Ontologien herausgearbeitet wird. Anschließend daran wird die formale Darstellung von Ontologien durch web-kompatible Sprachen erörtert, wodurch die Verwendung von Ontologien im Semantic Web ermöglicht werden soll. In diesem Zusammenhang sollen ferner die Beweggründe für die Verwendung von Ontologien als bedeutungsdefinierende Konstrukte im Semantic Web verdeutlicht sowie die auftretenden Herausforderungen hinsichtlich der Handhabung von Ontologien aufgezeigt werden. Dazu werden als dritter Aspekt des Kapitels entsprechende Lösungsansätze des Ontologie-Managements diskutiert. Abschließend wird auf die Implikationen für konkrete Anwendungen der Semantic Web - Technologien eingegangen, die aus der Verwendung von Ontologien im Semantic Web resultieren. Zum Abschluss der Ausführungen werden die Ergebnisse der Untersuchung zusammengefasst. Dabei soll auch eine kritische Betrachtung bezüglich der Notwendigkeit semantischer Web-Technologien sowie der Realisierbarkeit der Vision des Semantic Web vorgenommen werden.
    Content
    Magisterarbeit am Institut für Publizistik und Kommunikationswissenschaft, Arbeitsbereich Informationswissenschaft, Fachbereich Philosophie und Sozialwissenschaften, Freie Universität Berlin
    Imprint
    Berlin : Institut für Publizistik und Kommunikationswissenschaft
  17. Semantic Web : Wege zur vernetzten Wissensgesellschaft (2006) 0.08
    0.08176787 = product of:
      0.16353574 = sum of:
        0.08893562 = weight(_text_:jene in 242) [ClassicSimilarity], result of:
          0.08893562 = score(doc=242,freq=2.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.18919078 = fieldWeight in 242, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.01953125 = fieldNorm(doc=242)
        0.074600115 = weight(_text_:und in 242) [ClassicSimilarity], result of:
          0.074600115 = score(doc=242,freq=128.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.4900911 = fieldWeight in 242, product of:
              11.313708 = tf(freq=128.0), with freq of:
                128.0 = termFreq=128.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=242)
      0.5 = coord(2/4)
    
    Abstract
    Semantic Web ist Vision, Konzept und Programm für die nächste Generation des Internets. Semantik ist dabei ein wesentliches Element in der Transformation von Information in Wissen, sei es um eine effizientere Maschine-Maschine-Kommunikation zu ermöglichen oder um Geschäftsprozess-Management, Wissensmanagement und innerbetriebliche Kooperation durch Modellierung zu verbessern. Der Band richtet sich gleichermaßen an ein praxisorientiertes und wissenschaftliches Publikum, das nicht nur aus der technischen Perspektive einen Zugang zum Thema sucht. Der praktische Nutzen wird in der Fülle von Anwendungsbeispielen offensichtlich, in denen semantische Technologien zum Einsatz kommen. Praxisorientierung ist auch das Leitthema der Semantic Web School, die sich zum Ziel gesetzt hat, den Wissenstransfer zu semantischen Technologien anzukurbeln und den interdisziplinären Diskurs über deren Nutzen und Folgen zu intensivieren. Der vorliegende Band vereinigt 33 Beiträge von 57 Autoren aus 35 Institutionen zu einem virulenten und multidisziplinären Thema. Der Band richtet sich gleichermaßen an interessierte Laien und fachfremde Experten, die nicht nur aus der technischen Perspektive einen Zugang zum Thema suchen. Denn obwohl das Thema Semantic Web zu überwiegendem Maße ein technisches ist, sollen hier bewusst jene Aspekte angesprochen werden. die außerhalb einer ingenieurswissenschaftlichen Perspektive von Relevanz sind und vor allem die praktischen Aspekte semantischer Technologien adressieren. Dieser Anforderung wird durch die vielen Praxisbezüge und Anwendungsbeispiele innerhalb der einzelnen Beiträge Rechnung getragen. Hierbei ist es den Herausgebern jedoch wichtig darauf hinzuweisen, das Semantic Web und semantische Technologien nicht als verheißungsvolles Allheilmittel der durch Informationstechnologien heraufbeschworenen Probleme und Herausforderungen zu betrachten. Ganz im Gegenteil plädieren die Herausgeber für eine verstärkte Auseinandersetzung mit dem Thema unter Einbeziehung einer großen Vielfalt an Experten aus den unterschiedlichsten Fachbereichen, die einen reflektierten und kritischen Beitrag zu den positiven und negativen Effekten semantischer Technologien beitragen sollen.
    Content
    Inhalt: Im ersten Teil wird neben der begrifflichen Klärung eine Reihe von Einstiegspunkten angeboten, ohne dass der Leser das Semantic Web in seiner Systematik und Funktionsweise kennen muss. Im Beitrag von Andreas Blumauer und Tassilo Pellegrini werden die zentralen Begriffe rund um semantische Technologien vorgestellt und zentrale Konzepte überblicksartig dargestellt. Die Arbeitsgruppe um Bernardi et al. leitet über in den Themenbereich der Arbeitsorganisation und diskutieret die Bedingungen für den Einsatz semantischer Technologien aus der Perspektive der Wissensarbeit. Dem Thema Normen und Standards wurden sogar zwei Beiträge gewidmet. Während Christian Galinski die grundsätzliche Notwendigkeit von Normen zu Zwecken der Interoperabilität aus einer Top-DownPerspektive beleuchtet, eröffnet Klaus Birkenbihl einen Einblick in die technischen Standards des Semantic Web aus der Bottom-Up-Perspektive des World Wide Web Consortiums (W3C). Mit einem Beitrag zum Innovationsgrad semantischer Technologien in der ökonomischen Koordination betreten Michael Weber und Karl Fröschl weitgehend theoretisches Neuland und legen ein Fundament für weiterführende Auseinandersetzungen. Abgerundet wird der erste Teil noch mit einem Beitrag von Bernd Wohlkinger und Tassilo Pellegrini über die technologiepolitischen Dimensionen der Semantic Web Forschung in der europäischen Union.
    Im zweiten Teil steht der Anwender des Semantic Web im Mittelpunkt, womit auch die erste Ebene der systematischen Auseinandersetzung mit semantischen Technologien angesprochen wird. Nicola Henze zeigt auf, welchen Beitrag semantische Technologien für die Personalisierung von Informationssystemen leisten. Stefanie Lindstaedt und Armin Ulbrich diskutieren die Möglichkeiten der Zusammenführung von Arbeiten und Lernen zu Zwecken der Kompetenzentwicklung in Arbeitsprozessen. Leo Sauermann stellt daraufhin mit der Metapher des "Semantic Desktop" ein innovatives Konzept für den Arbeitsplatz der Zukunft vor und fragt - nicht ohne eine gewisse Ironie -, ob dieser Arbeitsplatz tatsächlich auf einen physischen Ort begrenzt ist. Mark Buzinkay zeigt aus einer historischen Perspektive, wie semantische Strukturen die Navigation sowohl im Web als auch auf einzelnen Webseiten verändert haben und noch werden. Michael Schuster und Dieter Rappold adressieren die Konvergenz von Social Software und Semantic Web entlang der persönlichen Aneignung von Informationstechnologien zu Zwecken der sozialen Vernetzung. Remo Burkhard plädiert dafür, Wissensvisualisierung als Brückenfunktion zwischen technischer Infrastruktur und Nutzer wahrzunehmen und demonstriert das Potential der Wissensvisualisierung zur zielgruppengerechten Kommunikation komplexer Zusammenhänge. Abschließend zeigt Gabriele Sauberer, welche Informationskompetenzen und Schlüsselqualifikationen in der modernen Informationsgesellschaft von Bedeutung sein werden, in der der Einsatz semantische Technologien zur täglichen Wissensarbeit gehören wird.
    Der dritte Teil des Bandes thematisiert die organisationalen Dimensionen des Semantic Web und demonstriert unter dem Stichwort "Wissensmanagement" eine Reihe von Konzepten und Anwendungen im betrieblichen und kollaborativen Umgang mit Information. Der Beitrag von Andreas Blumauer und Thomas Fundneider bietet einen Überblick über den Einsatz semantischer Technologien am Beispiel eines integrierten Wissensmanagement-Systems. Michael John und Jörg Drescher zeichnen den historischen Entwicklungsprozess des IT-Einsatzes für das Management von Informations- und Wissensprozessen im betrieblichen Kontext. Vor dem Hintergrund der betrieblichen Veränderungen durch Globalisierung und angeheizten Wettbewerb zeigt Heiko Beier, welche Rollen, Prozesse und Instrumente in wissensbasierten Organisationen die effiziente Nutzung von Wissen unterstützen. Mit dem Konzept des kollaborativen Wissensmanagement präsentiert das Autorenteam Schmitz et al. einen innovativen WissensmanagementAnsatz auf Peer-to-Peer-Basis mit dem Ziel der kollaborativen Einbindung und Pflege von dezentralisierten Wissensbasen. York Sure und Christoph Tempich demonstrieren anhand der Modellierungsmethode DILIGENT, welchen Beitrag Ontologien bei der Wissensvernetzung in Organisationen leisten können. Hannes Werthner und Michael Borovicka adressieren die Bedeutung semantischer Technologien für eCommerce und demonstrieren am Beispiel HARMONISE deren Einsatz im Bereich des eTourismus. Erweitert wird diese Perspektive durch den Beitrag von Fill et al., in dem das Zusammenspiel zwischen Web-Services und Geschäftsprozessen aus der Perspektive der Wirtschaftsinformatik analysiert wird. Abschließend präsentiert das Autorenteam Angele et al. eine Reihe von realisierten Anwendungen auf Basis semantischer Technologien und identifiziert kritische Faktoren für deren Einsatz.
    Im vierten Teil des Bandes stehen die technischen und infrastrukturellen Aspekte im Mittelpunkt des Interesses, die für den Aufbau und Betrieb semantischer Systeme von Relevanz sind. Wolfgang Kienreich und Markus Strohmaier identifizieren die Wissensmodellierung als Basis für den Einsatz semantischer Technologien für das Knowledge Engineering und stellen zwei grundlegende Modellierungsparadigmen vor. Andreas Koller argumentiert, dass die strukturierte Ablage von Content in Content Management Systemen den Lift-Off des Semantic Web stützen wird und zeigt eine Reihe von einfachen Maßnahmen auf, wie CMS Semantic Web tauglich gemacht werden können. Alois Reitbauer gibt einen leicht verständlichen Überblick über technische Fragestellungen der IT-Integration und demonstriert anhand von Beispielen die Vorteile semantischer Technologien gegenüber konventionellen Methoden. Gerald Reif veranschaulicht die Einsatzgebiete und Leistungsfähigkeit der semantischen Annotation und stellt Tools vor, die den Nutzer bei der Dokumentenverschlagwortung unterstützen. Robert Baumgartner stellt die Funktionsweise von Wrappertechnologien zur Extraktion von Daten aus unstrukturierten Dokumenten vor und demonstriert den Nutzen am Beispiel eines B2B-Szenarios. Michael Granitzer bietet einen Überblick über statistische Verfahren der Textanalyse und zeigt, welchen Beitrag diese zur Wartung von Ontologien leisten können.
    Gerhard Budin geht auf die zentrale Rolle des Terminologiemanagements bei der Ordnung und Intersubjektivierung komplexer Wissensstrukturen ein und gibt Anleitung für die Entwicklung von terminologischen Metamodellen. Marc Ehrig und Rudi Studer thematisieren Prinzipien und Herausforderungen der semantischen Integration von Ontologien zu Zwecken der Herstellung von Interoperabilität von Web Services. Wolfgang May gibt eine Einführung in das Thema Reasoning im und für das Semantic Web und zeigt auf, welche Mechanismen und Konzepte in naher Zukunft für das Semantic Web relevant werden. Abschließend führt die Autorengruppe um Polleres et al. in das junge Thema der semantischen Beschreibung von Web Services ein und adressiert Fragestellungen der Service Komposition und Automatisierung von Geschäftsprozessen. In einem Nachwort widmet sich Rafael Capurro der Frage, wie es in Zeiten eines auftauchenden semantischen Web um die philosophische Hermeneutik bestellt ist. Und er kommt zu dem Schluss, dass das Semantic Web als ein weltpolitisches Projekt verstanden werden sollte, das zu wichtig ist, um es alleine den Technikern oder den Politikern zu überlassen.
  18. Altmeyer, M.; Thomä, H.: ¬Der intersubjektive Freud : Angesichts des boomenden Naturalismus lohnt es, eine weniger bekannte Seite des Gründungsvaters der Psychoanalyse in den Blick zu nehmen (2006) 0.08
    0.08135374 = product of:
      0.16270748 = sum of:
        0.123232804 = weight(_text_:jene in 386) [ClassicSimilarity], result of:
          0.123232804 = score(doc=386,freq=6.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.2621504 = fieldWeight in 386, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.015625 = fieldNorm(doc=386)
        0.03947467 = weight(_text_:und in 386) [ClassicSimilarity], result of:
          0.03947467 = score(doc=386,freq=56.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.25933182 = fieldWeight in 386, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=386)
      0.5 = coord(2/4)
    
    Content
    "Ganz im naturwissenschaftlichen Zeitgeist seiner Epoche verstand sich Sigmund Freud in erster Linie als forschender Neurobiologe. Vom ersten Entwurf einer Psychologie (1895) bis zum postum veröffentlichten Abriss der Psychoanalyse (1940) gab er die Hoffnung nie auf, seine Hypothesen zum Seelenleben würden eines Tages durch Erkenntnisse über die Morphologie und Funktionsweise des zentralen Nervensystems belegt, psychoanalytische Spekulationen durch empirisches Wissen ersetzt werden können. Dieses "szientistische Selbstmissverständnis"; das Jürgen Habermas der Psychoanalyse einst bescheinigte, scheint sich heute als Königsweg zu erweisen, auf dem die Wissenschaft vom Unbewussten neue akademische wie gesellschaftliche Anerkennung erfährt. Jedenfalls fällt bei den derzeitigen Feierlichkeiten zu Freuds 150. Geburtstag auf, dass seine revolutionären Einsichten in die Conditio humana wissenschaftlich vor allem aus Sicht eines boomenden Neo-Naturalismus gewürdigt werden: Die Kognitionswissenschaften haben jene unbewussten seelischen Vorgänge, die von der Psychoanalyse stets behauptet und methodisch untersucht worden sind, experimentell längst nachgewiesen und zum integralen Bestandteil der menschlichen Natur erklärt. Der Jubilar würde sich bestätigt sehen. Neben einer biologisch fundierten Metapsychologie, die auch der klassischen Triebtheorie mit ihren Energiemetaphern zugrunde liegt, findet man in Freuds Werk allerdings noch einen zweiten, nirgends systematisch entwickelten metapsychologischen Ansatz, der die konstitutive Bezogenheit des Menschen auf andere Menschen, seine "soziale Natur", mit einbezieht. "Im Seelenleben des Einzelnen kommt ganz regelmäßig des Andere als Vorbild, als Objekt, als Helfer und als Gegner in Betracht und die Individualpsychologie ist daher von Anfang an auch gleichzeitig Sozialpsychologie", heißt es zum Beispiel in der Einleitung zu Massenpsychologie und Ich-Analyse (1921). Intersubjektivität gehört demnach zur mentalen Grundausstattung der menschlichen Spezies und muss dem Individuum nicht erst abgerungen werden - die Psyche selbst ist intersubjektiv verfasst. Angesichts der gegenwärtigen Renaissance eines naturalistisch verkürzten Menschenbildes lohnt sich heute ein Blick auf diesen anderen Freud.
    Hinzunahme der Mutterpflege Entwicklungspsychologische Hinweise auf eine Anthropologie der intersubjektiven Bezogenheit finden sich bereits in Freuds Formulierungen über die zwei Prinzipien des psychischen Geschehens (1911). Dort stellt er seine Ursprungsannahme vom autistischen Säugling unter einen aufschlussreichen Vorbehalt: Das "von den Reizen der Außenwelt abgeschlossene psychische System" funktioniere natürlich nur, wenn man "die Mutterpflege hinzunimmt". Offenbar gehört die einfühlsame, versorgende, all seine Bedürfnisse befriedigende Mutterfigur (die auch der Vater sein kann oder eine andere Bezugsperson) zur ungeteilten Erfahrungswelt des Säuglings wie selbstverständlich dazu. Der naheliegende Grund dafür ist dessen soziale Frühgeburt, auf die Freud in Hemmung, Symptom und Angst (1926) zu sprechen kommt: "Die Intrauterinexistenz des Menschen erscheint gegen die meisten Tiere relativverkürzt; er wird unfertiger als diese in die Welt geschickt. Dadurch wird der Einfluß der realen Außenwelt verstärkt, die Differenzierung des Ichs vom Es frühzeitig gefördert, die Gefahren der Außenwelt in ihrer Bedeutung erhöht und der Wert des Objekts, das allein gegen diese Gefahren schützen und das verlorene Intrauterinleben ersetzen kann, enorm gesteigert. Dies biologische Moment stellt also die ersten Gefahrensituationen her und schafft das Bedürfnis, geliebt zu werden, das den Menschen nicht mehr verlassen wird" (unsere Hervorheb.). Hier leitet Freud aus der neonatalen Hilflosigkeit des Säuglings nicht nur dessen besondere Realitätsbezogenheit, sondern auch das generelle Bedürfnis des Menschen ab, von anderen geliebt zu werden. Eben dieses Bedürfnis, das die Identitätsbildung lebensgeschichtlich begleitet und performativ im Narzissmus zum Ausdruck kommt, trägt einen intersubektiven Herkunftsstempel. Freud erwähnt den passiven Liebeswunsch bereits in seiner Studie über die Homosexualität von Leonardo da Vinci (1910) und bringt ihn in Zur Einführung des Narzissmus (1914) mit der interaktiven Regulierung des Selbstwertgefühls in Verbindung: "Wer liebt, hat sozusagen ein Stück seines Narzißmus eingebüßt und kann es erst durch das Geliebtwerden ersetzt erhalten." Ausgerechnet das narzisstische Bedürfnis nach dem liebenden Anderen verweist insgeheim auf jenes Objekt, das dem Narzissmus in der traditionellen Metapsychologie gerade verweigert wird.
    Das souveräne Ich ist mit der Entdeckung des Unbewussten zwar dezentriert, von Freud zugleich aber rezentriert worden, indem er dessen Anderes - das Es - als Trieb ins Körperinnere zurückholt und von seinem konstitutiven Bezug zur Objektwelt trennt. Dieser Internalismus steht nicht nur Pate bei der endgültigen Formulierung von Freuds Metapsychologie, sondern bestimmt auch die klinische Theorie der Neurose, die nun aus dem intrapsychischen Konflikt zwischen Trieb, Versagung und Schuld hervorgehen soll. Im von der somatischen Medizin geborgten Organismusmodell der Psyche lassen sich freilich jene Strukturen von Ich, Überich und Ichideal nicht ohne Rest unterbringen, die als Sedimente von Interaktionserfahrungen gelten können. Der "Schatten des Objekts", den Freud ursprünglich in den spezifischen Ich-Veränderungen bei der Melancholie gefunden, dann aber im Prozess der IchBildung generell ausgemacht hat, entzieht sich der intrapsychischen Eingemeindung. Ausgerechnet im kategorialen Zentrum seiner ansonsten monadisch angelegten Strukturtheorie mit ihrer Instanzenlehre und der mechanistischen Vorstellung vom psychischen Apparat behauptet Freud eine innere Vermittlung von Selbst und Anderem, eine mentale Verbindung von Innen- und Außenwelt: Das Ich sei "ein Niederschlag der aufgegebenen Objektbesetzungen" und enthalte "die Geschichte dieser Objektwahlen`; schreibt er in Das Ich und das Es (1923). Dieser für die Kodifizierung der psychoanalytischen Persönlichkeitstheorie bahnbrechende Aufsatz erscheint im gleichen Jahr wie Martin Bubers dialogphilosophische Schrift Ich und Du. Für den nüchternen Freud bleibt die Grundidee einer anthropologisch verankerten Intersubjektivität, die Bubers Werk so entscheidend prägt, jedoch ambivalent. So äußert er sich noch in Das Unbehagen in der Kultur (1930) skeptisch über das "ozeanische Gefühl", das sein Freund Romain Rolland gegen die Vorstellung eines abgegrenzten Selbst reklamiert. Dieses "Gefühl der unmittelbaren Verbundenheit, der Zusammengehörigkeit mit dem Ganzen der Außenwelt", so Freud, könne er in sich "nicht entdecken"; es habe für ihn "eher den Charakter einer intellektuellen Einsicht". Nur widerstrebend konzediert Freud Zustände, in denen die scheinbar eindeutige Abgrenzung des Ichs gegenüber der Außenwelt unsicher wird; solche Phänomene rechnet er zu den "dunklen Modifikationen des Seelenlebens", von denen er freimütig bekennt, dass sie ihm selbst nicht ganz geheuer seien. Ungeachtet dieser zugestandenen Idiosynkrasie gelangt Freud aber am Ende dieser Passage zu der Einsicht, dass das Ich-Gefühl des Erwachsenen nicht von Anfang an abgegrenzt gewesen sein könne: "Unser heutiges Ich-Gefühl ist also nur ein eingeschrumpfter Rest eines weit umfassenderen, ja eines allumfassenden Gefühls, welches einer inneren Verbundenheit des Ichs mit seiner Umwelt entsprach. Wenn wir annehmen dürfen, dass dieses Ich-Gefühl sich im Seelenleben vieler Menschen - in größerem oder geringeren Ausmaße - erhalten hat, so würde es sich dem enger und schärfer umgrenzten Ich-Gefühl der Reifezeit wie eine Art Gegenstück an die Seite stellen".
    Das relationale Unbewusste Diese wenigen Fundstellen, die man um weitere ergänzen könnte, reichen zwar nicht aus, um den Gründungsvater der Psychoanalyse zum Kronzeugen ihrer intersubjektiven Wende zu erklären (die in den Nachbarwissenschaften mit Bubers Anthropologie, Wittgensteins Sprachphilosophie oder G. H. Meads symbolischem Interaktionismus zu Freuds Zeiten bereits eingesetzt hatte); denn ungeachtet seiner anhaltenden Ambivalenz ist Freud letztlich bei der cartesianischen Trennung von Subjekt und Objekt geblieben, die ein vermittelndes Drittes und damit ein inter, ein Zwischen, nicht kennt. Es ist vielmehr umgekehrt: Erst ihr verspätet vollzogener "relational turn" versetzt die Psychoanalyse in die Lage, jene von Freud schon registrierte eigentümliche Weltbezogenheit neu zu entdecken, die in den mentalen Tiefen des Subjekts auf die virtuelle Gegenwart des Anderen verweist. Aus dieser Perspektive erscheint auch das Unbewusste, das in der klassisch-psychoanalytischen Topographie eine Art innere Unterwelt darstellt, als relational. Es drängt geradezu auf zwischenmenschliche Beziehungen und situiert den Einzelnen psychisch in seiner sozialen Umgebung - ohne dass es dabei immer harmonisch zuginge: Auch Hass, Neid oder Eifersucht verbinden. Hier trifft sich jenseits des boomenden Naturalismus modernes psychoanalytisches Denken mit dem einer aufgeklärten Neurobiologie. Diese favorisiert nämlich ihrerseits - nachdem sie Jahrhunderte lang vergeblich nach der Steuereinheit an der Spitze der neuronalen Hierarchie (dem Descartes'schen Homunkulus im Kopf) gesucht hat und dabei auf eine nicht-hierarchische Gehirnarchitektur gestoßen ist - die Hypothese einer intersubjektiven bzw. sozialen Konstruktion des Selbst. Hier bahnt sich eine fruchtbare interdisziplinäre Zusammenarbeit an, zu der die Psychoanalyse einiges beizutragen hat - eine Zusammenarbeit auf Augenhöhe, die immer noch vom "intersubjektiven Freud" profitieren kann.
  19. Poetzsch, E.: Information Retrieval : Einführung in Grundlagen und Methoden (2006) 0.08
    0.08133642 = product of:
      0.16267283 = sum of:
        0.10672274 = weight(_text_:jene in 717) [ClassicSimilarity], result of:
          0.10672274 = score(doc=717,freq=2.0), product of:
            0.47008434 = queryWeight, product of:
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.06863109 = queryNorm
            0.22702892 = fieldWeight in 717, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.849437 = idf(docFreq=127, maxDocs=44421)
              0.0234375 = fieldNorm(doc=717)
        0.055950087 = weight(_text_:und in 717) [ClassicSimilarity], result of:
          0.055950087 = score(doc=717,freq=50.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.3675683 = fieldWeight in 717, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=717)
      0.5 = coord(2/4)
    
    Classification
    AN 95000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Informationspraxis # Bibliographische Erfassung, Suchpraxis]
    Footnote
    Rez. in: Online-Mitteilungen 2006, H.88, S.13-15 [=Mitteilungen VOEB 59(2006) H.4] (M. Katzmayr): "Dieses Lehrbuch nun in der 5., völlig neu bearbeiteten Auflage vorliegend - hat zum Ziel, eine praxisorientierte Einführung in das Information Retrieval (IR) zu liefern. Es stellt gemeinsam mit den von derselben Autorin verfassten fachbezogenen Bänden "Wirtschaftsinformation: Online, CD-ROM, Internet" und "Naturwissenschaftlich-technische Information: Online,, CD-ROM, Internet" eine dreiteilige Gesamtausgabe zum IR dar. Der hier besprochene einführende Band gliedert sich in Grundlagen, Methoden und fachbezogene Aspekte (letzteres Kapitel wird in den erwähnten ergänzenden Bänden vertiefend behandelt). Dass es sich bei diesem Band um ein Lehrbuch handelt, wird nicht zuletzt durch Wiederholungsfragen am Ende jedes Kapitels, Rechercheübungen und einige Hausübungen verdeutlicht. Der Schwerpunkt liegt bei lizenzpflichtigen OnlineDatenbanken, das Web Information Retrieval wird nicht behandelt. Das erste Kapitel, "Grundlagen des Information Retrieval", vermittelt ein Basiswissen rund um Recherchedatenbanken und ihren Einsatz, etwa wie Datenbanken gegliedert und einheitlich beschrieben werden können, wie Datensätze in Abhängigkeit der gespeicherten Informationen üblicherweise strukturiert sind, welche Arbeitsschritte eine Recherche typischerweise aufweist oder wie sich die Kosten einer Online-Recherche kategorisieren lassen. Schließlich wird auch eine knappe Marktübersicht wichtiger kommerzieller Datenbankanbieter gegeben. .Im folgenden Kapitel, "Methoden des Information Retrieval", wird das Kommandoretrieval anhand der Abfragesprache DataStarOnline (DSO), die beim Host Dialog DataStar zur Anwendung kommt, erklärt. Neben Grundfunktionen wie Datenbankeinwahl und -wechsel werden die Verwendung von Such und Näheoperatoren, Trunkierung, Limitierung und Befehle zur Anzeige und Ausgabe der Suchergebnisse sowie ausgewählte spezielle Funktionen ausführlich dargestellt. Anschließend findet sich eine mit Screenshots dokumentierte Anleitung zur Benutzung der Websuchoberflächen des Hosts.
    Das dritte Kapitel, "Fachbezogenes Information Retrieval", beschreibt die Retrievalmöglichkeiten der Hosts Dialog und STN International anhand der Retrievalsprachen Dialog und Messenger sowie der Weboberflächen der beiden Anbieter. Thematisch orientiert sich dieses Kapitel an der Wirtschaftsinformation bzw. naturwissenschaftlich-technischen Information. Ein Verzeichnis mit weiterführenden Monographien, eine Auflistung der elektronischen Referenzen und ein Register beschließen den Band. Um das umfassende Thema IR in ein überschaubares Lehrbuchau packen, müssen zwangsläufig Abstriche und Schwerpunktsetzungen vorgenommen werden; die Autorin hat in Abstimmung mit ihrer Lehrveranstaltung, wozu dieses Buch die Lernunterlage bildet, diesen auf lizenzpflichtige Online-Datenbanken gelegt. Allerdings kann diese Einschränkung den Eindruck erwecken, seriöse Recherche sei ausschließlich auf kostenpflichtige Angebote angewiesen; das immer wichtiger und umfangreicher werdende Angebot an wissenschaftlichen-und qualitätskontrollierten kostenlosen' oder gar Open Access-Datenbankeng sollte in einem Einführungsband zumindest erwähnt werden. Eine Abklärung, ob für die Befriedigung eines Informationsbedarfes überhaupt kostenpflichtige Abfragen notig sind, sollte explizit Bestandteil jeder Recherchevorbereitung (Kap. 1.3.) sein. Es wäre fürspätere Auflagen auch zu überlegen, ob nicht etwa boolesche und Näheoperatoren, Phrasensuche, Trunkierung, Klammerung und Feldsuche allgemein und abstrakt im ersten Kapitel besprochen werden sollten. Diese Suchtechniken werden jetzt im 2. und 3. Kapitel nur anhand der ausgewählten Retrievalsprachen: abgehandelt. Andernfalls könnte da<_ erste Kapitel als eigenständige, knappe Leseempfehlung und Lernunterlage zur Einführung in die Datenbankrecherche in der grundständigen Lehre verwendet werden, selbst wenn die Retrievalmöglichkeiten der spezifischen Hosts nicht Unterrichtsthema sind. Etwas schwerer als diese inhaltlichen Anmerkungen wiegt der Vorwurf an die optische Gestaltung des Textes. Uneinheitliche Schriftgrößen, eine Überladung mit Hervorhebungen (Kursivsetzungen, Fettdrucke, Unterstreichungen, mitunter in Kombination) sowie die generelle Bevorzugung der Aufzählung gegenüber dem Fließtext führen zu einem eher unruhigen Erscheinungsbild, was die Auseinandersetzung mit der Thematik und das Zurechtfinden im Buch wohl ein wenig erschwert. Fazit: trotz der angeführten Kritikpunkte handelt es sich hier um einen, empfehlenswerten Einstieg für den Umgang mit Recherchedatenbanken - insbesondere für jene Leserinnen, die an einer explizit praxisorientierten Einführung zum Kommandoretrieval für die angesprochenen Hosts interessiert sind."
    RVK
    AN 95000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Informationspraxis # Bibliographische Erfassung, Suchpraxis]
    Series
    Materialien zur Information und Dokumentation; Bd.5
  20. Jungk, S.: ¬Die Erschließung der Belletristik und Kinder- und Jugendliteratur im Sachkatalog der Deutschen Nationalbibliothek Leipzig (2008) 0.08
    0.08095213 = product of:
      0.16190426 = sum of:
        0.036925174 = weight(_text_:und in 3173) [ClassicSimilarity], result of:
          0.036925174 = score(doc=3173,freq=4.0), product of:
            0.15221684 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06863109 = queryNorm
            0.24258271 = fieldWeight in 3173, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3173)
        0.124979086 = weight(_text_:headings in 3173) [ClassicSimilarity], result of:
          0.124979086 = score(doc=3173,freq=2.0), product of:
            0.33302557 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06863109 = queryNorm
            0.37528375 = fieldWeight in 3173, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3173)
      0.5 = coord(2/4)
    
    Abstract
    In its overall function as the archive of all German-language publications, the German National Library also collects and catalogues German-language literary works. Belles-lettres as well as children's and youth literature form a considerable part of the library's collection. From 1913 until 1990, the titles were assigned subject headings, were filed in the library's card subject catalogue according to genres and languages and (within these categories) were further divided into formal aspects, themes and motifs. The subject indexing of belles-lettres and children's and youth literature is unique in its scope and depth.

Languages

Types

  • a 3710
  • m 835
  • el 235
  • x 210
  • s 191
  • i 50
  • r 30
  • b 13
  • n 8
  • l 5
  • p 3
  • More… Less…

Themes

Subjects

Classifications