Search (13208 results, page 5 of 661)

  1. Internet: The editor's choice (2002) 0.09
    0.08604655 = product of:
      0.3441862 = sum of:
        0.3441862 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.3441862 = score(doc=1854,freq=2.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  2. Hawk, J.: OCLC SiteSearch (1998) 0.09
    0.08518173 = product of:
      0.3407269 = sum of:
        0.3407269 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
          0.3407269 = score(doc=3079,freq=4.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.7708211 = fieldWeight in 3079, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3079)
      0.25 = coord(1/4)
    
    Abstract
    Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
  3. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.09
    0.08518173 = product of:
      0.3407269 = sum of:
        0.3407269 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
          0.3407269 = score(doc=2673,freq=4.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.7708211 = fieldWeight in 2673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2673)
      0.25 = coord(1/4)
    
    Abstract
    The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
  4. Bee, G.: Abschlussworkshop zum Projekt DDC Deutsch (2005) 0.08
    0.083258405 = product of:
      0.16651681 = sum of:
        0.043654382 = weight(_text_:und in 4675) [ClassicSimilarity], result of:
          0.043654382 = score(doc=4675,freq=82.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.31381142 = fieldWeight in 4675, product of:
              9.055386 = tf(freq=82.0), with freq of:
                82.0 = termFreq=82.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=4675)
        0.12286243 = weight(_text_:hervor in 4675) [ClassicSimilarity], result of:
          0.12286243 = score(doc=4675,freq=4.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.24741493 = fieldWeight in 4675, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.015625 = fieldNorm(doc=4675)
      0.5 = coord(2/4)
    
    Content
    "Innerhalb der im Rahmen der allgemeinen Globalisierungsdiskussion geforderten stärkeren internationalen Vernetzung des deutschen Bibliothekswesens kommt der Orientierung an der Dewey-Dezimalklassifkation (DDC) seit einigen Jahren eine Schlüsselrolle zu. Die Deutsche Bibliothek, die Fachhochschule Köln und die Universitätsbibliothek Regensburg starteten deshalb im Oktober 2002 ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Übersetzungsprojekt, das darauf abzielte, die DDC auf der Basis der derzeitigen englischen StandardEdition 22 als international verbreitetes Klassifikationssystem zu übersetzen und dabei an die spezifischen Bedürfnisse des Bibliothekswesens im deutschsprachigen Raum anzupassen. Zum Abschluss dieses Projekts fand am 20. April 2005 im Vortragssaal der Deutschen Bibliothek Frankfurt am Main ein Workshop statt, bei dem neben einer Bilanz der Übersetzungsarbeit auch die vielfältigen Überlegungen für die künftige Arbeit mit der DDC im Zentrum standen. Zu dieser Veranstaltung, die den Titel » Vorstellung der deutschen DDC 22 und Perspektiven für die DDC-Anwendung in den deutschsprachigen Ländern und international« trug, konnte die Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, über 120 Vertreter aus Bibliotheken des deutschen Sprachgebiets begrüßen. In einer kurzen Einführungsrede hob Projektleiterin Magda Heiner-Freiling von der Deutschen Bibliothek Frankfurt am Main die gelungene Zusammenarbeit der verschiedenen Partner hervor. Ein für den Erfolg des Projekts entscheidender Glücksfall sei die enge Zusammenarbeit Der Deutschen Bibliothek mit der Fachhochschule Köln gewesen. Von maßgeblicher Bedeutung war aber auch die Mitwirkung der im Konsortium DDC zusammengeschlossenen Partner, zu denen neben den deutschen Bibliotheken und Verbünden auch die Schweizerische Landesbibliothek, Bern (SLB) und die Österreichische Bibliotheksverbund und Service GmbH gehören.
    Der Startvortrag von Anne Betz, Melanie Jackenkroll und Tina Mengel von der Fachhochschule Köln vermittelte einen sehr anschaulichen Eindruck von der Herkulesaufgabe, der sich das Übersetzerteam zu stellen hatte. Im permanenten gedanklichen Austausch mit dem Online Computer Library Center (OCLC) und der Library of Congress, Washington (LoC) sowie zahlreichen bibliothekarischen Fachleuten aus deutschsprachigen Bibliotheken galt es 4.000 Seiten, 45.000 Klassen und 96.000 Registerbegriffe zu bewältigen. Dabei kam es darauf an, die Fachterminologie korrekt wiederzugeben, die mitunter schwerfällige und stark gewöhnungsbedürftige »DDC-Sprache« in angemessenes Deutsch zu übertragen und bei all dem den Erhalt des Gefüges von Themen und Disziplinen innerhalb des Systems, die »DDC-Mechanik«, zu gewährleisten. In welchem Maße es bei dieser Gratwanderung nicht nur sprachliche, sondern auch kulturelle und weltanschauliche Klippen zu überwinden galt, führte Anne Betz an einer Reihe von Beispielen aus. Bereits scheinbar harmlose Begriffe wie »worker« oder »recreation« und die mit ihnen verbundenen klassifikatorischen Zuordnungen bargen Fallstricke, die besondere Übersetzungsleistungen verlangten. In vielen Fällen wurden Kompromisslösungen gefunden, etwa bei der Frage, ob man englische Körperschaftsbezeichnungen ins Deutsche übersetzen oder die im Deutschen gebräuchlichen Namensformen verwenden sollte. Hier entschied man sich dafür, die englische Bezeichnung beizubehalten und durch den Zusatz der entsprechenden deutschen Bedeutung zu ergänzen. Die deutsche Übersetzung der DDC 22, soviel wurde bereits hier deutlich, hat einen wichtigen ersten Schritt vollzogen, um über eine regelgerechte Übersetzung hinaus den unterschiedlichen kulturellen Gegebenheiten und den spezifischen Suchgewohnheiten deutschsprachiger Benutzer in besonderer Weise entgegenzukommen.
    Anerkennung für die Leistung des deutschen Teams sprach auch aus dem Vortrag von Julianne Beall von der LoC, die als Beauftragte von OCLC und Assistent Editor der DDC die Interessen des amerikanischen Partners an einer möglichst großen Nähe zum amerikanischen Original zu vertreten hatte. Dort zeigte man bei vielen deutschen Vorschlägen Verständnis und Entgegenkommen, sofern das Grundprinzip »The same DDC must be the same in every language« gewahrt wurde. Dass Kroaten und Bosnier hierzulande als getrennte Volksgruppen behandelt werden, wurde ebenso hingenommen wie die Tatsache, dass das deutsche Kegeln vom amerikanischen Bowling zu unterscheiden ist. Außerdem wurde anerkannt, dass die deutsche CDU den konservativen Parteien zuzurechnen ist und nicht dem, was nach amerikanischem Verständnis eine religiöse Partei charakterisiert. Mitunter, so Beall, sei man von deutscher Seite auch auf Fehler der amerikanischen Edition, etwa bei der Zuordnung europäischer Geografika, aufmerksam gemacht worden - Hinweise, die man dankbar zur Kenntnis genommen habe. Im Folgenden stellten Lars Svensson und Renate Polak-Bennemann von der IT-Abteilung der Deutschen Bibliothek Frankfurt am Main ein weiteres wichtiges Resultat des Projekts DDC Deutsch vor. Parallel zur Übersetzungsarbeit wurde ein Webservice entwickelt, der neben einem Klassifikationstool als wichtiges Hilfsmittel für Sacherschließer auch ein in konventionelle Bibliotheks-OPACs integrierbares Rechercheinstrument für Bibliotheksbenutzer enthalten wird. Die einzelnen Tools, die von Der Deutschen Bibliothek vertrieben werden, firmieren alle unter dem durch den Vornamen des DDC-Erfinders Dewey inspirierten Namen Melvil. Während das zentral bei Der Deutschen Bibliothek betriebene Tool MelvilClass zu einer erheblichen Erleichterung des aufwändigen Klassifikationsverfahrens beitragen soll, stellt MelvilSearch ein gleichermaßen zentral (bei Der Deutschen Bibliothek) wie lokal (z. B. in den Verbundzentralen) einsetzbares Recherchetool dar. MelvilSoap soll als Datenschnittstelle die Integration der DDC-Recherche in lokale Bibliothekssysteme ermöglichen.
    Wie es nach dem Vorhandensein von Übersetzung und Webservice mit der DDC Deutsch konkret weitergeht, stand im Mittelpunkt der Ausführungen von Heidrun Alex, der DDC-Projektkoordinatorin an Der Deutschen Bibliothek. Sie erläuterte den Zeitplan für das Erscheinen der Druckausgabe und die Melvil-Lizenzierung und skizzierte die weitere Planung hinsichtlich des Ausbaus und der Pflege der deutschen DDC-Datenbank, die wiederum in enger Zusammenarbeit mit OCLC erfolgen soll. Sie betonte die Wichtigkeit von Nutzerrückmeldungen für eine kontinuierliche Verbesserung des Angebots und wies auf die von Der Deutschen Bibliothek künftig regelmäßig in Frankfurt am Main oder ggf. vor Ort angebotenen Fortbildungsveranstaltungen zur Klassifikation mit der DDC hin. Der Qualitätssicherung bei der DDC-Arbeit dient auch eine von Der Deutschen Bibliothek für Anfang 2006 geplante Reihe von Veranstaltungen, bei denen sich Bibliothekare, die mit der DDC klassifizieren, zu einem fachbezogenen Erfahrungsaustausch zusammenfinden können. Daran anknüpfend erläuterte Magda HeinerFreiling den künftigen Einsatz der DDC Deutsch innerhalb der Deutschen Nationalbibliografie. Ab Bibliografiejahrgang 2006 werden zunächst die - bisher nur partiell durch Beschlagwortung inhaltlich erfassten - Publikationen der Reihen B und H vollständig mit der DDC erschlossen. Ab Bibliografiejahrgang 2007 erhalten dann auch die Publikationen der Reihe A DDC-Notationen; unberücksichtigt bleiben lediglich belletristische Werke, Erbauungsliteratur, Schulbücher sowie die Kinder- und Jugendliteratur. Magda Heiner-Freiling stellte klar, dass der Einsatz der DDC in Der Deutschen Bibliothek keine Abkehr von der verbalen Sacherschließung markiere. Vielmehr werde das Nebeneinander von DDC und der Schlagwortnormdatei (SWD) es ermöglichen, das bibliothekarische Grundprinzip einer Verbindung von klassifikatorischer und verbaler Sacherschließung umfassend zu realisieren.
    Die folgenden Referate dienten allesamt dem Ziel, den sich im bisherigen Verlauf des Workshops gelegentlich einstellenden Eindruck eines lediglich bilateralen - auf den deutsch-amerikanischen Kontakt bezogenen - Aufgabenfelds in einen umfassenderen Kontext einzubetten. Den Anfang machte der Vortrag von Patrice Landry, der als Leiter der Sacherschließung an der SLB bereits seit Ende der 90er-Jahre mit der amerikanischen DDC arbeitet. Landry betonte, dass sich derbisher nur eingeschränkt vollzogene - Einsatz der DDC in der SLB bewährt habe, und hob nachdrücklich die Vorteile einer numerisch orientierten Erschließung in einem auf eine mehrsprachige Gesellschaft ausgerichteten Bibliothekssystem hervor. Mit der DDC Deutsch verbindet Patrice Landry große Erwartungen; seiner Ansicht nach wird sie eine entscheidende Auswirkung auf den Einsatz der DDC in allen deutschsprachigen Bibliotheken haben. Mit Lucy Evans von der British Library, Boston Spa, kam die Vertreterin eines Landes zu Wort, das die bisher umfassendsten Erfahrungen mit der DDC auf europäischem Gebiet aufzuweisen hat. In Großbritannien ist die DDC seit den 20er-Jahren des vergangenen Jahrhunderts das dominante Klassifikationssystem und bestimmt dort auch die Aufstellung in den meisten öffentlichen Bibliotheken. Die British National Bibliography hat seit ihrem ersten Publikationsjahrgang 1950 auf die DDC zurückgegriffen und den Umfang des DDC-Einsatzes beständig ausgeweitet, sodass in naher Zukunft auch graue Literatur und digitale Publikationen mit der DDC erschlossen werden sollen.
    Der Abschluss des Workshops ließ die Ebene der bisher vorwiegend erörterten praktischen Aufgabenstellungen des gegenwärtigen Bibliothekswesens weit hinter sich. Winfried Gödert und Michael Preuss von der Fachhochschule Köln reflektierten gemeinsam die Möglichkeit der Existenz einer universal einsetzbaren, durch alle Menschen in allen Wissensgebieten verwendbaren Klassifikation. Die von ihnen gefundene Lösung besteht in der Erweiterung eines Kernsystems durch eine spezifische Form der Lokalisierung, durch das Andocken der universal gültigen und allgemein verständlichen Klassifikationsmerkmale am jeweils verschiedenen Sinnhorizont des Empfängers. Aus dieser Erkenntnis leiteten Gödert und Preuss eine Reihe von Forderungen an die DDC Deutsch ab, etwa die Er schließung multilingualer Bestände durch ein multilinguales Zugangsvokabular oder den Zugriff auf eine möglichst große Zahl von Dateien, die nur nach einem universalen System erschlossen sind. Interessanterweise waren es gerade diese theoretischen Reflexionen, die Anlass zu lebhafter Diskussion boten und kritische Einwürfe aus dem Publikum hervorriefen, während es zuvor nur wenige Anfragen zu der Übersetzungsarbeit und dem Einsatz des Web-Tools gegeben hatte. Das Projekt DDC Deutsch ist zu Ende - die Arbeit an und mit der DDC Deutsch hat gerade erst begonnen. Auch die Diskussion über den Umfang des konkreten Einsatzes der DDC Deutsch ist noch im Fluss. Die Deutsche Bibliothek setzt hier, wie Magda HeinerFreiling noch einmal betonte, auf einen regen Meinungsaustausch mit den Bibliotheken im deutschsprachigen Raum. So entließ der Workshop die Teilnehmer mit der Erkenntnis, einen großen Schritt vorwärts gekommen zu sein, aber dennoch erst am Anfang einer zukunftsträchtigen Entwicklung zu stehen."
  5. Schubert, F.: Bin ich das? (2004) 0.08
    0.08287047 = product of:
      0.16574094 = sum of:
        0.035425648 = weight(_text_:und in 3862) [ClassicSimilarity], result of:
          0.035425648 = score(doc=3862,freq=24.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.25465882 = fieldWeight in 3862, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3862)
        0.13031529 = weight(_text_:hervor in 3862) [ClassicSimilarity], result of:
          0.13031529 = score(doc=3862,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.26242316 = fieldWeight in 3862, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3862)
      0.5 = coord(2/4)
    
    Abstract
    Unsere Selbstwahrnehmung lässt sich leicht in die Irre führen. Schon ein kleines Täuschungsmanöver genügt, und man hält einen künstlichen Arm für den eigenen.
    Content
    "Haben Sie sich schon einmal Ihre Hände angeschaut und sich gefragt, ob das wirklich Ihre sind? Nein? Sie halten Zweifel daran für abwegig? Dann sollten Ihnen jüngste Versuche britischer Forscher zu denken geben. Sie belegen, dass Menschen ihre eigenen Gliedmaßen ganz leicht mit künstlichen verwechseln können: Eine bescheidene kleine List reicht aus, und schon hält das Gehirn einen Gummi-Arm für einen eigenen Körperteil - und das, obwohl die echte Extremität noch heil und in voller Größe an der Schulter sitzt (Science, 6.8.2004, S.875). Forscher um Henrik H. Ehrsson vom Institut für Neurologie in London führten ihre Experimente an je neun Männern und Frauen aus. Sie ließen die Probanden auf einer Liege Platz nehmen und den rechten Arm locker ausgestreckt auf ein Stützkissen legen. Unmittelbar darüber platzierten sie eine leicht geneigte Tischplatte. Dadurch konnten die Versuchsteilnehmer ihren Arm nicht mehr sehen. Die Platte war mit demselben Material wie das Stützkissen überzogen. Nun holten die Wissenschaftler die Gummi-Attrappe eines rechten Unterarms hervor, die dem natürlichen Vorbild täuschend ähnlich sah. Sie wurde in derselben Orientierung wie der echte Arm auf die Tischplatte gelegt. Auf ih rem hinteren Ende lag locker ein Tuch, das bis zur Schulter reichte (Bild). Das allein genügte allerdings noch nicht, das Gehirn zum Narren zu halten; ein weiteres, subtiles Täuschungsmanö ver musste hinzukommen. Dazu strich der Experimentator mit zwei Pinseln simultan über beide Arme, den falschen und den echten. Natürlich konnte die Versuchsperson nur beobachten, wie die Attrappe gestreichelt wurde - was mit der echten Extremität geschah, lag außerhalb ihres Sichtfelds. Wohl aber spürte sie die Pinselhaare auf der Haut. Das verfehlte seine Wirkung nicht: Nach kurzer Zeit hatten die Probanden, obwohl sie es besser wussten, das unabweisliche Gefühl, der Gummi-Arm sei Teil ihres Körpers. Sie meldeten das Auftreten dieser verwirrenden Empfindung, indem sie mit dem Fuß auf einen Knopf drückten. Der falsche Eindruck war so stark, dass die Versuchsteilnehmer sogar spontan zur Attrappe wiesen, wenn die Forscher sie aufforderten, mit der freien Hand auf den eigenen Arm zu deuten.
    Wie kommt es zu dieser erstaunlichen Sinnestäuschung? Um das herauszufinden, beobachteten Ehrsson und seine Kollegen während des Experiments zugleich die Gehirne der Probanden, indem sie die Liege in die Röhre eines Magnetresonanztomografen schoben. Dabei zeigte sich, dass mit dem Einsetzen der trügerischen Empfindung die Hirnaktivität im so genannten prämotorischen Kortex, einer Region im vorderen Bereich der Großhirnrinde, stark anstieg. Offenbar spielt diese Region eine Schlüsselrolle bei der physischen Selbstwahrnehmung. Dafür spricht nach Ansicht der Wissenschaftler auch, dass der prämotorische Kortex sowohl mit Hirnbereichen verbunden ist, die visuelle Informationen verarbeiten, als auch mit solchen, die auf Berührungsreize ansprechen. Demnach scheint er die Daten mehrerer Sinne zusammenzusetzen. In dem beschriebenen Versuch erwuchs so aus der Verbindung von visueller und taktiler Information der fälschliche Gesamteindruck »Das ist meine Hand«. - Irrtum trotz Absicherung - Zu dieser Deutung passt, dass die Aktivität im prämotorischen Kortex umso höher war, je intensiver die Sinnestäuschung bei den Versuchsteilnehmern ausfiel. Wenn die Forscher den GummiArm schief auf die Tischplatte legten oder die Pinsel nicht exakt synchron bewegten, waren Fehlempfindung und Aktivitätszunahme in der betreffenden Hirnregion nur schwach ausgeprägt. Die neuen Erkenntnisse darüber, wie leicht das Gehirn sich bei der Selbstwahrnehmung übertölpeln lässt, haben durchaus auch praktische Bedeutung. Sie könnten bei der Behandlung von Patienten helfen, die Probleme mit der Unterscheidung zwischen dem eigenen Ich und der Außenwelt haben, weil sie etwa unter Schizophrenie leiden oder ihr prämotorischer Kortex durch einen Schlaganfall geschädigt wurde. Vor allem aber liefern sie neue Aufschlüsse über die Arbeitsweise des Gehirns. Demnach verlässt sich unser Denkorgan bei der Selbstwahrnehmung nicht nur auf einen einzelnen Sinn, sondern integriert vielerlei Informationen. Trotzdem ist es nicht gegen Irrtum gefeit. Wundern Sie sich also nicht, sollten Sie im dichten Einkaufsgewühl das Bein Ihres Nachbarn versehentlich für das eigene halten."
  6. Harms, T.: Kriegserklärung : Telekom schockiert mit neuem Internet-Tarif die Konkurrenz (2000) 0.08
    0.08211638 = product of:
      0.16423276 = sum of:
        0.033917475 = weight(_text_:und in 6205) [ClassicSimilarity], result of:
          0.033917475 = score(doc=6205,freq=22.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.24381724 = fieldWeight in 6205, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6205)
        0.13031529 = weight(_text_:hervor in 6205) [ClassicSimilarity], result of:
          0.13031529 = score(doc=6205,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.26242316 = fieldWeight in 6205, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.0234375 = fieldNorm(doc=6205)
      0.5 = coord(2/4)
    
    Content
    "Robert T-Online hat endlich wieder einen spannenden Job. Die Aufgabe, Anleger für den Börsengang der Telekom-Internettochter zu begeistern, hat das virtuelle Reklamemännchen abgehakt. Jetzt wirbt der strohblonde Robert bundesweit auf Plakaten und in Zeitungsanzeigen für ,Sssssuper-Highspeed zum Sssssuperpreis". Gemeint ist der brandneue Internettarif T-Online DSL Flat 49 Mark Pauschale im Monat für unbegrenztes Surfen im World Wide Web ohne zusätzliche Telefongebühren. Und das bei Übertragungsraten von 768 Kilobit pro Sekunde für das Herunterladen und 128 Kilobit pro Sekunde für das Versenden von Daten. Also satte zwölfmal so schnell wie bei einem herkömmlichen ISDN-Anschluss. Für Telekom-Marketingvorstand Detlev Buchal ein schlicht unschlagbares Angebot". Das Kürzel DSL steht für "Digital Subscriber Line", zu deutsch "Digitale Teilnehmer-Leitung". DSL-Technologie ermöglicht die Ubertragung breitbandiger Datendienste auf herkömmlichen Telefon-Kupferkabeln. DSL-Zugänge ins Internet bieten nicht nur einen deutlich rascheren Seitenaufbau, sie leisten vor allem erstmals die Übermittlung von Bild- und Tondateien in befriedigender Qualität auf den PC. Mit DSL kann das strapazierte Schlagwort vom Internet-Fernsehen erstmals Realität werden. Zwar hält der Pink Panther schon seit Sommer 1999 unter dem Produktnamen T-DSV für Geschäfts- und Privatkunden auch einen Online-Hochgeschwindigkeitszug unter Dampf. Doch das Angebot stand nur in einigen Ballungsräumen zur Verfügung, schreckte den gemeinen Web-Nutzer durch allzu hohe Entgelte ab und lockte deshalb bisher nur rund 100 000 Interessenten hinter dem PC hervor. Mit der seit Monatsbeginn gültigen drastischen Preissenkung hat sich der Bonner Multimedia-Riese nicht weniger vorgenommen, als in den nächsten Jahren die breite Masse der bereits über 18 Millionen deutschen Internet-Nutzer in Highspeed-Surfer zu verwandeln.
    Und das auf den Telefonstrippen der Deutschen Telekom, als Kunden des hauseigenen Internet-Dienstes T-Online. Unser Ziel ist ganz klar", verkündet Telekom-Manager Buchal: "Die Deutsche Telekom macht mit T-DSL aus dem Internet das schnelle Internet für jedermann". Um tatsächlich alle Welt mit den Hochgeschwindigkeits-Datennetz beglücken zu können, muss allerdings das Telefonnetz in den nächsten Monaten aufgerüstet werden. Bis Ende des Jahres soll der Web-Turbo bereits in rund 600 Ortsnetzen, bis Ende 2001 für 90 Prozent aller Haushalte zur Verfügung stehen. Ende 2000 wollen Buchal und Kollegen 500 000 DSL-Kunden gewonnen haben. Wichtigster Telekom-Kooperationspartner bei der Errichtung der anspruchsvollen DSL-Infrastruktur ist die Firma Siemens. Über die Investitionskosten des Vorhabens wahrt die Bonner Telekomzentrale Stillschweigen. Wer das neue DSI-Verfahren von T-Online nutzen will, kann das sowohl mit einem ISDN-Telefonanschluss als auch mit einer herkömmlichen Leitung. Alle momentan angebotenen ISDN-Tarife der Telekom, aber auch der "analoge" T-Net-Tarif - sind mit dem DSL-Pauschalpreis von 49 Mark kombinierbar Die notwendigen Zusatzgeräte (DSL-Modem und Splitter) werden von der Telekom zur Verfügung gestellt. Unternehmen wie die Hamburger TV-Produktionsfirma MME (Me, Myself & Eye) warten bereits sehnlichst auf eine stärkere Verbreitung von DSL-Anschlüssen. MME will auf speziellen Intemet-TV-Kanälen Pop-Konzerte und Musikvideos ausstrahlen. Für unser Geschäft sind breitbandige Internet-Zugänge zu günstigen Preisen absolut essentiell", betont Christoph Post, MME-Vorstand Neue Medien. Deshalb sind wir hocherfreut über die Aktivitäten der Telekom."
    Weniger begeistert sind die Rivalen der Telekom beim Kampf um den Telefon- und Internetmarkt. Sie werden von der TarifOffensive kalt erwischt. Arcor-Mannesmann etwa dürfte mit dem gerade eingeführten Angebot von 79 Mark für einen 768-Kilobit-Zugang in Zwangs-Kombination mit einem Hochpreis-ISDN-Anschluss beim Kunden wenig Punkte sammeln. Online-Hauptkonkurrent AOL hat das Produkt DSL-Flatrate bislang überhaupt noch nicht auf dem Plan. Dabei könnte das hauseigene Intemet-TV-Angebot AOLlive durch den DSL-Turbo profitieren. Auch bei der Bertelsmann Broadband Group (BBG) ist man mit den DSL-Offerten der Telekom nicht zufrieden. Allerdings aus anderen Gründen. Das Hamburger Unternehmen möchte über Telefonund Kabelnetze interaktives Fernsehen in die Haushalte schicken. "Die Bandbreite ist das entscheidende Handicap", sagt Michael Schacht, Leiter Produktmanagement der BBG. Um unsere Angebote über DSL-Leitungen in guter Qualität auf einen Fernseher zu schicken, reichen 768 Kilobit nicht aus. Wir brauchen mindestens zwei Megabit." Helle Aufregung herrscht bei Deutschlands Kabelnetzbetreibern. Für eine "Kriegserklärung" an die Branche hält Dietmar Schickel, Geschäftsführer des Netzbetreibers Telecolumbus, das Vorgehen der Telekom. Telecolumbus bietet M Berlin einen Highspeed-Zugang zum Web über das TV-Netz an. 49 Mark sind ein quer subventionierter Dumpingpreis. Der Monopolist zeigt seine Krallen", schimpft Schickel. Hintergrund der Empörung: In den Businessplänen der KabelnetzUnternehmen steht die Vermarktung von Highspeed-Internet-Zugängen ganz oben. Sollte die Telekom mit ihrer DSL-Großoffensive in den nächsten zwei Jahren den Markt der Highspeed-Kunden abschöpfen, könnten sich die Milliardeninvestionen, die jetzt in die Modernisierung der Kabelnetze gesteckt werden, nicht mehr rechnen. "Das Tarifdumping" mahnt Schickel, "ist ein Fall für den Regulierer"."
  7. Pawlak, A.: Durch das Internet mit Links (2002) 0.08
    0.08132716 = product of:
      0.16265433 = sum of:
        0.03233904 = weight(_text_:und in 1558) [ClassicSimilarity], result of:
          0.03233904 = score(doc=1558,freq=20.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.2324706 = fieldWeight in 1558, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1558)
        0.13031529 = weight(_text_:hervor in 1558) [ClassicSimilarity], result of:
          0.13031529 = score(doc=1558,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.26242316 = fieldWeight in 1558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1558)
      0.5 = coord(2/4)
    
    Content
    "Wie findet der einzelne Nutzer in der "allwissenden Müllhalde" Internet genau die verlässliche Information, die er sucht? Immerhin stehen dem wissbegierigen User auf über 36 Millionen Web-Angeboten (Sites) mehr als vier Milliarden Einzelseiten zur Verfügung. Deshalb gibt er meist in ein eigens dafür konzipiertes Internet-Programm, eine so genannte Suchmaschine, eine Kombination von Suchwörten ein und erhält eine Liste von Webseiten, in denen diese Wörter vorkommen. Nur allzuoft enthält diese Liste einen hohen Anteil Unbrauchbares, denn aus dem bloßen Vorhandensein eines Wortes geht nicht hervor, ob die Webseite zu dem zugehörigen Begriff etwas zu sagen hat. Mehr Sinn steckt schon in den in Hyperlinks, anklickbaren Verweisen, die der Autor der Webseite selbst in diese eingefügt hat. Das Web lässt sich als ein riesiges Netz aus Knoten auffassen, die durch die Hyperlinks miteinander verknüpft sind. Spezielle Computerprogramme sind in der Lage, in diesem unübersehbaren, zufällig erscheinenden Fadengewirr eine gewisse Ordnung zu finden (Spektrum der Wissenschaft 8/1999, S.44). Dabei erweist sich die Hyperlink-Struktur oftmals als ein deutlicheres Kennzeichen für die inhaltliche Verwandtschaft von Webseiten als noch so geschickt gewählte Suchbegriffe. Alle Verknüpfungen im gesamten Internet unter die Lupe zu nehmen scheitert jedoch an ihrer riesigen Menge. Deshalb haben Gary Flake und seine Kollegen vom Forschungsinstitut der amerikanischen Firma NEC in Princeton einen eiwas anderen Weg gewählt. Sie beschränken sich nicht auf eine vorgegebene Menge von Seiten, sondern wählen zunächst eine aus, die als Keimzelle für eine so genannte Commu nity (Gemeinschaft) dient. Kandidaten für die Community sind zunächst die Webseiten, die mit der Keimzelle direkt oder indirekt über (einoder ausgehende) Hyperlinks verknüpft sind. Durch einen raffinierten Algorithmus wird dann bestimmt, welche Webseiten endgültig zur Community gehören: Per Definition ist jedes Mitglied einer Community mit mehr Mitgliedern als Nicht-Mitgliedern verbunden. Das Computer-Programm der NEC-Forscher identifiziert somit ausgehend vom gewählten Startpunkt die Gemeinschaft, die sich selbstorganisiert über die Hyperlinks im Internet gebildet hat (IEEE Computer, Bd. 35, S. 66, 2002). Ein Beispiel für diese Methode findet sich unter http://webselforganization.corn/example.html. Dort hat der Algorithmus der NEC-Forscher einer Internetseite mit Themen zum 11. September eine Gemeinschaft von mehr als 6000 weiteren Seiten zugeordnet - nur auf grund der Verknüpfungen über Hyperlinks und ohne Zuhilfenahme von Textinformationen. Innerhalb dieser Community führt das Suchwort "why" nun sofort auf Seiten, die sich mit der Frage "Why did it happen and why did the buildings collapse?" beschäftigen. Auch die ansonsten mehrdeutigen Begriffe "bin" und "laden" führen nicht mehr in die Irre, sondern auf Informationen über Usama Bin Laden. Filtersoftware zur Abwehr pornografischer oder anderer anstößiger Web-Inhalte könnte mit dem Community-Algorithmus noch treffsicherer werden. Wie sich herausstellt, ist eine Pornografie-Seite nicht unbedingt am Vorhandensein gewisser Reizwörter zu erkennen, die von den Betreibern vielleicht mit Fleiß vermieden werden, sondern weit zuverlässiger daran, dass sie auf andere Pornografie-Seiten verweist oder auf sie von diesen verwiesen wird. Auch sind effektivere Suchmaschinen denkbar, bei denen sich text- und linkbasierte Methoden geschickt ergänzen.
    Allerdings läuft man im kurzlebigen Internet oft ins Leere. Was nützt der schönste Fund, wenn die zugehörige Internetseite nicht mehr existiert? John Markwell und David Brooks von der Universität von Nebraska in Lincoln haben das bei den von ihnen entwickelten Web-basierten Kursen zur Biochemie (http: //dwb.unl.edu/Teacher/NSF/C10/C10.html, -C11/C11.html und -C08/C08.html) schmerzlich zu spüren bekommen: Häufig fielen Hyperlinks aus - als würden aus einem Lehrbuch immer wieder Seiten ausgerissen. Einen vorläufigen Bericht dazu haben Markwell und Brooks unter http://www-eiass.unl.edu// biochem/url/broken_links.html veröffentlicht. Ihr Ergebnis: Hyperlinks haben eine Halbwertszeit von etwa 55 Monaten. Nach dieser Zeit sind somit die Hälfte von ihnen "zerbrochen", nach 13 Monaten schon 16,5 Prozent. Dabei erwiesen sich die Links von Regierungsstellen (Kürzel .gov) mit nur vier Prozent Verlust als einigermaßen robust, solche von Bildungsstätten (.edu) mit 17,5 Prozent als besonders kurzlebig. Diese Resultate haben die Begeisterung von Markwell und Brooks für die Verwendung von Hyperlinks erheblich gedämpft. Der Psychologe Ulf-Dietrich Reips von der Universität Zürich hat das Problem bereits seit längerem erkannt und für sich gelöst. Der Spezialist für psychologische Web-Experimente verweist nicht nur auf die Experimente seiner Kollegen, sondern archiviert sie gleich komplett unter der Adresse http://130.60. 239.96/wexlist/, um sie so langfristig verfügbar zu halten.
  8. Rösch, H.: Academic libraries und cyberinfrastructure in den USA : das System wissenschaftlicher Kommunikation zu Beginn des 21. Jahrhunderts (2008) 0.08
    0.08056487 = product of:
      0.16112974 = sum of:
        0.05253367 = weight(_text_:und in 61) [ClassicSimilarity], result of:
          0.05253367 = score(doc=61,freq=76.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.37764058 = fieldWeight in 61, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=61)
        0.108596064 = weight(_text_:hervor in 61) [ClassicSimilarity], result of:
          0.108596064 = score(doc=61,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.21868595 = fieldWeight in 61, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.01953125 = fieldNorm(doc=61)
      0.5 = coord(2/4)
    
    Abstract
    Am Beispiel der US-amerikanischen Verhältnisse wird untersucht, ob und in welchem Umfang ein funktional differenziertes System wissenschaftlicher Bibliotheken dazu in der Lage ist, dem Funktionsbedarf netzbasierter digitaler Kommunikation der Wissenschaften nach dem jetzt erkennbaren Stand der Entwicklung gerecht zu werden. In der aktuellen Debatte spielen die Konzepte "Cyberinfrastructure" und "Digital Scholarship" eine herausragende Rolle.
    Classification
    AN 88300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliothekswesen in einzelnen Ländern und einzelne Bibliotheken / Ausländische Bibliotheken / Amerika, Indianische Welt / Nordamerika / USA
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
    Footnote
    Rez. in: BuB 61(2009) H.4, S.282-283 (K. Umlauf): "Hermann Röschs Buch ist das Ergebnis eines mehrmonatigen Forschungsaufenthalts in den USA im Wintersemester 2007/2008. Der Autor, Professor an der Fachhochschule Köln, geht der Frage nach, wie weit das wissenschaftliche Bibliothekssystem in den USA in der Lage ist, dem Funktionsbedarf netzbasierter digitaler Kommunikation der Wissenschaften gerecht zu werden. Es geht also um nicht weniger als um die Frage, ob die wissenschaftlichen Bibliotheken der USA in Zukunft einen aktiven Part in der Informationslogistik für die Wissenschaft spielen oder ob die meisten von ihnen überflüssig und die übrigen zu Buchmuseen werden. Zur Beantwortung der Frage könnte man Prognoseverfahren wie eine Delphi-Studie durchführen, aber wahrscheinlich käme man zu wenig brauchbaren Ergebnissen. Der produktive Autor* ist einen anderen Weg gegangen, der in einer vollkommen tragfähigen Argumentation bei seinen souveränen und detaillierten Kenntnissen der Verhältnisse in USA zu einem überzeugenden Ergebnis kommt. Alternatives Erklärungsmodell Rösch beginnt mit einem Aufriss der wissenschaftlichen Kommunikation im Umbruch und struktureller Entwicklungsoptionen der wissenschaftlichen Bibliotheken. Beide analysiert er aus der Perspektive der Systemtheorie, dabei Niklas Luhmann folgend: Historisch stand die isolierte Einzelbibliothek am Anfang. In der Phase des segmentär differenzierten Bibliothekssystems strebten die einzelnen Bibliotheken danach, möglichst gleichartig zu sein, also jede einzelne hatte den Ehrgeiz, der Wissenschaft die benötigte Information komplett zur Verfügung zu stellen, wie es Leibniz idealtypisch gefordert hatte.
    Spätestens im 19. Jahrhundert führte die wachsende Publikationsflut zur Erkenntnis, dass dies nicht leistbar ist; einzelne Bibliotheken gewannen nun die Funktion einer mehr oder minder anleitenden Instanz (stratifikatorisch differenziertes Bibliothekssystem), besonders in Frankreich, England und Preußen, wo die Königliche Bibliothek in Berlin mit dem Gesamtkatalog begann. An der Schwelle zum 20. Jahrhundert wandelte sich dieses System, das freilich im Verhältnis der Universitätsbibliothek zu den Institutsbibliotheken oft erst mit beträchtlicher Zeitverschiebung eingeführt wurde, zu einem funktional differenzierten Bibliothekssystem, das durch eine vernetzte und koordinierte Kooperation (zum Beispiel Leihverkehr, abgestimmte Erwerbung, Sondersammelgebietesplan) gekennzeichnet ist. Damit liefert Rösch nebenbei ein bisher von den Bibliothekshistorikern nicht beachtetes Erklärungsmodell. Dieses wendet Rösch auf das Bibliotheksystem und seine Rahmenbedingungen in den USA an, das er ausführlich, zielstrebig und besonders an aktuellen Entwicklungen interessiert analysiert (etwa die Rolle der Library of Congress, der Verbände oder des OCLC, einzelne Projekte, Organisationen und Initiativen wie Coalition for Networked Information, Educause, Digital Library Federation). Funktional differenziertes System Der Autor kommt zu dem Ergebnis, dass sich das US-amerikanische Bibliothekswesen teils aufgrund der föderalen Struktur und der Zurückhaltung der Bundesebene, teils aufgrund der gesplitteten Trägerschaft (privat - staatlich) bei in vielen Fällen außerordentlichen Etatmitteln überwiegend noch in der Phase eines stratifikatorisch differenzierten, teilweise noch eines segmentär differenzierten Systems befindet.
    Aber auch die Library of Congress, so zitiert Rösch, hat im Jahr 2000 dargelegt, dass heute keine einzelne Bibliothek mehr in der Lage ist, dass Wissenschaftssystem komplett mit der benötigten Information zu versorgen. Nur ein funktional differenziertes System kann dies leisten. Ansätze dazu sieht Rösch vor allem in Formen arbeitsteiliger Bibliothekskooperation wie Global Resources Network, JSTOR, Portico, CLOCKSS oder SPARC und bescheinigt den amerikanischen Verbänden, dass sie mit Energie und Erfolg den Wandel zum funktional differenzierten System befördern. Ausführlich beschreibt der Autor die Anforderungen, die seitens der Wissenschaft an ihre Informationslogistik gestellt werden. Hier behandelt er gründlich den »Atkins-Report« von 2003 und die nachfolgenden Studien zur Cyberinfrastructure wie den »Cultural Commonwealth Report«. Bemerkenswert ist, mit welcher Klarheit bei aller Knappheit der Autor diese Entwicklungen kennzeichnet und analytisch einordnet. Er hält folgende Merkmale dieses Umbruchs in der wissenschaftlichen Kommunikation fest: - Primat der Online-Quellen und Beschleunigung - Interdisziplinarität, Kollaboration, Internationalisierung - Mengenwachstum und Informationsüberflutung - wachsende Bedeutung informeller Kommunikationsformen und nachlassende Unterscheidbarkeit von institutionell formalisierten Kommunikationsformen (Strukturverlust der Kommunikation) - Nutzung von Datenbank- und Retrievaltechnologie - Data-Mining, Aufwertung und exponentielle Vermehrung wissenschaftlicher Primärdaten - Selbst-Archivierung und Open Access - Multimedialität. Wertvoll in diesem Zusammenhang ist, dass Rösch die Tatsache diskutiert, dass Open-Access-Publikationen bei Berufungen von Professoren teilweise einfach ignoriert werden und wie sie mittels informetrischer Ansätze und Web-2.0-Funktionalitäten in formalisierte Bewertungen eingehen können.
    Maßgebliche Impulse für Deutschland Abschließend hebt Rösch folgende Eckpunkte für eine Neuorientierung des wissenschaftlichen Bibliothekssystems in USA hervor: - Integration von Primärdaten - Repositorien für Primärdaten und für digitale Publikationen (die ihrerseits ein arbeitsteiliges System bilden müssen) - digitale Langzeitarchivierung - Datenpflege/Mehrwertdienste - Entwicklung geeigneter Standards - Retrodigitalisierung - Auskunftsdienst/Informationsvermittlung - bibliothekarische Einrichtungen als Plattformen informeller Kommunikation. Rösch sieht gute Voraussetzungen, dass die wissenschaftlichen Bibliotheken in den USA den veränderten Anforderungen gerecht werden und auch künftig eine effiziente und effektive Rolle im Wissenschaftssystem spielen können - wenn er auch betont, dass hierfür noch einige Widerstände sowohl in den Bibliotheken wie bei deren Trägern zu überwinden sind. Man hätte sich vorstellen können, dass Rösch die Erfordernisse der Heterogenitätsbehandlung und der Standards für Datenaustausch, für Metadata Harvesting und für Kollaboration tiefer behandelt. Dies ist, was den Inhalt des nicht sehr umfangreichen, aber außerordentlich ergiebigen Buches angeht, der einzige Kritikpunkt, den der Rezensent anzumerken hat. Eine gewichtigere Kritik richtet sich auf verlagstypische Merkmale des Buches: sehr kleines Schriftbild, zu grob gerasterte Screenshots, dass der Leser mitunter kaum Details erkennen kann, schlampige Herstellung (so ist auf über der Hälfte der Seiten die Seitenzahl auf die letzte Ziffer verkürzt). Das Buch sollte für das deutsche Bibliothekssystem maßgebliche Impulse geben. Eine entsprechende Analyse für das deutsche Bibliothekssystem steht aus."
    Weitere Rez. in: MittVÖB 62(2009) H.3, S.90-91 (H. Prillinger): " ... Da das Buch seine Aufgabe in erster Linie darin sieht, den Status quo der amerikanischen Bibliothekslandschaft festzuhalten, lässt es somit auch bewusst die Frage aus, ob und wie weit die darin vorgestellten Modelle für europäische Bibliotheken relevant sind. Als Zusammenfassung und Referenz stellt es jedoch auf jeden Fall einen interessanten und brauchbaren Beitrag dar."
    RVK
    AN 88300 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliothekswesen in einzelnen Ländern und einzelne Bibliotheken / Ausländische Bibliotheken / Amerika, Indianische Welt / Nordamerika / USA
    AN 73000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Datenverarbeitung / Allgemeines
  9. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.08001777 = product of:
      0.16003554 = sum of:
        0.12046515 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.12046515 = score(doc=6206,freq=2.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.039570387 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.039570387 = score(doc=6206,freq=22.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  10. Kaube, J.: Browser, Server, E-Mail gegen Gelbe Seiten, Kühlschrank und Telefon : Lesen und surfen lassen: Die Stiftungen der Medienkonzerne Bertelsmann und AOL Time Warner veranstalten eine Tagung über "21st Century Literacy" in Berlin (2002) 0.08
    0.07914397 = product of:
      0.15828794 = sum of:
        0.04969187 = weight(_text_:und in 1259) [ClassicSimilarity], result of:
          0.04969187 = score(doc=1259,freq=68.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.3572122 = fieldWeight in 1259, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1259)
        0.108596064 = weight(_text_:hervor in 1259) [ClassicSimilarity], result of:
          0.108596064 = score(doc=1259,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.21868595 = fieldWeight in 1259, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1259)
      0.5 = coord(2/4)
    
    Content
    "Ohne Telefon werden Sie sich in diesem Jahrhundert nicht zurechtfinden. Wer kein Telefon hat, verliert in der Gesellschaft, die gerade entsteht, den Anschluß. Noch immer aber telefonieren manche Menschen gar nicht oder nur ungern. Telefonieren können, Telefonate richtig einzusetzen und Durchtelefoniertes richtig zu interpretieren, all das ist für die individuelle Leistungsfähigkeit und damit das Wohlbefinden der Menschen entscheidend. Das Telefonieren leistet einen entscheidenden Beitrag zur Demokratie, weil sich die Bürger, seitdem es Telefone gibt, melden können, wann immer sie wollen. Die Forderung des Tages lautet auch darum: Telefone für alle. Hier ist der Staat gefordert, in den Schulen muß Telefonieren auf den Stundenplan, alle Schulen müssen ans Telefon. Dabei muß jeder Bürger wissen, daß auch nach der Schulausbildung lebenslanges Telefonieren für sein Fortkommen von entscheidender Bedeutung sein wird. Man könnte die Telefone in diesen Behauptungen auch durch andere wichtige Geräte wie Uhren oder Automobile ersetzen. Die Behauptungen würden dadurch nicht richtiger und nicht falscher. Irgendwie, so der Eindruck, sind sie richtig. Ohne Telefone, Uhren, Pkw wäre vieles schwieriger und vieles gar nicht möglich. Mit solchen Maschinen umzugehen gehört zum modernen Alltag. Zugleich wirken solche Sätze aber auch ziemlich übertrieben, vor allem wenn sie aus Nützlichkeit und Verbreitung einer einzelnen neuen Technologie auf einen gesellschaftlichen Umbruch schließen. Und gerade weil so viele Technologien inzwischen unentbehrlich geworden sind, läge eine ungeheure Einseitigkeit darin, von unserer Epoche als dem Zeitalter des Telefons, der elektrischen Beleuchtung, dem des Kühlschranks oder dem des Transistors zusprechen. Sobald man die Telefone in jenen Sätzen aber durch das Internet ersetzt, erhält man Formulierungen, die gegenwärtig auch dann nicht mehr begründungsbedürftig sind, wenn sie nur noch aus undurchdachten Übertreibungen bestehen. Sätze, wie sie jetzt auf einer Tagung über "21st Century Literacy", die Bildungserfordernisse der Gegenwart, auf höchster Ebene bekräftigt wurden. Die Stiftungen der Medienkonzerne Bertelsmann und AOL Time Warner hatten Spitzenpersonal aus Wirtschaft, Politik und Erziehung nach Berlin eingeladen, um sich hieran zu beteiligen. Schon zu Beginn des Treffens wurden ihm - so schnell geht es zu im Informationszeitalter - Ergebnisse in Form eines Berichts der Stiftungen über "Bildung im Zeitalter konvergierender Medienwelten" in die Hand gedrückt. Darin finden sich alle Gemeinplätze gegenwärtiger Begeisterung durchs Internet in dankenswerter Komprimierung: Ohne Nutzung des Internets wird sich bald niemand mehr auf dieser Welt zurechtfinden. Die digitale Technik steigert, sofern richtig und umfassend genutzt, unsere Effektivität im Beruf, macht die Politik demokratischer, die Bürger mündiger, erhöht die Lebensqualität, das Wissen und das Wirtschaftswachstum. Das soll das Internet aber nur können, wenn die Bevölkerung noch einmal alphabetisiert wird. Denn angeblich verändern die neuen Informationstechnologien alles, was bisher über Wissen gewußt und über Denken gedacht wurde. Zwar mag der Benutzer jener Informationsmaschinen den eigentlich beruhigenden Eindruck gewonnen haben, mit älteren Kulturtechniken wie Lesen, Schreiben und dem Drücken von merkpflichtigen bunten Knöpfen ganz gut durchzukommen. Aber da täuscht er sich, den Verkäufern dieser Maschinen und ihrer Programme (AOL und Bertelsmann beispielsweise) zufolge. Denn es gibt jetzt viel mehr Grafiken, mehr bewegte Bilder, mehr Datenbanken. Man muß jetzt selbständig recherchieren, kommunikationsfähig sein, problemorientiert lernen. Und man denke: Auch nach dem Schulabschluß muß neuerdings weitergelernt werden.
    Alles ändert sich also, dauernd, nur die Reklamesprüche derjenigen, die ihre Produkte damit anpreisen, wer nicht kaufe, bleibe zurück, weil sich ja alles dauernd ändere, bleiben erfreulich wiedererkennbar. Der wichtigste Spruch der Stunde, der sie alle bündelt, fordert "Medienkompetenz". Sie trete neben Lesen, Schreiben und Rechnen als vierte Schlüsselfähigkeit. Die Pisa-Studie wäre insofern unvollständig gewesen, hat sie doch überhaupt nicht untersucht, ob die Kinder auch das Internet richtig - der Bericht vergißt in solchen Zusammenhängen nie das Wort "kritisch" - benutzen können. Weil im Internet angeblich die Informationen auf neuartige Weise mitgeteilt werden, bedürfe es eigener Schulung dafür. Es werde die vordringliche Aufgabe von Erziehung, "den Umgang mit Myriaden von Veränderungen zu vermitteln". Inwiefern stellt aber die "Kenntnis von Browsern, Suchmaschinen, E-Mail" höhere und grundsätzlichere Anforderungen als diejenige von Gelben Seiten, Videorecordern und Bohrmaschinen? Wenn alles so neu, so revolutionär ist, mag man sich überdies fragen, wie etwa die Herren Schulte-Hillen (Bertelsmann), Case (AOL), Schröder (SPD) oder Glotz (SPD) es je vermochten, sich mit ihrer altbackenen Schulbildung, die nur Lesen, Schreiben und Rechnen umfaßte und ganz ohne Netzzugang erfolgte, auf diesen Stand allerneuester Wissensnutzung zu bringen. Oder surfen sie selber gar nicht? Wie aber halten sie dann Schritt mit dem Fortschritt? Gerhard Schröder jedenfalls dachte bei Medienkompetenz auch an das Vermögen, Bilder, vor allem die Wirkung ausgestrahlter Bilder, richtig einzuschätzen. Geschicktes Haarefärben oder entschiedene Handbewegungen beim Reden als Dokumente "visueller Kompetenz" waren freilich auch schon dem Ancien regime geläufig. Schröders Forderung, es solle das Bilderlesen in den Schulen eingeübt werden, stellt trotzdem das Ceterum censeo der Interneteuphoriker dar. Unter respektvoller Miterwähnung des Lesens von Geschriebenem als "immer noch" wichtiger Fähigkeit wird festgestellt: Der, natürlich kritische, Umgang mit Bildern muß eingeübt werden, denn mehr als achtzig Prozent der im Internet mitgeteilten Information liege in Bildform vor. Es wäre interessant zu wissen, wie weit bei solchen Berechnungen der Informationsbegriff gefaßt worden ist und ob er auch Bilder von Popstars und anderem Vernügungspersonal miteinschließt. Immerhin sollen nach wie vor "MP3" und "Sex" die häufigsten Suchwörter von Netzbenutzern sein.
    Footnote
    Den Schulen fehlen vielerorts die Mittel, um die Wände zu streichen, und die Lehrer, um regelmäßigen Unterricht zu gewährleisten - aber der Kanzler spricht im Verein mit den Wirtschaftsinteressenten davon, daß um der Medienkomptenz willen auch noch im letzten Klassenzimmer ein Computer stehen muß, wenn die Kinder eine Chance haben sollen. Der Stiftungsbericht warnt gar vor "sozialer Isolation", wenn nicht alle Schüler über die nötige Technik verfügten. Von ähnlicher pädagogischer Dignität sind Behauptungen wie die, "mit Hilfe der interaktiven Medien" könnten "Kinder heute die eigene Art des Lernens bestimmen". Unter den Teilnehmern des Podiums zu Bildungsfragen behielt angesichts solch erregender Aussichten nur die luxemburgische EU-Kommissarin für Bildung und Kultur, Viviane Reding, die Nerven und wies darauf hin, daß nach den Befunden der PisaStudie erst einmal für die alte Alphabetisierung gesorgt werden müsse. Neben den Schulen stellen sich die Medienkonzerne vor allem staatliche Verwaltungen als zweiten großen Kundenkreis vor. Dafür werden Worte wie "e-Government" geprägt. Gegen Steuererklärungen und Autozulassungen, die auf elektronischem Wege abgesandt werden, ist - von Datenschutzfragen vielleicht abgesehen - wohl so wenig einzuwenden wie gegen übersichtliche Websites von Behörden. Doch ähnlich wie in Bildungsfragen wird auch hier der Bürger für naiv gehalten, wenn er zusätzlich zu solchen technischen Erleichterungen gleich eine ganze Ideologie der Partizipation und Emanzipation durch PC-Benutzung mitübernehmen soll. Besonders tat sich hierbei in Berlin AOL-Chef Steve Case hervor. Die "digitale Demokratie" werde zu größerer Toleranz unter besser informierten Bürgern führen, die sich nun über alles, was sie angeht, mit ihren Nachbarn unterhalten könnten und endlich produktiv teilnehmen am öffentlichen Leben. Man durfte auch hier darüber nachdenken, welche ungeheueren Demokratisierungsschübe im zwanzigsten Jahrhundert vom Telefonieren ausgelöst wurden. Daß Diktatoren und Amnesty International, Pflanzenschützer und Kinderpornographen vom Internet profitieren, ist allzu offensichtlich, als daß man jemandem länger zuhören sollte, der das Gegenteil zur Prämisse seiner interessierten Euphorien macht."
  11. Schmidt, W.: ¬Die Erfolgreiche : Wie die Suchmaschine wurde, was sie ist (2006) 0.08
    0.07802252 = product of:
      0.15604503 = sum of:
        0.047448967 = weight(_text_:und in 938) [ClassicSimilarity], result of:
          0.047448967 = score(doc=938,freq=62.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.34108895 = fieldWeight in 938, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=938)
        0.108596064 = weight(_text_:hervor in 938) [ClassicSimilarity], result of:
          0.108596064 = score(doc=938,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.21868595 = fieldWeight in 938, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.01953125 = fieldNorm(doc=938)
      0.5 = coord(2/4)
    
    Content
    "Wer Google googelt, sieht zuallererst Google. Das klingt wie ein plattes Witzchen - ist aber schon das wesentliche Geheimnis des unheimlichen Erfolgs einer Suchmaschine, der es gelungen ist, binnen weniger Jahre das Internet, die Suche nach Informationen und die Werbewelt zu verändern und sich unentbehrlich zu machen. Googeln wurde buchstäblich zum Begriff. "Keine andere Marke hat je so schnell globale Anerkennung gefunden wie Google", schreiben David A. Vise, ein Reporter der "Washington Post", und sein Kollege Mark Malseed in ihrem Buch über den sagenhaften Aufstieg des Unternehmens, das Suchergebnisse in 35 Sprachen liefert. Allein in Deutschland nutzen heute über 22 Millionen Menschen die Suchmaschine mit den bunten Buchstaben regelmäßig - unter den Internet-Surfern hierzulande ein Marktanteil von 65 Prozent. Sie suchen nach Neuigkeiten über ihre Filmhelden, prüfen die Schreibweise von Fremdwörtern oder forschen wie Detektive nach Wissenswertem über die Frau oder den Mann, mit dem sie sich abends treffen werden - zum Rendezvous oder Geschäftsessen. Längst gelten in manchen Kreisen Menschen als Langweiler, über die selbst Google nichts weiß. Wie dieser Erfolg möglich war, beschreiben Vise und Malseed auf rund 300 Seiten. Man kann es mit dem Dichter Victor Hugo (1802-1885) aber auch kürzer sagen: "Nichts ist so mächtig wie eine Idee, deren Zeit gekommen ist." Noch mächtiger freilich ist eine Idee, die von der Konkurrenz übernommen wird - in totaler Verkennung der Bedürfnisse von Internet-Nutzern. Eine solche Idee brachte 1997 Google hervor - und hat längst Wirtschafts- und Kulturgeschichte geschrieben. Der zentrale Gedanke der beiden damals 22-jährigen Google-Gründer Larry Page und Sergey Brin ist simpel: Wenn die Lawine der im Internet abrufbaren Informationen weiter derart anschwillt, dann brauchen die Nutzer des weltweiten Netzes einen exzellenten Suchhund. Nicht umsonst ist der Name der Suchmaschine abgeleitet von dem Wort Googol, womit in der Mathematik eine absurd große Zahl mit hundert Nullen bezeichnet wird - eine Anspielung auf die unermessliche und längst unüberschaubare Weite des Internets.
    Hilfe beim Finden tut also Not. Nur reicht es eben nicht, wenn ein Recherche-Programm für einen Begriff wie "Klimawandel" möglichst viele Fundstellen auflistet, durch die man sich dann erst einmal mühsam klicken und lesen muss. Das verbesserte Betriebsklima in der Firma XY ist für die meisten eher unwichtig. Page und Brin, Informatik-Studenten an der kalifornischen Universität Stanford, erkannten schnell, dass sie eine sinnvolle Rangfolge innerhalb der Suchergebnisse zustande bringen mussten, um Google zum Erfolg zu verhelfen Ihr erster Geldgeber Andy Bechtolsheim, der 1998 hilfreiche 100 000 Dollar beisteuerte, begründete seine Investition mit den Mängeln marktüblicher Suchmaschinen: "Damals benutzte ich das Internet fast ausschließlich für Suchanfragen, und ein Teil meiner Frustration rührte daher, dass AltaVista - die Standard-Suchmaschine - nicht sehr gut war." Viele der zahlreichen Ergebnisse waren unbrauchbar. Die 1995 in den USA ebenfalls gängige Suchmaschine Inktomi fand sich damals nicht einmal selber, wenn man ihren Namen in die Suchmaske eintippte. Google hingegen findet Relevantes meist zielsicher in Bruchteilen einer Sekunde - und sich selbst natürlich zuerst. Genial war auch die bis heute konsequent umgesetzte Idee, die Google-Startseite frei von Reklame und vor allem von Fotos und albernen Mätzchen zu halten. Derartiges verursacht nicht nur zusätzliche Ladezeit - gerade auf älteren Rechnern und bei langsamen Netz-Zugängen. Es wirkt auch unseriös und vermittelt den Eindruck, dass einem auf solchen Seiten vor allem etwas angedreht werden soll. Während die Konkurrenz ihre wichtigste Seite überluden, hielten Brin und Page an ihrem asketischen Portal fest. Dieses besteht bis heute praktisch nur aus dem Namen Google, kleinen Schaltflächen für die einzelnen Dienste und dem Suchfeld. Allenfalls werden zu besonderen Anlässen wie weltweit relevanten Jubiläen, Jahrestagen oder Sport-Ereignissen einzelne Buchstaben des Namenszuges meist witzig verändert.
    Im Rückblick klingt es unglaublich, dass viele Insider noch Ende der 90er Jahre sträflich das Potenzial einer zielführenden Suchmaschine unterschätzten - darunter auch die Verantwortlichen des großen Such-Dienstes AltaVista und des redaktionell betreuten Netzverzeichnisses Yahoo, das seine Kunden mit allerlei Diensten an sich zu binden suchte. Beide lehnten es früh ab, bei Google einzusteigen - später indes kooperierte Yahoo dann doch. "Niemand konnte sich für die Finanzierung von Suchanfragen begeistern", berichtet Buchautor David Wise. Getrieben von ihrer Idee, möglichst vielen Menschen möglichst alle Informationen des globalen Datennetzes zugänglich zu machen, wussten Brin und Page hingegen genau, dass sie auf dem richtigen Weg waren - und sie verfolgten ihn so unbeirrt wie Lenkraketen. Dabei behielten sie auch finanziell immer das Steuer in der Hand - keineswegs selbstverständlich gegen Ende der 90er Jahre, als die Internet-Euphorie und der Boom so genannter Dotcom-Unternehmen dazu führten, dass nahezu jedem großmäuligen Jung-Unternehmer Millionen Dollar, Pfund oder Mark an Risiko-Kapital in den Rachen gestopft wurden. Doch Brin und Page waren nicht nur standhaft und sparsam. Sie haben von Anfang an versucht, ihrer Belegschaft das Arbeiten bei Google möglichst angenehm zu machen, indem sie ihre Mitarbeiter so unentgeltlich wie exquisit verköstigten und ihr diverse Dienste bereitstellten - vom Kindergarten über Friseur und Wäscherei bis zum FitnessStudio. Obendrein erwarten sie bis heute, dass jeder Programmierer mindestens ein Fünftel seiner Arbeitszeit komplett darauf verwendet, eigenen Einfällen nachzuspüren und Neues auszuprobieren. Die so ermunterten Mitarbeiter haben nützliche Neuerungen hervorgebracht: von der - auf die USA beschränkten - Telefonnummern-Suche durch Eingabe von Namen und Postleitzahl ins Suchfeld über die automatische Korrektur von Eingabefehlern ("Meinten Sie:... ") bis hin zum Nachrichten-Service "Google News oder zum opulenten Foto-Archiv: Die Bildersuche hält heute rund 1,2 Milliarden Stück bereit. Auch Google Earth, das Satelliten-Aufnahmen auf den heimischen PC bringt, hat Aufsehen erregt.
    Eine zentrale Stütze des Erfolges ist die gewaltige Rechnerleistung, über die Google verfügt. Verteilt auf mehrere Standorte, durchforsten bei Suchanfragen weit über hunderttausend billige, aber bedarfsgerecht optimierte PC-Rechner über acht Milliarden gespeicherte Internet-Angebote. "Keine Gesellschaft verfügt über eine größere Rechnerleistung als Google mit seinem Netzwerk gewöhnlicher, aber aufgemotzter PCs", schreiben David Vise und Mark Malseed. Das Riesenheer aus Klein-Computern hält so viele Reserven vor, dass es nicht schlimm ist, wenn immer wieder einige davon den Geist aufgeben. Sie werden einfach umgangen, und andere Rechner übernehmen ihre Arbeit. Deshalb funktioniert Google seit Jahren praktisch reibungslos und stellt seine Nutzer zufrieden - ganz anders, als es die berüchtigten "schweren Ausnahmefehler" des Microsoft-Betriebssystems Windows immer wieder getan haben. Über sie ist selbst Microsoft-Gründer Bill Gates bei Präsentationen schon manches Mal gestolpert."
  12. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.077700496 = product of:
      0.15540099 = sum of:
        0.10325585 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.10325585 = score(doc=1729,freq=2.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.05214514 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.05214514 = score(doc=1729,freq=52.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  13. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.077194184 = product of:
      0.15438837 = sum of:
        0.10325585 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.10325585 = score(doc=195,freq=2.0), product of:
            0.44203112 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062721625 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.051132515 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.051132515 = score(doc=195,freq=50.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  14. Kurzidim, M.: Expeditionen im Sessel : Weltatlanten auf DVD, CD-ROM und im Web (2005) 0.08
    0.07684535 = product of:
      0.1536907 = sum of:
        0.04509464 = weight(_text_:und in 10) [ClassicSimilarity], result of:
          0.04509464 = score(doc=10,freq=56.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.32416478 = fieldWeight in 10, product of:
              7.483315 = tf(freq=56.0), with freq of:
                56.0 = termFreq=56.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=10)
        0.108596064 = weight(_text_:hervor in 10) [ClassicSimilarity], result of:
          0.108596064 = score(doc=10,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.21868595 = fieldWeight in 10, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.01953125 = fieldNorm(doc=10)
      0.5 = coord(2/4)
    
    Content
    "Gedruckte Folianten wie Meyers Großer Weltatlas zeigen Karten von Landesteilen meist im Maßstab 1:1 000 000 oder größer an. Für einige ausgesuchte Großräume wie Berlin, Paris oder Wien gehen die Schwarten stärker ins Detail und lassen sich auf einen Maßstab von 1:300 000 herab. Schnell aber ist bei DIN-A4-Atlanten für den Hausgebrauch das Ende der Fahnenstange erreicht und so manches Örtchen bleibt auf den gröberen Übersichtskarten für immer unbemerkt. Im Unterschied dazu kann sich der Benutzer eines digitalisierten 3D-Atlanten jede Region der WeIt genauer ansehen und muss sich nicht mit den engen Vorgaben der Printwerke zufriedengeben. Der Inhalt der Scheibe entspricht also im Prinzip einem ganzen Kartenschrank. In der Regel erscheint unser blauer Planet zunächst in globaler Gesamtansicht auf dem Bildschirm. Der Anwender dreht per Mauszeiger die Kugel so lange, bis er sein Zielgebiet erreicht hat, um dann mit Hilfe eines Schiebereglers oder einzelner Knöpfe stärker ins Detail zu zoomen. Um zu testen, was die Karten leisten, haben wir auf einem 17-Zoll-Referenzmonitor unter einer Standardauflösung von 1.024 x 768 Pixeln für die jeweils höchste Zoomstufe den Kartenmaßstab berechnet. Heraus kamen recht beeindruckende Werte (siehe Checkliste), die allein aber noch wenig über die Qualität der Karten aussagen. Denn mit der Software einiger Anbieter kann man zoomen, bis der Finger wund ist, ohne mehr Orte oder Flüsse zu Gesicht zu bekommen. Wir überprüften exemplarisch an drei Orten auf drei Kontinenten, ob mit einem kleineren Maßstab auch ein größerer Detailreichtum einhergeht: am Küstenstädtchen Valparaiso in der Nähe von Santiago de Chile, der Tropeninsel Bali und der Rheinmetropole Köln samt Umland.
    Perspektivwechsel Ein reizvoller Vorteil der Scheiben: Ohne die Karte wechseln zu müssen kann man zwischen verschiedenen Ansichten hin- und herschalten. Die klassische topografische Ortskarte zeigt andere Details als eine Satellitenkarte oder die bioklimatische Ansicht mit ihren Hinweisen auf Strauchländer, Sümpfe, Wüsten, Nadel-, Laub- und Mischwälder. Die Auflösung der Ansichten unterscheidet sich jedoch manchmal voneinander, sodass der Wechsel nicht immer problemlos vonstatten geht. Die topografische Deutschlandkarte geht dann auf Mausklick zum Beispiel in die tektonische Ansicht von Gesamteuropa über, weil eine tektonische Deutschlandansicht die Auflösung der digitalisierten Karte überfordert. Die von den Herstellern abgedruckten Optimalmaßstäbe gelten häufig nur für die topografische Landkartenansicht. Eine Entfernungsskala für jeden Zoomfaktor und eine Legende zeigen dem Anwender, wie er Farben und Symbole zu deuten hat. Über den Daumen gepeilt gilt: je umfangreicher die Legende, desto genauer die Information. Der besseren Übersicht halber sollte man Details auch ausblenden können. Auch ein wenig Routenplaner-Funktionalität haben die Hersteller den Karten spendiert. Klickt man mit der Maus auf den Entfernungsmesser und steckt eine Fahrtstrecke ab, zeigt die Software die gemessene Distanz in Kilometern an. Städte, Flüsse, Berge, Seen oder Inseln macht die integrierte Suchfunktion ausfindig. Nach dem Klick auf den gefundenen Namen erscheint der entsprechende Kartenausschnitt auf dem Bildschirm. Mit einem guten 3D-Atlanten kann man auch über die Angabe von Längenund Breitengraden suchen und eigene Orte oder Ansichten eintragen. Eine eigene Ansicht besteht dabei aus einer Kartenansicht in einer bestimmten Auflösung, etwa der tektonische Blick auf den griechischen Peloponnes. Klickt der Benutzer auf den Ansichtsnamen, etwa "Mein Griechenland", erscheint die Halbinsel auf dem Bildschirm. Auf diese Weise lässt es sich bequem und schnell um die ganze WeIt reisen. Auch Vor- und ZurückSchaltflächen wie beim Browser erleichtern die Bedienung. Zum Test traten Meyers Großer Weltatlas (Foliant plus CDROM), National Geographic: Der Grosse 3D-Globus als CD-ROM und höher auflösende DVD, P.M. Der 3D-Weltatlas und Microsofts Encarta Pro 2005 an. Als Testrechner diente uns ein mit 2,13 Gigahertz getakteter Athlon-PC mit 480 MByte Hauptspeicher unter Windows XP Pro (SP2).
    Fazit Die detailreichsten topografischen und politischen Karten des Testfeldes enthält Meyers Großer Weltatlas. Auch die Navigation geht flüssig von der Hand und Extras wie ein vertikales Höhenprofil und ein Höhenlabor bietet nur dieses Produkt. Den Atlas gibt es jedoch nur im Doppelpack: Entweder zusammen mit einem gedruckten Folianten für knapp 100 oder mit einer Multimedia-Enzyklopädie im Gepäck für knapp 40 Euro. Auch mit Patch reichen die topografischen Karten von "National Geographic: Der Grosse 3DGlobus auf DVD" nicht an Meyers Großen heran, aber die Satellitenansicht und die bioklimatischen Karten zeigen mehr Einzelheiten. Die Navigation nervt jedoch, weil schon auf mittleren Zoomstufen die Karten zu ruckeln anfangen. Auf etwa dem gleichen topografischen Niveau bewegt sich der Weltatlas der Encarta Pro 2005. Wer die Microsoft-Enzyklopädie bereits besitzt und auf eine Satellitenansicht verzichten kann, braucht sich keine neue Software zuzulegen. Die Auflösung der geomorphologischen Karte sticht aus dem Testfeld hervor und auch die Navigation geht angenehm leicht von der Hand. Allerdings kann man den Atlas nicht separat kaufen, und 90 Euro sind schon eine Menge Geld. Preislich eignen sich der "National Geographic auf CD-ROM" und "P.M. Der 3D-Weltatlas" sicher als Party-Mitbringsel. Die Auflösung der Karten enttäuscht jedoch und setzt sich zu wenig von der gemeinen Landkarte des gedruckten Hausatlanten ab.
    Footnote
    Weltkarten im Web Die auflösungsstärksten und an Einzelheiten reichsten Karten fanden wir kostenlos im Web. Auf www.expedia.de zoomt man sich über elf Stufen zum Beispiel von der europäischen Gesamtansicht bis in die Kölner Fußgängerzone, was je nach Internet-Zugang allerdings eine Weile dauern kann. Die topografischen Landkarten zeigen Einzelheiten bis zu einem Maßstab von 1:37 500 und gehen dann in Stadtpläne über. Andere Ansichten gibt es nicht, navigiert wird wie bei Microsofts Encarta über acht Pfeiltasten. Der Benutzer kann die Karten im Browser bis zu einer Maximalgröße von 656 x 532 Pixeln aufziehen. Den kostenlosen Zugriff auf alle Länder der Erde offeriert auch www.mapblast.com (World Atlas). Die Reise beginnt wie bei Encarta auf DVD mit der Weltkugel, die man nicht mit der Maus, sondern über vier Navigationsschaltflächen dreht. Drehen und zoomen dauert seine Zeit, aber die Karten sind nur wenig detailärmer als beim DVD-Produkt. Auf Stadtpläne und andere Ansichten muss man jedoch verzichten."
  15. Lingner, M.: Gutenberg 2.0 oder die Neuerfindung des Buches (2009) 0.08
    0.07560325 = product of:
      0.1512065 = sum of:
        0.04261043 = weight(_text_:und in 3869) [ClassicSimilarity], result of:
          0.04261043 = score(doc=3869,freq=50.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.30630693 = fieldWeight in 3869, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3869)
        0.108596064 = weight(_text_:hervor in 3869) [ClassicSimilarity], result of:
          0.108596064 = score(doc=3869,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.21868595 = fieldWeight in 3869, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3869)
      0.5 = coord(2/4)
    
    Abstract
    Das neue Buch ist leicht, handlich, elektronisch und bietet fast unbegrenztes Lesevergnügen. Seine Bibliothek in der Handtasche herumzutragen, klingt ebenso verlockend wie innovativ. Aber wird der E-Book-Reader das Buch wirklich verdrängen?
    Content
    "Freitagabend kurz vor sechs eilen am Münchner Hauptbahnhof Pendler und Wochenendheimfahrer zu den Zügen. Der ICE nach Düsseldorf nimmt unglaublich viele dieser hastenden Reisenden auf. Kein Wunder, dass etliche keinen Sitzplatz mehr ergattern. Richtig kuschelig ist solch eine Reise nicht, doch lässt die geeignete Lektüre die Widrigkeiten dieser Reise recht gut vergessen. Während viele der Mitreisenden eine Zeitschrift, ein Buch oder ein Notebook aufklappen, schlägt die Stunde meines neuen Reisebegleiters. Sonys E-Book-Reader taucht unauffällig aus den Tiefen meiner Handtasche hervor. Hinter der beigefarbenen Schutzhülle vermutet man einen Taschenkalender, ein Notizheft vielleicht, ziemlich sicher aber keine vollständige Bibliothek. Aber genau das verbirgt sich hinter dieser wenig prickelnden Hülle: Ein nicht ganz billiges Lesegerät - nichts für Fashion-Victims wohl aber was für echte Leseratten. Ist das elektronische Lesegerät erst einmal eingeschaltet, trumpft es mit seinen Qualitäten auf: Gestochen scharf erscheint der Text auf dem Bildschirm, weder Flimmern noch Lichtreflexe stören. Das garantiert stundenlanges unbeschwertes Lesen im ICE oder auch im gleißenden Sonnenlicht am Strand oder auf Balkonia. Und praktischerweise lässt sich der E-Book-Reader auch mit Musik bestücken. Bücherwürmer können so ganz in ihre Lektüre eintauchen und dabei ihren Lieblingssongs lauschen. Lärmende Züge und Mitreisende geraten so schnell in Vergessenheit.
    Die Bibliothek in der Handtasche Gleichwohl für eine Zugfahrt von München nach Düsseldorf auch ein Taschenbuch genügt hätte, führen moderne Leseratten mit dem E-Book-Reader gleich ihre ganze Bibliothek in der Jackentasche. Sonys digitales Buch ist etwas schmaler (gerade mal 8 mm breit) und ähnlich schwer wie ein herkömmliches Buch (254 g), doch lassen sich bis zu 160 Bücher darauf speichern. Langen Lesespaß gibt es dank ausdauernder Akkus und Strom sparender Technik; der Hersteller verspricht, dass 6800-mal umgeblättert werden kann, ehe das E-Buch ans Stromnetz muss. Das Blättern wiederum erfolgt per Tastendruck und offenbart aber gleich schon ein Manko: Bis die neue Seite auf dem Bildschirm erscheint, dauert es recht lang. Außerdem erscheint kurzzeitig eine Negativ-Ansicht des Bildschirminhalts, was den Eindruck eines kurzen Aufflackerns erweckt. Auf jeden Fall stört es, wenn die nächste Seite mit einem Aufflackern neu aufgebaut wird. Auch sonst geht der Charme beim Lesen im E-Buch etwas verloren. Weder stimuliert der Duft eines frisch gedruckten Buches, noch erinnert der leicht modrige Geruch eines zu feucht gelagerten Werkes an das Leseerlebnis früherer Tage. Das vertraut, hastige Rascheln bei der spannenden Lektüre ist einem kaum wahrnehmbaren Tastenklicken gewichen. Ganz zu schweigen davon, dass das Bücherregal im Wohnzimmer leer bleibt. Die geheimnisvolle Tinte Aber so schnell werden Druckmaschinen nicht ausgemustert. Seit zehn Jahren treibt das Gespenst des E-Books schon umher. Doch die ersten Exemplare waren unförmig, unpraktisch und die Schrift wegen der flimmernden LCD-Bildschirmen schlecht lesbar. Die neue Generation digitaler Lesegeräte beruht auf sogenanntem elektronischem Papier oder elektronischer Tinte. Die Displays sind nicht nur leicht, dünn und flexibel, sondern auch scharf und kontrastreich. Sie reflektieren Licht so wenig wie Papier und lassen sich ähnlich wie Papier unabhängig vom Betrachterwinkel gut lesen. Die elektrisch geladenen Teilchen der E-Tinte bleiben, wenn sie nach dem Blättern neu angeordnet werden, an Ort und Stelle und ermöglichen einen geringen Stromverbrauch. In Deutschland sind derzeit drei dieser Geräte verfügbar: der Sony EBook-Reader sowie Cybook und BeBook.
    Dass die Revolution des digitalen Buches dennoch auf sich warten lässt, liegt unter anderem am Preis: Ungefähr 300 Euro müssen Bücherwürmer auf den virtuellen Ladentisch von buch.de, Libri, Thalia oder Weltbild legen, um das smarte Lesegerät zu erwerben. Dafür stellt sich der echte Vielleser locker 30 Taschenbücher ins Regal und macht sie auf Wunsch über den Marktplatz eines Online-Buchhändlers wieder zu Geld. Bibliothek aufstocken Für 300 Euro steht aber noch kein einziges Buch in der elektronischen Bibliothek des EBook-Besitzers. Um sie aufzustocken, muss die E-Leseratte recht tief in die Tasche greifen. Auf jeden Fall dann, wenn er bei den ausgewiesenen E-Book-Händlern Lesestoff erwerben möchte. Ein E-Book kostet bei buch.de, Weltbild oder einem der anderen Online-Buchhändler ungefähr so viel wie die gebundene Ausgabe. In den USA, wo Amazon recht erfolgreich E-Bücherfür den Kindle 2 verkauft, ist dies durchaus anders. Selbst Bestseller kosten dort nicht einmal halb so viel wie das gedruckte Buch. Verantwortlich für die hohen Preise für E-Books in deutschen Online-Buchläden sind der höhere Mehrwertsteuersatz - bei Büchern liegt er bei 7 Prozent, während auf E-Books 19 Prozent entfallen und die Buchpreisbindung. Dadurch kosten Bücher, ganz gleich wo sie gekauft werden, gleichviel. Da ein elektronisches Buch im Wesentlichen der gedruckten Variante entspricht, gilt die Buchpreisbindung auch dafür. Dass die Verlage den Preis eines E-Books recht hoch ansetzen, liegt wiederum an der (noch) niedrigen Nachfrage. Sonys Reader ist erst seit März verfügbar; bei Weltbild steht das Cybook erst seit Mai im virtuellen Regal. Amazons Erfolgsprodukt Kindle ist auf dem europäischen Markt noch nicht vertreten. Deutschland ist somit noch Entwicklungsland. Dass die E-Book-Revolution noch auf sich warten lässt, hat möglicherweise auch was mit dem Angebot an elektronisch verfügbaren Büchern zu tun. Bei buch.de gibt es zurzeit 20.000 Werke, während bei Weltbild 30.000 angepriesen werden. Das hört sich nach viel an; bei genauerem Hinsehen wird aber schnell klar, dass nicht für jeden Geschmack genügend Lesefutter zu finden ist. Anders ausgedrückt heißt das, dass von den jährlich 100.000 neu erscheinenden Büchern, lediglich 3.000 als E-Book verfügbar sind. Ein Glück, dass es im Internet alternativen Lesestoff gibt, der allerdings stark auf englischsprachige Lektüre fokusiert ist (s. Short-link am Ende des Artikels). Und was in den USA mit Amazons Kindle 2 längst möglich ist, nämlich Zeitungen und Zeitschriften auf dem Reader zu lesen, ist in Deuschland noch Zukunftsmusik. Im Unterschied zu den hier verfügbaren Readern, lädt Amazons Kindle Lesestoff direkt via Modem aus dem Internet. Bei aktuellen Inhalten wieTageszeitungen ist das unerlässlich.
    Lästig ist auch der Kopierschutz, mit dem E-Bücher versehen sind. Das dafür entwickelte EPUB-Format verhindert, dass E-Books beliebig weitergereicht werden. Ähnlich wie bei DRM-geschützten Songs können E-Books so nur auf autorisierten Rechnern und Lesegeräten gelesen werden. Die elektronische Bibliothek bleibt für weitere Leser geschlossen. Es sei denn, es handelt sich um Lesestoff im frei zugänglichen PDF- oderTXT-Format. Auch der Einkauf eines E-Buchs ist mühsam. Am Anfang einer jeden E-Bibliothek stehen einige Anmeldungen und das Herunterladen von Programmen auf dem Plan. Anmelden muss sich der E-Bücherwurm zunächst bei dem Online-Shop, bei dem er den E-Book-Reader und Lesestoff erwerben will. Möglich ist das zurzeit bei buch.de, Libri, Thalia oder etwa Weltbild. Für die Verwaltung und Anzeige der E-Bücher auf dem PC muss anschließend das kostenlose Programm Adobe Digital Editions heruntergeladen und installiert werden. Damit die Rechteverwaltung kopiergeschützter digitaler Bücher auch funktioniert, muss man sich bei Adobe registrieren, damit der PC als Verwaltungsgerät autorisiert wird. Nach dieser Anmeldeprozedur gibt es einen Downloadlink zum E-Book. Um es auf den heimischen PC zu laden, muss das Verwaltungsprogramm von Adobe geschlossen sein. Wer sich davon nicht abschrecken lässt, viel unterwegs ist und Bücher nicht wegen des damit verbundenen Leseerlebnisses konsumiert, wird seine Freude an E-Books haben. Die Revolution lässt hierzulande noch etwas auf sich warten."
  16. Hosbach, W.: Suche: Nadel : Desktop-Suchmaschinen (2006) 0.07
    0.07473327 = product of:
      0.14946654 = sum of:
        0.040870488 = weight(_text_:und in 5730) [ClassicSimilarity], result of:
          0.040870488 = score(doc=5730,freq=46.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.29379928 = fieldWeight in 5730, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5730)
        0.108596064 = weight(_text_:hervor in 5730) [ClassicSimilarity], result of:
          0.108596064 = score(doc=5730,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.21868595 = fieldWeight in 5730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5730)
      0.5 = coord(2/4)
    
    Content
    "Manche Menschen halten auf ihrer Festplatte penibel Ordnung. Bei anderen sieht es so aus: E-Mails, Text-Dokumente, Bilder und Musik-Stücke wabern in verschiedenen Formaten zwischen den Ordnern und Festplatten hin und her. Da gibt es E-Mails in Outlook, News und Blogs in Thunderbird, Briefe in Word, Berichte in PDF, Adressen in den Kontakten und weitere in einer Excel-Tabelle. Die Musik liegt teilweise auf einer externen Festplatte, andere Stücke befinden sich noch im Tauschordner. Bilder sehen im TWAIN-Ordner dem ewigen Vergessen entgegen. Manche Informationen wurden nie aus den Anhängen der Mails gelöscht, andere verschickt und dann gelöscht. Wenn Ihre Festplatte diesen Zustand erreicht, hilft Ihnen nur noch eine Suchmaschine für den Desktop. Dann können Sie sich das schlechte Gewissen, weil Sie nicht aufgeräumt haben, künftig schenken. Das bekannteste Tool dieser Art ist Google Desktop. Doch unser Test zeigt, dass es einige weitaus bessere gibt, die ebenfalls kostenlos sind. Ein gutes Tool sollte Folgendes können: so viele Formate wie möglich erkennen und durchsuchen; einen Index anlegen, der das Suchen beschleunigt; Ergebnisse ansprechend präsentieren; und merken, wenn etwas Neues hinzukommt. Schon bei den unterstützten Formaten gibt es erhebliche Unterschiede. Thunderbird-Freunde finden in Copernic das beste Tool, da es auch dessen News- und Blogordner indiziert. Für Outlook-Freaks hingegen ist X1 die beste Wahl, denn es findet alle PST-Archive auf der Platte, auch die, die nicht mehr im OutlookOrdnerbaum hängen. Der Hersteller von X1 bietet auch eine Notes-Version, die wir nicht getestet haben.
    Komplett vermisst in allen Tools haben wir die Unterstützung von Access. Ein Sprecher von X1 beteuerte, das Tool verstehe Access bis zur Version 2. Das haben wir nicht nachgeprüft (nur Access 2003). Oft stellten wir Probleme mit Umlauten fest. Blinkx verzichtet komplett auf alles, was nicht Englisch ist. Früher gab es eine deutsche Version, und eine Sprecherin versicherte, es soll bald eine internationale folgen, die auch Deutsch beherrscht. Die vorliegende 3.5 ist hierzulande jedenfalls nicht zu verwenden. Copernic versteht keine Umlaute in HTML-Seiten, da diese als &xyz; vorliegen: K&uuml; statt Küche. Auch hier soll die nächste Version Abhilfe schaffen. In unserem letzten Test hatte Google ähnliche Probleme, das ist aber nicht mehr der Fall. Dafür filtert es HTML-Tags nicht richtig: z.B. Fe<b>tt<lb> findet es nicht als Fett sondern F ett. Der Anwender sollte sich genau klar machen und prüfen, in welchen Formaten seine Daten vorliegen. Das Suchtool sollte alle unterstützen. In den Index Nach der Installation stellt derAnwenderbei den meisten Tools ein, welche Ordner und Mail-Programme es in den Index einbeziehen soll. Dann beginnt der Indexer mit derArbeit, was je nach Größe einige Stunden dauern kann. Der fertige Index ist sozusagen eine Karte der Daten. Erenthält alle suchbaren Begriffe und den zugehörigen Dateinamen, wie ein Register der Festplatte. In diesem findet sich ein Suchbegriff viel schneller, als wenn das Tool jede Datei öffnen müsste. Google macht es sich besonders einfach: Es bricht die Indizierung bei etwa lOOk ab. Das konnten wir bei mehreren Dateiformaten (RTF, DOC, HTML) feststellen. Die erste Hälfte ist suchbar, die zweite nicht. Dieses Verhalten macht im Web sicher Sinn, den die ersten Seiten eines Dokuments geben Aufschluss über den Inhalt, nach dem der Anwender später sucht. Auf seinem Desktop sucht der An wender oft aber anders. Er hat eine ganz bestimmte Info, deren Ort erfin den möchte. Dazu müssen die Dokumente im Indexvollständig abgebildet sein. Google gab keine Stellungnahme dazu ab.
    Die Aktualisierung des Indexes geschieht meist in Echtzeit. Sobald eine Datei oder Mail geöffnet und geändert wird, registriert dies das Tool. Google und Copernic sind hier sehr sicher. Damit die Aktualisierung auch in Echtzeit stattfindet, muss das Tool mit einer gewissen Priorität arbeiten, was man bei den meisten regeln kann. Sonst registriert es zwar die Änderung, bringt sie aber erst in den Index ein, wenn der Rechner im Leerlauf ist. Damit ist es jedoch nicht getan. In regelmäßigen Abständen muss ein Suchtool den gesamten index prüfen, falls sich Änderungen ergeben haben, die es nicht mitbekommen hat (z.B. Kopien über das Netzwerk). Günstig ist es, wenn derAnwender das Intervall selbst einstellen kann. X1 verzichtet komplett auf eine automatische Anpassung. Bei Copernic funktioniert sie nur mit Outlook, nicht hingegen mit Thunderbird. In diesen Fällen sollte der Anwender das Intervall entsprechend kurz hatten. Meist kann man auch mit einem Befehl den Index sofort komplett neu einlesen. Das ist nach größeren Kopierund Löschmaßnahmen sinnvoll. Zur Suche Nach dem Start des Programms öffnet sich das Suchfenster. Am schnellsten kommt der Suchende mit einer inkrementellen Suche zum Ergebnis. Ergibt den ersten Buchstaben ein, und sofort erscheinen Ergebnisse - erst einmal zu viele. Aber nach dem zweiten oder dritten Buchstaben wird die Ergebnisliste oft schon so kurz, dass das Gesuchte dabei ist. Copernic und X1 beherrschen das perfekt. Die Suchtools mit einer benutzerfreundlichen Oberfläche berücksichtigen in der Such- und Ergebnismaske die verschiedenen Dateiformate. Bei der Suche nach einer Mail sucht der Anwender nach einem Absender, fahndet er hingegen nach einem Musikstück, so ist der Interpret wichtig. Das Tool sollte daher die MP3-Metadaten auslesen können. Viele Tools heben noch Favoriten, Verlauf oder Kontakte hervor. Eine Suchmaske, die die einfachen Operatoren nicht beherrschtsei es +/- oderAND/NOT- wird schnell ärgerlich (z.B. Superior Search in der Indexsuche). MSN bietet als einziges Toot die Möglichkeit, das Ende eines Wortes zu finden: *oskana. Bei der Präsentation erwarten wir ein Vorschaufenster, das die Suchbegriffe hervorhebt und gleich zur ersten Fundstelle springt. Auch hierbei ist Google Desktop unterlegen. Denn es zeigt die Ergebnisse in einer Websei te - ä la Google eben. Doch damit gibt es wenige Möglichkeiten, die Suche thematisch einzuschränken und dateispezifische Angaben zu machen. Ferner fehlt eine Vorschau komplett, nur bei E-Mails öffnet sich ein eigenes Fenster. Deutlich überlegen sind da eigenständige Tools. Absolut spitze in der Darstellung ist Copernic. Es gruppiert die Ergebnisse z.B. nach Datum: heute, gestern, vor zwei Wochen, letztes Jahr... X1 und MSN bleiben bei strengen Tabellen, die sich nach allen Spalten sortieren lassen und dafür eine Vielzahl an Informationen beinhalten. MSN verzichtet leider auf die inkrementelte Suche und auf ein Vorschaufenster, das den ersten Suchbegriff anspringt. Ordnung ist eine Frage des Aufräumens. Auf dem Desktop aber reicht es aus, wenn ein Tool diese Ordnung aufrecht hält, zumindest in seinem Index. Dann ist Wiederfinden auch ohne Aufräumen möglich. Schade, dass das auf dem Schreibtisch nicht funktioniert ... oder im Kinderzimmer..."
  17. Wehrand, F.: 21. SISIS-Anwenderforum Berlin-Brandenburg (2006) 0.07
    0.07473327 = product of:
      0.14946654 = sum of:
        0.040870488 = weight(_text_:und in 951) [ClassicSimilarity], result of:
          0.040870488 = score(doc=951,freq=46.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.29379928 = fieldWeight in 951, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=951)
        0.108596064 = weight(_text_:hervor in 951) [ClassicSimilarity], result of:
          0.108596064 = score(doc=951,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.21868595 = fieldWeight in 951, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.01953125 = fieldNorm(doc=951)
      0.5 = coord(2/4)
    
    Abstract
    Am 16. Juni 2006 fand in der Hochschulbibliothek der EH Lausitz, Standort Senftenberg, das 21. SISIS-Anwenderforum Berlin-Brandenburg statt. Der amtierende Vorsitzende, Herr Wehrand (FHVR Berlin), hob hervor, dass seit Gründung des Forums erstmals eine Tagung an der FH Lausitz durchgeführt wird. Die regelmäßigen Treffen von Vertretern der SISIS-Anwenderbibliotheken dienen dem Erfahrungsaustausch mit dem Ziel, die Erfordernisse und Wünsche, die sich aus der praktischen Anwendung des SISIS-Systems ergeben, in die Planungen der Firma OCLC PICA GmbH einzubringen und Vorschläge für weitere Entwicklungen vorzulegen.
    Content
    "Eingangs beschrieb Herr Lohrum (KOBV) die Integration der Fernleihe in den SISIS-InfoGuide. Bei Nulltrefferanzeigen im lokalen System erhält der Nutzer nun die Möglichkeit, über den KOBV eine verbundübergreifende Recherche zu initiieren. Die gewählten Suchterms werden dabei übernommen. Im positiven Ergebnis der Suche ist eine Bestellung über die KOBV-Fernleihe möglich, d.h. InfoGuide generiert einen Link in die Bestellmaske der KOBV-Fernleihe und prüft überdies die Liefermöglichkeiten. Das System der Endnutzerfernleihe in Verbindung mit dem InfoGuide testet derzeit die UB der BTU Cottbus (IKMZ). Darüber hinaus teilte der KOBV-Vertreter mit, dass im 1. Halbjahr 2006 bereits 50.000 Bestellungen über das KOBV-Fernleihsystem abgewickelt wurden. Ein Update der Sigellisten ist vorgesehen. Weitere Bibliotheken, so Herr Lohrum, insbesondere solche, die an der Fernleihe teilnehmen, werden in den KOBV-Index integriert. Auf Nachfrage wird bestätigt, dass der InfoGuide keine Voraussetzung für eine Fernleihteilnahme darstellt. Es folgten zwei Erfahrungsberichte, beide aus der UB der BTU Cottbus (IKMZ). Frau Hitziger erläuterte zunächst die Recherchemöglichkeiten des SISIS-InfoGuide: parallele Suche im webOPAC und in Datenbanken mit gleichzeitiger Verfügbarkeitsrecherche. Anschließend erklärte sie die Target-Arten (hier: Z39.50-Target, SLNP-Target, PICA-Target und HTML-Target) und wies auf Eigenschaften und Probleme der einzelnen Targets hin. Als Hauptproblem stellte sich die fehlende Kompatibilität zwischen den Elektra- und InfoGuide-Targets heraus. Postuliert wurde ein gemeinsames Austauschformat für alle Portale. Die Verfügbarkeit von Z39.50Targets muss gesteigert, die PICA-Targets für V3.5 verbessert sowie Kopiermöglichkeiten für die Erstellung anderer Targets geschaffen werden. Der OCLC PICAVertreter empfahl eine regionale Kooperation der Hochschulbibliotheken. Sodann referierte Herr Alter (UB der BTU Cottbus - IKMZ) zur Schlagwortnormdatei unter SISIS, einem Spezialthema. Er berichtet über Vor- und Nachteile bei der Verwaltung der vollständigen SWD mit zzt. 700.000 Datensätzen. Wesentliche Probleme bereiten die Löschungen von Datensätzen. Diese Aufgabe ist mittlerweile nicht mehr manuell zu bewältigen. Bedauerlicherweise blieben wichtige Fehlermeldungen an OCLC PICA unberücksichtigt. Unter anderem angesprochen wurden falsche Sortierreihenfolgen der Daten und der daraus resultierenden Schwierigkeiten und die fehlerhafte Umsetzung des Regelwerkes bei EVK.
    Nach der Mittagspause stellte der Vorsitzende die Frage nach der Gültigkeit des Namens SISIS-Anwender-Forum Berlin-Brandenburg, da der Firmenname Sisis Informationssysteme GmbH nunmehr in OCLC PICA aufgegangen ist. Herr Wehrand hatte diesbezüglich Kontakt zu anderen SISIS-Anwenderforen und auch zu Vertretern von OCLC PICA aufgenommen. Im Ergebnis konnte festgehalten werden, dass SISIS und SunRise eingetragene Warenzeichen darstellen, sodass eine Umbenennung des Forums nicht notwenig wäre; auch eine Umbenennung in SISISSunRise-Anwenderforum wurde nicht empfohlen. Daher bleibt die Bezeichnung SISIS-Anwenderforum Berlin-Brandenburg nach dem einheitlichen Votum aller Mitglieder erhalten. Gemäß Geschäftsordnung ist immer ein Vertreter der Firma OCLC PICA GmbH anwesend. So stellte auch diesmal Herr Kimmling Produktneuigkeiten vor, beantwortete kritische Fragen und nahm wichtige Hinweise aus dem Plenum auf. Vor allem aber nahm er ausführlich zum Übergang der Sisis Informationssysteme GmbH in die OCLC PICA GmbH Stellung. Er erläuterte die neue Firmenstruktur und bestätigte auf Nachfrage, dass die Fortentwicklung der SISIS-Produktfamilie unvermindert weiterläuft. Die bestehenden Verträge bleiben in ihrer bisherigen Form erhalten. Herr Kimmling präsentierte danach zusätzliche Komponenten, die von verschiedenen SISIS-Produktlinien verwendet werden können. Dazu zeigte er nachstehende Portfolios: SISIS-SunRise (Lokalsystem); FAST-Suchtechnologie; Identity Management (IDM); FiBu-Interface (Schnittstelle zu HIS-Haushaltssystemen, auch SAP); Swets-Schnittstelle (künftig auch EBSCO); Portallösung SISIS-Elektra; RFID-Lösungen. Erweitertes Portfolio: NetLibrary für E-Books; Questionpoint als Auskunftsdienst; CONTENT DM (Verwaltung digitaler Sammlungen); WorldCat, Open WorldCat; Link Resolver 1 Cate. Einen weiteren Erfahrungsbericht lieferte Herr Todt (UB der EUV Frankfurt/Oder). Er referierte über den Erwerbungsclient von SISIS-SunRise V3.0 A30. Er konzentrierte sich dabei auf Z39.50-Probleme, Fragen der Ergonomie und der Fehlerdichte. So wies das Kommunikationsverhalten zwischen Origin und Target erhebliche Instabilitäten auf, unvollständig oder falsch übertragene Datensätze bereiteten bis heute große Probleme. Kritische Anmerkungen erfolgten zur Arbeitsintensität: ein Mehr an Arbeitsschritten und eine erhöhte Kontrolle. Fehler betrafen unter anderem die Normdateien, deren korrektes Zusammenspiel mit der Titeldatei teilweise nicht gegeben war. Fazit des Referenten: Die Vielzahl der Fehler und Defizite zwang zu einem Aufwand, der vergleichbar dem einer Pilotierung war. Erfordere daher, elementare Zusammenhänge vorher zu testen bzw. in einer Art freizugegeben, die ein ersprießliches Arbeiten möglich machen.
    Die UB der BTU Cottbus (IKMZ) wirkte und wirkt als Pilotbibliothek für die SISIS SunRise Version V3.5. Da die Freigabe zum Test erst am 31.05.06 stattfand, konnte Frau Hitziger vorab nur einen kurzen Überblick zu Änderungen und Verbesserungen geben. Herr Wehrand (HB der FHVR Berlin) berichtete von den bundesweiten SISIS-Anwendertreffen und vom Treffen der SISIS-Systemverantwortlichen, die seit dem letzten Berlin-Brandenburger Anwenderforum stattgefunden hatten. Im Anschluss daran erklärte er im Rahmen des TOP Wahl eines/r Vorsitzenden, dass er aus persönlichen Gründen für eine weitere Amtsperiode nicht mehr zur Verfügung stehe. Er schlug als seine Nachfolgerin Frau Dr. Zänker von der HB der FH Brandenburg vor, die einstimmig zur Vorsitzenden des Forums gewählt wurde. Herr Wehrand beglückwünschte die neue Vorsitzende und bedankte sich bei den Mitgliedern für das ihm in den letzten drei Jahren entgegengebrachte Vertrauen."
  18. Ingwersen, P.; Järvelin, K.: ¬The turn : integration of information seeking and retrieval in context (2005) 0.07
    0.07473327 = product of:
      0.14946654 = sum of:
        0.040870488 = weight(_text_:und in 2323) [ClassicSimilarity], result of:
          0.040870488 = score(doc=2323,freq=46.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.29379928 = fieldWeight in 2323, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2323)
        0.108596064 = weight(_text_:hervor in 2323) [ClassicSimilarity], result of:
          0.108596064 = score(doc=2323,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.21868595 = fieldWeight in 2323, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2323)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.2, S.81-83 (O. Oberhauser): "Mit diesem Band haben zwei herausragende Vertreter der europäischen Informationswissenschaft, die Professoren Peter Ingwersen (Kopenhagen) und Kalervo Järvelin (Tampere) ein Werk vorgelegt, das man vielleicht dereinst als ihr opus magnum bezeichnen wird. Mich würde dies nicht überraschen, denn die Autoren unternehmen hier den ambitionierten Versuch, zwei informations wissenschaftliche Forschungstraditionen, die einander bisher in eher geringem Ausmass begegneten, unter einem gesamtheitlichen kognitiven Ansatz zu vereinen - das primär im sozialwissenschaftlichen Bereich verankerte Forschungsgebiet "Information Seeking and Retrieval" (IS&R) und das vorwiegend im Informatikbereich angesiedelte "Information Retrieval" (IR). Dabei geht es ihnen auch darum, den seit etlichen Jahren zwar dominierenden, aber auch als zu individualistisch kritisierten kognitiven Ansatz so zu erweitern, dass technologische, verhaltensbezogene und kooperative Aspekte in kohärenter Weise berücksichtigt werden. Dies geschieht auf folgende Weise in neun Kapiteln: - Zunächst werden die beiden "Lager" - die an Systemen und Laborexperimenten orientierte IR-Tradition und die an Benutzerfragen orientierte IS&R-Fraktion - einander gegenübergestellt und einige zentrale Begriffe geklärt. - Im zweiten Kapitel erfolgt eine ausführliche Darstellung der kognitiven Richtung der Informationswissenschaft, insbesondere hinsichtlich des Informationsbegriffes. - Daran schliesst sich ein Überblick über die bisherige Forschung zu "Information Seeking" (IS) - eine äusserst brauchbare Einführung in die Forschungsfragen und Modelle, die Forschungsmethodik sowie die in diesem Bereich offenen Fragen, z.B. die aufgrund der einseitigen Ausrichtung des Blickwinkels auf den Benutzer mangelnde Betrachtung der Benutzer-System-Interaktion. - In analoger Weise wird im vierten Kapitel die systemorientierte IRForschung in einem konzentrierten Überblick vorgestellt, in dem es sowohl um das "Labormodell" als auch Ansätze wie die Verarbeitung natürlicher Sprache und Expertensysteme geht. Aspekte wie Relevanz, Anfragemodifikation und Performanzmessung werden ebenso angesprochen wie die Methodik - von den ersten Laborexperimenten bis zu TREC und darüber hinaus.
    - Kapitel fünf enthält einen entsprechenden Überblick über die kognitive und benutzerorientierte IR-Tradition. Es zeigt, welche anderen (als nur die labororientierten) IR-Studien durchgeführt werden können, wobei sich die Betrachtung von frühen Modellen (z.B. Taylor) über Belkins ASK-Konzept bis zu Ingwersens Modell der Polyrepräsentation, und von Bates Berrypicking-Ansatz bis zu Vakkaris "taskbased" IR-Modell erstreckt. Auch Web-IR, OKAPI und Diskussionen zum Relevanzbegriff werden hier thematisiert. - Im folgenden Kapitel schlagen die Autoren ein integriertes IS&R Forschungsmodell vor, bei dem die vielfältigen Beziehungen zwischen Informationssuchenden, Systementwicklern, Oberflächen und anderen beteiligten Aspekten berücksichtigt werden. Ihr Ansatz vereint die traditionelle Laborforschung mit verschiedenen benutzerorientierten Traditionen aus IS&R, insbesondere mit den empirischen Ansätzen zu IS und zum interaktiven IR, in einem holistischen kognitiven Modell. - Kapitel sieben untersucht die Implikationen dieses Modells für IS&R, wobei besonders ins Auge fällt, wie komplex die Anfragen von Informationssuchenden im Vergleich mit der relativen Einfachheit der Algorithmen zum Auffinden relevanter Dokumente sind. Die Abbildung der vielfältig variierenden kognitiven Zustände der Anfragesteller im Rahmen der der Systementwicklung ist sicherlich keine triviale Aufgabe. Wie dabei das Problem der Einbeziehung des zentralen Aspektes der Bedeutung gelöst werden kann, sei dahingestellt. - Im achten Kapitel wird der Versuch unternommen, die zuvor diskutierten Punkte in ein IS&R-Forschungsprogramm (Prozesse - Verhalten - Systemfunktionalität - Performanz) umzusetzen, wobei auch einige kritische Anmerkungen zur bisherigen Forschungspraxis getroffen werden. - Das abschliessende neunte Kapitel fasst das Buch kurz zusammen und kann somit auch als Einstieg in dieThematik gelesen werden. Darauffolgen noch ein sehr nützliches Glossar zu allen wichtigen Begriffen, die in dem Buch Verwendung finden, eine Bibliographie und ein Sachregister. Ingwersen und Järvelin haben hier ein sehr anspruchsvolles und dennoch lesbares Buch vorgelegt. Die gebotenen Übersichtskapitel und Diskussionen sind zwar keine Einführung in die Informationswissenschaft, decken aber einen grossen Teil der heute in dieser Disziplin aktuellen und durch laufende Forschungsaktivitäten und Publikationen berührten Teilbereiche ab. Man könnte es auch - vielleicht ein wenig überspitzt - so formulieren: Was hier thematisiert wird, ist eigentlich die moderne Informationswissenschaft. Der Versuch, die beiden Forschungstraditionen zu vereinen, wird diesem Werk sicherlich einen Platz in der Geschichte der Disziplin sichern. Nicht ganz glücklich erscheint der Titel des Buches. "The Turn" soll eine Wende bedeuten, nämlich jene hin zu einer integrierten Sicht von IS und IR. Das geht vermutlich aus dem Untertitel besser hervor, doch dieser erschien den Autoren wohl zu trocken. Schade, denn "The Turn" gibt es z.B. in unserem Verbundkatalog bereits, allerdings mit dem Zusatz "from the Cold War to a new era; the United States and the Soviet Union 1983-1990". Der Verlag, der abgesehen davon ein gediegenes (wenn auch nicht gerade wohlfeiles) Produkt vorgelegt hat, hätte derlei unscharfe Duplizierend besser verhindert. Ungeachtet dessen empfehle ich dieses wichtige Buch ohne Vorbehalt zur Anschaffung; es sollte in keiner grösseren Bibliothek fehlen."
  19. Koch, C.: Bewusstsein : ein neurobiologisches Rätsel (2005) 0.07
    0.07473327 = product of:
      0.14946654 = sum of:
        0.040870488 = weight(_text_:und in 559) [ClassicSimilarity], result of:
          0.040870488 = score(doc=559,freq=46.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.29379928 = fieldWeight in 559, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=559)
        0.108596064 = weight(_text_:hervor in 559) [ClassicSimilarity], result of:
          0.108596064 = score(doc=559,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.21868595 = fieldWeight in 559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.01953125 = fieldNorm(doc=559)
      0.5 = coord(2/4)
    
    Abstract
    Das Bewusstsein ist eines der letzten großen ungelösten Rätsel der Wissenschaft - und sicherlich das größte der Biologie. Wir können den salzigen Geschmack von Kartoffel-Chips spüren, den unverkennbaren Geruch von Hunden wahrnehmen, wenn sie im Regen waren, und kennen das besondere Gefühl, wenn man nur an den Fingerkuppen hängend viele Meter über dem sicheren Boden in einer Felswand klettert. Wie können diese Eindrücke aus den Neuronen und den mit ihnen assoziierten Synapsen und molekularen Prozessen entstehen? Die Frage nach dem Bewusstsein hat die Ideen von Philosophen, Wissenschaftlern, Ingenieuren und den denkenden Menschen generell beflügelt. Was ist Bewusstsein? Wie passt es sich ein in unser Universum? Wozu ist es Nütze? Kommt es nur beim Menschen vor? Warum laufen so viele unserer tagtäglichen Handlungen bewusst ab? Antworten auf diese Fragen werden ein neues Bild kreieren, was es bedeutet, ein Mensch zu sein. In diesem Sachbuch, das aufgrund seines Schreibstils - ein Glossar erläutert die Fachausdrücke - für den interessierten Menschen mit Grips ebenso geeignet ist wie - aufgrund der exakten Literaturhinweise - für den Wissenschaftler oder Studenten, ergründet Christof Koch, einer der international renommiertesten Forscher in der Bewusstseins-Forschung, die der subjektiven Wahrnehmung von Mensch und Tier zugrunde liegende biologische Grundlage. Er erklärt das Gedankengerüst, das er und Francis Crick entwickelt haben, um das alte Leib-Seele-Problem zu verstehen. Das Herzstück dieses Gerüstes ist ein tragender Ansatz, die neuronalen Korrelate des Bewusstseins zu entdecken und zu charakterisieren, feine, flackernde Muster von Gehirnaktivität, die wirklich jeder bewussten Erfahrung zugrunde liegen. Ausgehend von umfangreichen anatomischen, physiologischen, klinischen, psychologischen und philosophischen Ansätzen und Daten umreißt dieses anspruchsvolle Sachbuch die wissenschaftliche Grundlage von Bewusstsein, zeigt die Grenzen unseres Wissens auf und beschreibt Versuche, die durchgeführt werden müssen, um dieses Rätsel erfolgreich abzuschließen.
    Footnote
    Rez. in: Spektrum der Wissenschaft 2006, H.6, S.101-102 (M. Springer): "Wir erforschen den Kosmos, um zu erfahren, woher wir kommen, und die Welt der Elementarteilchen, weil wir erkennen wollen, woraus wir letztlich bestehen. Nun wenden wir uns mit dem in Jahrhunderten gewonnenen Wissen dem nächstliegenden Forschungsobjekt zu: dem eigenen Gehirn. Das ist ein Schwindel erregendes Unternehmen, denn dabei beugt sich gewissermaßen das Gehirn wissbegierig über sich selbst. Geht das? Kann eine ursprünglich zur Analyse der unbelebten, bewusstlosen Natur entwickelte Methode jemals erklären, wie unser Gehirn Bewusstsein produziert? Muss nicht zwischen physikalisch-chemischen Hirnvorgängen und unserem sinnlichen Erleben von Farben, Schmerzen und Emotionen die notorische »Erklärungslücke« der Bewusstseinsforschung klaffen? Es kommt auf den Versuch an. Wer wissen will, was die Naturwissenschaft - konkret die Neurobiologie - bisher über die materielle Basis unseres bewussten Erlebens herausgebracht hat, sollte dieses Buch lesen. Christof Koch sucht empirisch nach den »neuronalen Korrelaten des Bewusstseins« (neuronal correlates of consciousness, NCCs) - dem kleinsten Satz neuronaler Ereignisse, der für eine bestimmte bewusste Wahrnehmung hinreichend ist. Gewiss vermag unser Gehirn noch viel mehr, als bloß Sinneserlebnisse zu vermitteln: Wir können sprechen, Erlebnisse reflektieren, zählen, logisch denken und so weiter. Das vergleichsweise bescheidene Projekt, NCCs für bewusste visuelle Wahrnehmung zu suchen, hat Koch gemeinsam mit Francis Crick, dem Mitentdecker des genetischen Codes, bis zu dessen Tod 2004 verfolgt, weil die beiden darin den einfachsten Zugang zum Rätsel des Bewusstseins sahen. Damit wiederholte Crick eine Vorgehensweise, mit der er schon 1953 erfolgreich war: zur Erforschung des bislang Unvorstellbaren zunächst ein möglichst einfaches Beispiel zu studieren. Bevor Crick zusammen mit James Watson die Struktur der DNA aufdeckte, konnten die Biologen sich nicht vorstellen, wie ein einzelnes Molekül die Information über den Aufbau eines lebenden Organismus enthalten sollte. Analog hofften später Crick und Koch, aus der Struktur der Neuronen und ihren Wechselwirkungen auf die physische Grundlage des Bewusstseins schließen zu können.
    Das ist kein Top-down-, sondern ein Bottom-up-Ansatz. Die Leistung, Bewusstsein hervorzurufen, wird nicht »holistisch« dem Gehirn als Ganzem oder größeren Hirnarealen zugeschrieben, sondern möglichst kleinen Ensembles spezifischer Neuronen, eben den NCCs. Koch hebt beispielsweise die Fähigkeit einzelner Neuronen hervor, selektiv auf ein bekanntes Gesicht anzusprechen. Er bestreitet nicht, dass »höhere« bewusste Leistungen - etwa das Erfassen von Dingkategorien - größere Areale beanspruchen; aber für die empirische Untersuchung der Hirnvorgänge bei einfachen Wahrnehmungen sucht er nach dem neuronalen Minimum. Dafür müssen die Versuchspersonen nicht unbedingt Menschen sein; auch Affen, denen im Experiment unterschiedliche Bilder für beide Augen dargeboten werden, richten ihre Aufmerksamkeit abwechselnd auf das eine oder andere Bild, und entsprechend variiert das - mit modernen Verfahren messbare - neuronale Erregungsmuster ihres Gehirns. So wird Bewusstsein zu einem Gegenstand empirischer Forschung im Tierversuch. Koch - der immer wieder betont, auch im Namen seines verstorbenen Mentors Crick zu schreiben - behauptet nicht, er könne mit den NCCs schon das Rätsel des Bewusstseins insgesamt lösen. Wohl aber beharrt er darauf, dass nur dieser Bottom-up-Ansatz den Weg zu einer Erklärung weist. Er skizziert ein langfristiges Forschungsprogramm, das, so hofft er, die Erklärungslücke zwischen objektiven Hirnprozessen und subjektivem Erleben schließen wird. Bewusstsein ist für Koch eine emergente Eigenschaft komplexer Nerventätigkeit. Darum würde er auch nicht zögern, einem hochkomplex verdrahteten und autonom agierenden Roboter eine Art Bewusstheit zuzugestehen. Das ungeheuer reichhaltige, elegant geschriebene und gut übersetzte Buch wendet sich eigentlich an zwei verschiedene Lesergruppen: Die einen wollen »nur« erfahren, was die modernste Naturwissenschaft über das Bewusstsein zu sagen weiß; die anderen finden ein komplettes Lehrbuch der Neurobiologie vor. Der Autor versucht, es beiden recht zu machen, indem er Details und Quellen in umfangreiche Fußnoten verbannt. Ein neugieriger Leser wird sich förmlich zwingen müssen, über das Kleingedruckte hinwegzulesen, welches das untere Drittel fast jeder Seite ausmacht." Originaltitel: The quest for consciousness -a neurobiological approach.
    Issue
    Mit einem Vorw. von Francis Crick. Aus dem Amerikan. übers. von Monika Niehaus-Osterloh und Jorunn Wissmann.
  20. Urban, M.: ¬Die unheimliche Macht der Bilder : Nicht die Fakten, sondern unsere Vorstellungen von ihnen bewegen die Welt (2002) 0.07
    0.0742841 = product of:
      0.1485682 = sum of:
        0.03997213 = weight(_text_:und in 2021) [ClassicSimilarity], result of:
          0.03997213 = score(doc=2021,freq=44.0), product of:
            0.13911024 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062721625 = queryNorm
            0.2873414 = fieldWeight in 2021, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2021)
        0.108596064 = weight(_text_:hervor in 2021) [ClassicSimilarity], result of:
          0.108596064 = score(doc=2021,freq=2.0), product of:
            0.49658453 = queryWeight, product of:
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.062721625 = queryNorm
            0.21868595 = fieldWeight in 2021, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.917278 = idf(docFreq=43, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2021)
      0.5 = coord(2/4)
    
    Content
    "Vor knapp zweitausend Jahren lebte im römischen Reich der von seinem Besitzer freigelassene Sklave Epiktetos, auch Epiktet genannt. Er hat die Erkenntnis formuliert: "Nicht die Dinge selbst beunruhigen die Menschen, sondern ihre Urteile und Meinungen über sie." Nicht die Fakten sind es, die uns bewegen, sondern die Bilder, die wir uns von ihnen machen. Epiktet erläuterte das: "So ist zum Beispiel der Tod nichts Furchtbares ... sondern nur die Meinung, er sei furchtbar, ist das Furchtbare." Dabei kannte Epiktet noch gar nicht die mittelalterlichen Bilder von der Hölle, die die Kirche ihren Gläubigen ausmalte. In den letzten Jahren haben Neurowissenschaftler gezeigt, warum die Erkenntnis des Epiktet zutrifft. Wir schaffen uns eine Welt im Kopf. Wir können gar nicht anders, als uns ständig Bilder zu machen. Wir sind gezwungen, auch dann, wenn die Informationen, die wir von der Welt haben, unvollständig sind, uns daraus ein Bild zu zeichnen. Das war einst überlebenswichtig: Unsere Ahnen haben schwarze und gelbe Streifen im Gebüsch zum Bild eines Tigers zusammengesetzt und sind vorsichtshalber weggelaufen. Heute versuchen auf dieselbe Weise etwa Astrophysiker, sich aus ein paar Daten ein Bild zu machen, zum Beispiel, wie es in einem Schwarzen Loch aussieht (falls es Schwarze Löcher geben sollte). Wir verwechseln allerdings ständig die Bilder, die wir uns machen - oder die wir übernehmen - und die unser Welt- Bild ausmachen, mit der Wirklichkeit. Die Bilder entfalten dann ein Eigenleben. So verhindert der gute - oder schlechte - Ruf, der jemandem vorauseilt, also das Bild von ihm, eine unvoreingenommene Einstellung. In einer vom Fernsehen bestimmten Gesellschaft ist für eine Politiker-Karriere entscheidend, wie der Mann oder die Frau "rüberkommt", also nicht die Person, sondern ihr Bild in der Öffentlichkeit. Folgerichtig behauptet zum Beispiel der "Medienprofi" Gerhard Schröder, das Beste, was ihm als Bundeskanzler im Wahlkampf passieren könne, sei, dass sein weniger medienbegabter Herausforderer Edmund Stoiber möglichst oft im Fernsehen auftrete. Bereits der Ahne des Homo sapiens, genannt Homo ergaster (früher sprach man von Homo erectus), hatte die Fähigkeit, sich Bilder zu machen, vor anderthalb Millionen Jahren entwickelt. Die Innovation "Faustkeil" verlangte nämlich erstmals, dass der Hersteller sich die Form seines künftigen Werkzeugs vorstellte - also bereits ein Bild davon hatte -, ehe er begann, sie aus dem großen Kiesel herauszuschlagen; im Prinzip nicht anders als Michelangelo, der vor vierhundert Jahren aus einem Marmorbrocken die Skulptur des David schuf. Auch Worte sind Bilder, die Sprache ist eine Abstraktion von Bildern. Die Sprache einer Gemeinschaft bestimmt - auch in ihrer Beschränktheit - deren Weltbild. Wo die Worte fehlen, können auch bestimmte Aspekte der Wirklichkeit nicht abgebildet werden. Und umgekehrt: Bilder sprechen nicht an, wenn sie eine fremde Wirklichkeit abbilden. Als im frühen Mittelalter Missionare den Grönländern das Fegefeuer als postmortale Strafanstalt eindringlich schilderten, waren die Heiden begeistert von der Aussicht, nach dem Tode die kalte Heimat verlassen und in der warmen Hölle sitzen zu dürfen. Die Mathematik ist ebenfalls eine Sprache, die etwas abbildet; eine Sprache, die sich im Laufe der Menschheitsgeschichte entwickelt hat und damit erst bestimmte Aspekte der Wirklichkeit zu sehen erlaubt. Kaiser Karl der Große beherrschte im 9. Jahrhundert ein Reich, das etwa so groß war wie die Europäische Union heute. In der damaligen globalen Wirtschaft gab es zwar längst schon das Geld, aber noch keinen Finanzminister, der mit Hilfe der doppelten Buchführung "Soll" und "Haben" im Kaiserreich hätte identifizieren können.
    Aristoteles hatte andere Bilder. Er verwendete die auch heute bei Physikern gebräuchlichen Begriffe, etwa das Konzept von "Bewegung", in einem viel umfassenderen Sinn als später etwa Galileo Galilei oder Isaac Newton. Kuhn hat aus seinen Erfahrungen mit Aristoteles, den er zunächst so entsetzlich falsch verstanden hatte, grundsätzliche Erkenntnisse gewonnen. "Wissenschaftliche Revolutionen" entstehen, wie Kuhn entdeckte, so, dass sich in ihnen das mit der Sprache als solcher - auch schon der alltäglichen - unabdingbar verbundene Wissen über die Natur verändert. Vor einer solchen Revolution stand jeweils "die Sprache der Entdeckung und Verbreitung der gesuchten neuen Theorien im Wege". Voraussetzung für jeden wissenschaftlichen Fortschritt ist, dass man sich der Begrenztheit durch die Bilderwelt, in der man befangen ist, bewusst wird. Denn sonst kann aus einem wissenschaftlichen (wie jedem anderen) WeltBild Aberglauben werden. Auch dafür ein Beispiel: Im Jahre 1857 begann der Augustinermönch Johann "Gregor" Mendel im Klostergarten von Brünn Erbsen anzupflanzen. Was er nach acht Jahren entdeckt hatte, war buchstäblich weltbewegend, obgleich es zunächst nicht danach aussah: Wenn der Mönch sortenreine großwüchsige und zwergwüchsige Erbsen miteinander kreuzte, brachten sämtliche daraus entstehenden Samen großwüchsige Pflanzen hervor. Die Eigenschaft "Kleinwüchsigkeit" schien verschwunden. Wenn Mendel nun die Bastard-Pflanzen jeweils mit sich selbst befruchtete, war auf einmal alles anders: Ein Viertel der Samen entwickelte sortenreine Zwergpflanzen, ein weiteres Viertel sortenreine großwüchsige Erbsen und die Hälfte waren großwüchsige, nicht sortenreine Erbsenpflanzen. Der Mönch und spätere Abt von Brünn, ein Studienversager und eben mal bloß "Erbsenzähler", hatte entdeckt, was wir heute die Mendel'schen Gesetze der Vererbung nennen. Die Biologen verinnerlichten das Bild aus dem Erbsen-Garten - auf fatale Weise. Auf der internationalen Hygieneausstellung in Dresden anno 1911 wurden analog zu den Bildern von Gregor Mendel Tabellen ganz anderer Art aufgestellt: Die Tochter eines "Verbrechers" hat zwei Söhne, der eine wird ein normaler Pfarrer, der andere ein "Sonderling, tüchtiger Kaufmann, sehr eigensinnig".
    Von dessen fünf Kindern ist ein Mädchen "normal", zwei Jungen sind "geisteskrank", der andere "sehr intelligent, Tyrann, Psychopath, hat es als Kaufmann weit gebracht, an der Grenze des Zuchthauses gestreift, jetzt Dementia senilis". Jener "normale Pfarrer" heiratete eine Frau mit "Defekt des Taktgefühls". Von den acht aus dieser Ehe hervorgehenden Kindern wurde einem Jungen "moralische Idiotie" attestiert.Man könnte heute darüber lachen, wenn es die Genetiker der ersten Hälfte des letzten Jahrhunderts nicht so blutig ernst gemeint hätten. Denn diese Herren Anthropologen oder "Rassenhygieniker", wie sie sich auch nannten, bekamen in der Zeit des Nationalsozialismus die Macht, ihre akademischen Vorstellungen auszuleben, Stichwort Euthanasie. Die menschliche Rasse, so glaubten sie, verhalte sich wie die Erbsen in Mendels Garten. Es machte also keinen Unterschied, ob eine Blüte blau oder rot ist, oder ein Mensch Trinker oder tuberkulosekrank, oder schwarz oder blond. Das Erbsenbild entfaltete ein unrühmliches Eigenleben: Schlechte Anlagen kann und muss man ausrotten, wie die Zwergwüchsigkeit der Erbse, indem man die Träger solcher Anlagen mindestens sterilisiert, sodass sie sich nicht mehr vermehren können. Die Wahnvorstellungen der Medizin in der ersten Hälfte des 20. Jahrhunderts waren zunächst weltweit verbreitet. Spezifisch deutsch war dann das Bild von der "Höherwertigkeit" der weißen Rasse und der "Minderwertigkeit" aller anderen, vor allem aber der Juden. Man sieht, die Erkenntnis des Epiktet ist bis heute aktuell geblieben. Wir machen uns Bilder und inszenieren uns und die Welt ständig neu. Dies zu wissen, ändert nichts daran, denn, wie gesagt, so funktioniert unser Gehirn. Die größten künstlerischen und intellektuellen Leistungen des Menschen beruhen darauf, dass er sich Bilder macht. Aber er ist auch verführbar von den Bildern, die sein Welt-Bild ausmachen, wenn diese sich selbständig machen und zu Ideologien werden. Entmythologisierung und Aufklärung sind deshalb notwendige und niemals endende Prozesse im individuellen und gesellschaftlichen Leben wie in der Wissenschaft."

Authors

Languages

Types

  • a 9351
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications