Search (13208 results, page 5 of 661)

  1. Internet: The editor's choice (2002) 0.09
    0.08558089 = product of:
      0.34232357 = sum of:
        0.34232357 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.34232357 = score(doc=1854,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  2. Hawk, J.: OCLC SiteSearch (1998) 0.08
    0.08472075 = product of:
      0.338883 = sum of:
        0.338883 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
          0.338883 = score(doc=3079,freq=4.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.7708211 = fieldWeight in 3079, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3079)
      0.25 = coord(1/4)
    
    Abstract
    Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
  3. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.08
    0.08472075 = product of:
      0.338883 = sum of:
        0.338883 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
          0.338883 = score(doc=2673,freq=4.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.7708211 = fieldWeight in 2673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2673)
      0.25 = coord(1/4)
    
    Abstract
    The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
  4. Schneider, M.: Ende einer Epoche : Jetzt geht also auch der Brockhaus online. Bedeutet das das Ende der Gutenberg-Galaxis? Oder ist es doch nur das Ende des Bücherschrankwissens? (2008) 0.08
    0.0821725 = product of:
      0.164345 = sum of:
        0.051557295 = weight(_text_:und in 2799) [ClassicSimilarity], result of:
          0.051557295 = score(doc=2799,freq=74.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.37263846 = fieldWeight in 2799, product of:
              8.602325 = tf(freq=74.0), with freq of:
                74.0 = termFreq=74.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2799)
        0.1127877 = weight(_text_:heißen in 2799) [ClassicSimilarity], result of:
          0.1127877 = score(doc=2799,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.22347197 = fieldWeight in 2799, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2799)
      0.5 = coord(2/4)
    
    Content
    "Der Brockhaus-Verlag wird zum 15. 4. 2008 mit einem umfangreichen kostenlosen Lexikonportal online gehen." Diese Nachricht ist eine Zäsur. Mit der Umstellung von den dickleibigen Lexikonsreihen in Leder und Goldschnitt zum Netz schließt sich eine Epoche, die vor ziemlich genau 200 Jahren eröffnet wurde. Im Jahre 1808 erwarb Friedrich Arnold Brockhaus auf der Leipziger Messe das von den Gelehrten Dr. Renatus Löbel und Christian W. Franke 1796 ins Leben gerufene Unternehmen eines "Conversations=Lexikons mit vorzüglicher Rücksicht auf die gegenwärtigen Zeiten". Das Lexikon war unter der Autorschaft dieser beiden Männer im Laufe von 12 Jahren auf sechs kleine Oktavbände von 2763 Seiten angewachsen. Die um zwei Nachtragsbände ergänzte Ausgabe, die Brockhaus in den Jahren 1809-11 veranstaltete, kostete 12 Taler. Die Erfolgsgeschichte des Verlages F. A. Brockhaus im 19. und 20. Jahrhundert bildet ein zentrales Kapitel der deutschen Geschichte überhaupt. Denn F.A. Brockhaus zählte zu den prominenten Liberalen der Vormärzzeit und hatte von der preußischen Regierung sogar 1821 die Zensur seines gesamten Verlagsprogramms zu erdulden. In seinem 1805 zunächst in Amsterdam gegründeten Verlag, der später eine Reihe einflussreicher Zeitschriften und wichtiger Periodika herausbrachte, erschienen die Werke zahlreicher prominenter Autoren Europas. Am Konversations-Lexikon war Richard Wagners Onkel Adolf beteiligt, der 1813 den ersten Artikel über Heinrich von Kleist verfasste. Richard Wagners Schwester Luise heiratete 1828 Friedrich Brockhaus, einen der beiden Erben des Verlagsgründers, und dessen jüngerer Bruder Hermann nahm 1836 Luises Schwester Ottilie zur Frau. Der politische und buchhändlerische Erfolg des Konversationslexikons war ohne Beispiel, so dass binnen weniger Jahre der "Brockhaus" zum Synonym für enzyklopädische Werke aufstieg. Die achte Auflage von 1837-42 wurde bereits 27 000 mal verkauft. Die 14. Auflage von 1892-95, die 17 Bände zählte, wurde noch häufiger erworben. Gegenwärtig liefert der Verlag die 21. Auflage in 30 Bänden aus. Unternehmerisches Geschick und die konsequente Nutzung aller technischen Neuerungen sichern bis heute die Stellung des Verlags. Zugleich bildet sich an dem enormen Wachstum des Umfangs und der Auflagen der Enzyklopädie seit 1809 die Dynamik ab, die die Wissenschaften und die industrielle Revolution in Deutschland auslösten. Das Lexikon trat neben das Klavier als Kulturemblem des deutschen Bürgers.
    Mit dem Bürger verschwinden auch seine Embleme. Wenn nun ab April das Wissen der Brockhaus-Enzyklopädie kostenfrei über werbungfinanzierte Internetseiten abgerufen werden kann, dann setzt sich über diesen Einschnitt hinweg eine Tradition fort, die der Untertitel des ersten Werks zum Programm machte, das dem Publikum "mit vorzüglicher Rücksicht auf die gegenwärtige Zeit" angeboten worden war. Bereits die ersten Bände der prächtigen aktuellen Printausgabe des Brockhaus sind um zwei DVD's ergänzt, die Dialekte, Tierstimmen, Beispiele aus Musik, Literatur, Theater und Film, Augenzeugenberichte, Reden und Dokumente der Zeitgeschichte bietet. Um den Zeitnachteil der Buchredaktion auszugleichen, erhielten die Subskribenten der neusten Ausgabe sogleich Zugang zur Online-Version der gesamten Enzyklopädie. Der Rückblick in die Historie des Brockhaus zwingt dem Büchermenschen unserer Tage die melancholische Einsicht ab, dass hier nicht nur ein verlegerischer Strategiewechsel erfolgt, sondern dass sich eine Epoche schließt. Das Buch als Leitmedium der Aufklärung, des politischen Fortschritts und als Institution eines Wissens, das aus den dicken, mit Leder eingeschlagenen Bänden sowohl Solidität als auch Zeitresistenz sprechen lässt, tritt in den Schatten der neuen Götter, die Schnelligkeit, Aktualität und Mulimedia heißen. Es ist nicht, wie mancher Kommentator vermutet, der Erfolg solcher Online-Unternehmen wie der Wikipedia-Enzyklopädie, die die Verleger zum Handeln zwingt. Die Notwendigkeit geht vielmehr von den beiden dynamischen Kräften aus, denen das Wissen heute unterliegt. Das Internet-Medium allein vermag dem Tempo, der ständigen Erweiterung, Verwandlung und vor allem dem überaus dauernden Obsoletwerden des Wissens eine Form zu geben. Was 1809 "vorzügliche Rücksicht auf die Zeit" hieß, das liest sich erst in unseren Tagen so überaus doppelsinnig. Die Rücksicht auf die Zeit lässt auch den Wissenschaftler oder die Redakteurin am Bildschirm den schnellsten Weg zur benötigten Information wählen. Den raschesten Weg zu den Daten, den die Erzeuger, Verwalter und Verbreiter des Wissens einschlagen, erschließt der Tastenhieb. Damit nicht genug: Die erste Quelle, die die Google-Anfrage anbietet, eröffnet für das maßlos hybrid werdende Wissen eigentlich auch nur die Plattform, um auf den berühmten Hypertextpfaden weitere Informationen abzurufen: Bilder, Tondokumente, Filme und zusätzliche historische oder wissenschaftliche Literatur. Auf eine schwer vorstellbare Weise nimmt das Wissen, das sich einst in der Tiefe der Lederbände zur Ruhe und zur dauerhaften Gültigkeit niedergelegt hatte, heute über die online-Abrufbarkeit die Qualität einer dauernden virtuellen Präsenz ein.
    Die Bücher in unseren Bibliotheken warten nicht mehr auf den Leser und auf seine Muße. Sie warten auf einen Nutzer. Und steigt ein Buch wirklich zur Nützlichkeit auf, dann verwandeln es Scanner und Rechner rasch in digitalisierte Päckchen, die dann ihren Weg durch das Netz nehmen und auf einem fernen Bildschirm als flirrende Bytes aus dem Schlaf geholt werden. So herrscht das Buch längst nicht mehr als Souverän der Speicherung und Übertragung. Es muss sich diese königliche Funktion mit vielen anderen Medien und Nachrichtenwegen teilen, die seine Autorität unheilbar geschwächt haben. Das Buch ist eine Quelle, das Internetmedium ist der Fluss. Goethes Heraklit-Zitat: "Ach, und in demselben Fluss schwimmst Du nicht zum zweitenmal", besagt heute, dass im Datenfluss niemand mehr ein zweites Mal schwimmt. Die Hybridität und Mulimedialität, die unablässige Formänderung unseres Wissens, ist das technische und kulturelle Ereignis, auf das die Brockhaus-Manager antworten. Das neue Netz-Supermedium vermag einfach keine Unterscheidung mehr zu machen, ob es altes oder neues, wissenschaftliches oder bildliches, imaginäres oder gesichertes, deutsches oder chinesisches Wissens überträgt. Das elektronische Gehirn, das so unfehlbar in Bits rechnet, ist dumm, und dafür sind wir ihm dankbar.
    Wer etwas wissen will, muss sich beeilen. Da immer mehr Leute forschen, gewinnen immer weniger von ihnen neue Erkenntnisse. Wissen ist nicht mehr Macht, sondern Unruhe. Das Heureka ist heute leichter verderblich als Fisch. Und daher kommt das Wissen jetzt nur noch selten aus Muße, aus Skepsis und skrupelhaft geprüfter Gewissheit, sondern aus der Unruhe, aus der Angst des Zuspät. Kaum ist die Vermutung erwiesen, kaum ist der Gedanke in Worte gefasst, schon jagt er über Zeitschriften, Websites und rasch zusammengestellte Skripts um den Globus. In Büchern und auf Regalen gelangen diese Hast und diese Nervosität zwar immer wieder zur Ruhe, aber eben darum kommt das Buch auch nicht mehr als Bote des Neuen, sondern zwischen seinen Deckeln versammelt sich alles, was langsam ins Überholte versinkt. Wenn auch die Bücher als Quelle überleben, so gehen sie einem ähnlichen Schicksal entgegen wie das Pariser Urmeter. Sie geben das Maß der Masse. Der Büchermensch in uns benötigt Trost. Und er wird ihm werden. Denn der Schritt aus dem Buchzeitalter der seriösen Wissensspeicherung heraus, den der Brockhaus-Verlag vollzieht, eröffnet die Chance, dass sich auch im neuen Medium nicht nur eine ständig aktuelle, reich verzweigte, auf Seiten in aller Welt verweisende Enzyklopädie anbietet, sondern dass auch wieder Sicherheit und Zuverlässigkeit in den Datenstrom einkehrt. Die Wikipedia-Anarchie hat endlich ausgedient, und die alten deutschen Büchertugenden der Verlässlichkeit und Genauigkeit sollten ihren Segen auch im Hypertextgewirr des Netzes ausbreiten. Lebt wohl ihr geliebten Schweinslederschinken! Adieu, du herrlicher Staub auf aller Erkenntnis!"
  5. Moll, S.: ¬Ein Tag ohne Weltwissen : In den USA wurden als Protest gegen ein geplantes Gesetz Recherche-Seiten lahmgelegt (2012) 0.08
    0.08205682 = product of:
      0.16411364 = sum of:
        0.028768385 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.028768385 = score(doc=883,freq=16.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.20792803 = fieldWeight in 883, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=883)
        0.13534525 = weight(_text_:heißen in 883) [ClassicSimilarity], result of:
          0.13534525 = score(doc=883,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.26816636 = fieldWeight in 883, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0234375 = fieldNorm(doc=883)
      0.5 = coord(2/4)
    
    Abstract
    Als Protest gegen ein geplantes Gesetz, streiken in den USA Websites wie die Wikipedia für einen Tag - und zeigen den Internetnutzern, welche Auswirkungen die Gesetze haben könnten.
    Content
    "Dara Kiese ist in der heißen Phase ihrer Dissertation, der Abgabetermin sitzt ihr im Nacken. Deshalb hat die Kunsthistorikerin auch laut geflucht, als sie in der Nacht von Dienstag auf Mittwoch ab Mitternacht auf einigen Internetseiten nur noch Fehlermeldungen bekam. Es waren Internetseiten, die sie zuvor regelmäßig besuchte. Sie wollte während des Schreibens Bilder vergleichen. Doch plötzlich ging nichts mehr. "Das wirft mich wahrscheinlich um mindestens einen ganzen Tag zurück", sagt Dara Kiese und ist richtig sauer. Diese Reaktion ist wahrscheinlich genau das, was sich die Internetanbieter in den USA am Mittwoch gewünscht haben. Recherchehilfen von Reddit über Boing Boing bis hin zu Wikipedia schlossen für 24 Stunden ihre Pforten, um Verbrauchern klar zu machen, was sie verlieren, wenn der Kongress in Washington seine umstritten Urheberrechtsgesetze SOPA (Stop Online Piracy Act) und PiPa (Protect IP Act) verabschiedet. Unter SOPA könnten die Inhaber von Urheberrechten sich beim Gesetzgeber beschweren, wenn Webseiten ohne Erlaubnis von ihnen generierte Inhalte benutzen. Der Staat hätte dann das Recht, diese Seiten sofort vom Netz zu nehmen.
    Website-Betreiber fürchten das Schlimmste Die Betreiber verschiedenster Internetseiten befürchten nun, dass das für sie in einer Katastrophe enden könnte. "Wir haben mehr als ein Jahrzehnt damit zugebracht, die größte Enzyklopädie in der Geschichte der Menschheit aufzubauen", schrieb Wikipedia auf seiner ansonsten geschwärzten Homepage. "Jetzt zieht der Kongress ein Gesetz in Erwägung, welches das freie und offene Internet tödlich bedroht." Der Chefredakteur von Boing Boing, Rob Beschizza, war sich ebenfalls sicher, dass das neue Gesetz das Aus für seine Seite bedeuten würde. "Das Problem ist, dass die Maßnahmen so weitreichend wären, dass wir in leichtfertigen Klagen ersticken würden." Die Gegner der Gesetze behaupten, es würde das Verfassungsrecht auf freie Meinungsäußerung beschränken. "Das ist ein ganz klarer Fall der Verletzung des ersten Verfassungszusatzes", sagte Ben Huh, Gründer des erfolgreichen Portals Cheezburger, das ebenfalls am Mittwoch vom Netz ging. Das Urheberrecht der Inhaltsgeneratoren, meinte Huh, sei bereits ausreichend geschützt.
    "Internetgemeinde verteidigt das Copyright" Die Praxis von Seiten wie seiner oder von Wikipedia oder YouTube bezeichnete er als "fair use", ein legaler Begriff, unter dem beispielsweise das Recht zu zitieren geschützt ist. Wikipedia-Chef Jimmy Wales stimmte Huh zu, dass das Urheberrecht im Internet bereits ausreichend geschützt sei. "Die Internetgemeinde verteidigt das Copyright leidenschaftlich. Wir haben sehr strenge Regeln und Praktiken. Die andere Seite wird es so darstellen, als würde jeder, der sich gegen dieses Gesetz wendet, Piraterie befürworten. Das ist einfach nicht wahr." Das Problem sei, dass das Gesetz missachte, wie das Internet funktioniere und viel zu tief eingreift. "Wir müssten beispielsweise jeden Link zu einer Seite löschen, die möglicherweise geschütztes Material verwendet", sagte Wales. "Das wäre völlig unmöglich." In der Zwischenzeit rüstete sich Amerika für einen Tag ohne seine beliebtesten Recherchemittel. Allerorten waren Ratgeber zu finden, wie man ohne Wikipedia überleben kann.
    Ausnahmsweise die Originalquelle anschauen Die Washington Post riet zu so offensichtlichen Dingen, wie bei einer Suche mit Google einfach am Link zu Wikipedia vorbei zu scrollen und sich ausnahmsweise die Originalquellen anzuschauen, die ansonsten in Wikipedia zusammengefasst sind. Ein anderer Vorschlag war, ins Regal zu greifen und eine echte Enzyklopädie hervorzuholen. Das hätte sogar einen gewissen Kult-Faktor: "Das ist so ähnlich wie Vinyl zu hören." Die Medienseite mediate, die beim Boykott nicht mitmachte, verwies auf andere Nachschlagewerke im Internet, die bislang weniger populär waren, wie etwa everything2 oder Scholarpedia. Der Geheimtipp des Tages war jedoch ein kostenloses 30-Tage Probeabo der Encyclopedia Brittanica.
  6. Dath, D.: Zufälligerweise notwendig wahr : Liebesgeschichte zwischen Hirn und Computer: Der Mathematiker Gregory Chaitin kennt die Grenzen des Berechenbaren (2002) 0.08
    0.08110533 = product of:
      0.16221066 = sum of:
        0.049422953 = weight(_text_:und in 1186) [ClassicSimilarity], result of:
          0.049422953 = score(doc=1186,freq=68.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.3572122 = fieldWeight in 1186, product of:
              8.246211 = tf(freq=68.0), with freq of:
                68.0 = termFreq=68.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1186)
        0.1127877 = weight(_text_:heißen in 1186) [ClassicSimilarity], result of:
          0.1127877 = score(doc=1186,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.22347197 = fieldWeight in 1186, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1186)
      0.5 = coord(2/4)
    
    Content
    "Gemessen am strengen Maßstab von Paul Valérys Brief über. "Leonardo und die Philosophen'., demzufolge man vom Ruhm eines wirklich bedeutenden Menschen verlangen können muß, daß es möglich sei, "an sein Verdienst in ein paar Worten zu erinnern", ist der Mathematiker Gregory Chaitin ein unter Kollegen zu Recht vielgerühmter Mann. Denn man kann in ein paar Worten sagen, daß Chaitin sich lebenslänglich damit beschäftigt hat, ob man etwas in ein paar Worten sagen kann oder eben nicht. Der vorangegangene Satz ist nur sehr vage selbstbezüglich und daher erheblich harmloser als die Sorte Paradoxa, aus denen Chaitin wie sein großer Vorgänger, der metamathematische Logiker Kurt Gödel, auf beunruhigende Eigenschaften der Grundlagen der Mathematik geschlossen hat. Gödels "Unvollständigkeitssätze" aus dem Jahre 1931 zeigten auf der Basis von formalen Kalkülen, daß ein arithmetisches Axiomensystem und darüberhinaus jede logische Formalsprache niemals zugleich vollständig und widerspruchsfrei sein kann, man also entweder nicht alle in einer basalen Logiksprache formulierbaren Sätze beweisen kann oder auch falsche. Die intuitiv durch "Heraustreten" aus dem Aussagenkontext erfaßbare "Absurdität" von Sätzen wie "Diese Aussage ist nicht richtig", war Gödels Schlüsseleinsicht. Gregory Chaitins während der sechziger Jahre im Teenageralter entwickelte "algorithmische Informationstheorie" bediente sich ganz ähnlicher logischer Stolpersteine, die bei ihm allerdings eher dem von Bertrand Russel bekanntgemachten "Berry-Paradox" nachgebildet waren, welches "die erste positive ganze Zahl, die dieser Satz nicht nennen kann", betrifft. Chaitin, den Probleme des scheinbar oder wirklich Zufälligen (etwa bei der Primzahlverteilung) und des Nichtberechenbaren seit seiner ersten Berührung mit der 'mathematischen Literatur beschäftigt haben, fragte sich früh, ob der wahre Grund für die Gödelsche Unvollständigkeit nicht eine prinzipiellere Sorte Unvorhersagbarkeit des Beweisbaren sein mochte. Seine Grundidee war die Vorstellung von Beweisverfahren als unterschiedlich komplexen Algorithmen, also computerprogrammartigen Schritt-für-Schritt-Rechenanweisungen, und weiter der Gedanke, man könne "Zufälligkeit" einfach als "Irreduzibilität" definieren: Zufällig (nicht weiter erklärbar) ist jedes Ding, das nicht auf Beschreibungen reduziert werden kann, die weniger komplex sind als es selbst. So machte sich Chaitin daran, das Berry-Paradox zu formalisieren und befaßte sich mit "der kleinsten Zahl, die nicht von einem Programm der Komplexität N berechnet werden kann." Neben einer komplizierten Liebesgeschichte zwischen Chaitins Hirn und Computerprogrammen der LISP-Familie (eine besondere Variante listenverwaltender Programmiersprachen) kam dabei vor allem die beunruhigende, vom Computerpionier Alan Turing bereits in rudimentärer Form vorgezeichnete Wahrheit heraus,
    daß kein Programm der Komplexität N jemals eine Zahl berechnen kann, die komplexer ist als es selbst, und es außerdem keine Möglichkeit gibt, sich zu versichern, daß ein gegebenes Programm das beste (konziseste, oder wie Chaitin sagt: eleganteste) ist, das ein bestimmtes Arrangement von Ausgabedaten produziert. Manche Wahrheiten, heißt das, sind aus so vielen verschiedenen denkbaren Gründen wahr, daß man ihre Wahrheit im Grunde "zufällig" nennen kann - ein herber Schlag für alle, die Wissenschaft mit der Verwaltung von Unbezweifelbarkeiten verwechseln. In seinem neuen Buch "Conversations with a Mathematician", das kurzweilige Vorträge, Fernsehinterviews, autobiographische Skizzen und polemische Bonmots aus den letzten zwölf Jahren enthält, macht Chaitin seine Forschungen genau zu einem Zeitpunkt transparent, da sich die zuerst vom Physiker John Archibald Wheeler geäußerte Forderung, alle exakten Naturwissenschaften stünden vor der großen "Hausaufgabe", schrittweise "informatisch zu werden", an den verschiedensten Fronten von der Computer- über die Kognitions- bis zur physikalischen Forschung konkretisiert. Das Verlassen der überkommenen Begrifflichkeiten von Materie, Energie, Feld und so weiter, zugunsten von Theorien, in denen "Informationsfluß und -verarbeitung die Struktur des Universums bestimmt" (David Deutsch), wird nicht bruchlos vonstatten gehen und neben großen Fortschritten des Simulations- und Vorhersagevermögens auch ein paar metawissenschaftliche, epistemologische oder gar metaphysische Fehltritte mit sich bringen. Im Ganzen aber erinnert der Prozeß an eine andere, die messenden und vorhersagenden Disziplinen scheinbar nicht berührende, weil mathematikimmanente Angelegenheit, die erst rund hundert Jahre zurückliegt. Chaitin weiß natürlich von ihr und erinnert in seinen hier versammelten Stellungnahmen immer wie der an den berühmten "Hausaufgabenvortrag" des großen deutschen Mathematikers David Hilbert vor dem Zweiten Internationälen Mathematikerkongreß in Paris im Jahre 1900. Hilbert hatte damals mit im Nachhinein nahezu unfaßbarer Treffsicherheit und atemberaubende Weitblick dreiundzwanzig Probleme benannt, die das mathematische Denken im darauffolgenden Jahrhundert wesentlich beschäftigen sollten; die Suche nach Widerspruchsfreiheit der Arithmetik, deren Vergeblichkeit Gödel 1931 aufwies, war dabei nur eines, nämlich das berühmte "zweite Hilbertsche Problem". Chaitin sieht im Hilbertschen Programm formaler axiomatischer Systeme im Nachhinein einen Fehlschlag, der den Weg zu erstaunlichen Erfolgen wies: Daß man herausfand, daß das, was Hilbert wollte, nicht möglich ist, war zumindest für die Entwicklung der Computer keineswegs ein Hemmnis, weil der Weg zu diesem Nachweis und alles weitere, das von dort aus bis zu Chaitins algorithmischer Informationstheorie und anderen Komplexitätstheorien der Gegenwart führte, von ganz besonderen Gewächsen geschmückt war und ist: "Formalisierung ist der größte Erfolg des Jahrhunderts. Wenn man sich die Arbeit der Logiker am Beginn des zwanzigsten Jahrhunderts anschaut, sieht man, daß sie zwar über formale Sprachen als Mittel des Denkens und Schlußfolgerns sprachen, um die Mathematik und die symbolische Logik voranzubringen, dabei aber ganz nebenbei die ersten Formen von Programmiersprachen erfanden.
    Und das sind die Formalismen, mit denen wir heute leben und arbeiten!" Hilberts Verlangen nach "schärferen Werkzeugen" ist also in Chaitins Sicht, die den Weg zum Ziel macht und Hilbert damit gleichsam auf den Kopf (oder die Füße?) stellt, letztlich gestillt worden, auch wenn Hilbert nicht wissen konnte, daß diese Werkzeuge "Computer" heißen würden. Vielleicht haben Physiker wie Max Tegmark recht, die glauben, das jede Struktur der Mathematik auch eine physikalische Entsprechung hat und wir Menschen eine Unterstruktur dieses mathematischen Multiversums bewohnen, die komplex genug ist, selbsterkennende Substrukturen zu enthalten, also solche, die subjektiv das Empfinden haben, in einer "physikalisch realen" Welt zu leben. Was es bedeutet, diese Komplexitätsfrage zu formalisieren und der mathematisch-physikalischen Realität des computing von heute und morgen anzupassen, ist eine Frage, die sich derzeit nicht nur Chaitin stellt. Im Literaturverzeichnis der "Conversations" an letzter Stelle nennt Chaitin ein in diesen Tagen erscheinendes Buch des Programmierers und Pioniers sogenannter zellulärer Automaten, Stephen Wolfram, dessen Titel "eine neue Art Wissenschaft" verheißt und an dem Wolfram zwanzig Jahre lang gearbeitet hat. Chaitin bemerkt in für ihn charakteristisch listigem Tonfall, es gebe zwischen Wolfram und ihm zwar zahlreiche Berührungspunkte, aber auch bedeutende Meinungsverschiedenheiten. Nicht ohne leise Skepsis schreibt er, Wolframs Buch verzichte zwar auf Gleichungen, enthalte aber "viele, viele Illustrationen". Daß Chaitin sein sehr unterhaltsames, einem Laienpublikum absolut zugängliches "Conversations"-Buch mit dieser ironischen Note abschließt, die dennoch bekräftigt, daß außer ihm auch andere das Gebot der Stunde erkannt haben, ist eine im Wissenschaftsalltag ungewöhnliche,schriftstellerische Geste- und verrät einmal mehr, daß, wer dem gewundenen Pfad des Informationsflusses zu folgen gelernt hat, nicht nur von Stringenz, sondern auch von Finten und Tricks der Kommunikation etwas versteht."
  7. Sixtus, M.: Ohne Filter : Weblogs entwickeln sich zu einem Massenphänomen, doch die neue Internet-Publizistik ruft auch Kritiker auf den Plan (2005) 0.08
    0.080367506 = product of:
      0.16073501 = sum of:
        0.04794731 = weight(_text_:und in 4343) [ClassicSimilarity], result of:
          0.04794731 = score(doc=4343,freq=64.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.34654674 = fieldWeight in 4343, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4343)
        0.1127877 = weight(_text_:heißen in 4343) [ClassicSimilarity], result of:
          0.1127877 = score(doc=4343,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.22347197 = fieldWeight in 4343, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4343)
      0.5 = coord(2/4)
    
    Abstract
    Ein neues Kommunikationsinstrument breitet sich im Internet aus, das Weblog: eine Plattform für Meinungs- und Informationsaustausch, deren Korrektiv die Gemeinde der Internet-Nutzer ist. Kritiker verunglimpfen Blogs als "Gerüchteschleudern", Befürworter feiern die kostengünstige Technik als revolutionär - Blogger schaffen eine neue Form der Öffentlichkeit und sie schauen Politikern und Journalisten auf die Finger. Weblogs sind Online-Tagebücher, die regelmäßig von ihren Autoren aktualisiert werden und dem Leser die Möglichkeit geben, den Einträgen eigene Kommentare beizufügen. Alle "Blogs" verweisen auf andere Internetseiten oder "Blogs". In Deutschland gibt es 36.000 Weblogs, in den USA sind es bereits 7,8 Millionen.
    Content
    ""Was ist ein Blog, wollte Günther Jauch neulich in seinem TV-Quiz "Wer wird Millionär" wissen. Immerhin: 16 000 Euro hätte die Beantwortung eingebracht. Doch auch der 50:50-Joker, der die möglichen Antworten auf "Tagebuch im Internet" und "Feind-, liehe Übernahme" reduzierte, half der jungen Kandidatin nicht weiter -,sie musste passen. Schämen muss sie sich deswegen nicht: Nach einer Studie . des Marktforschungsunternehmens Berlecon Research können 63 Prozent der deutschen Internet-Nutzer mit dem Begriff "Blog" nichts anfangen. Anders in den USA: Dort kürte der renommierte Wörterbuch-Verlag Merriam Webster diese Vokabel im vergangenen Dezember zum Wort des Jahres. 32 Millionen US-Amerikaner lesen regelmäßig Blogs, fand eine Studie des PEW Internet and American Life Project heraus: Doch von einer einheitlichen Einschätzung dieses Massenphänomens ist man jenseits des Atlantiks noch weit entfernt. "Revolution" und "Demokratisierung der Medienwelt" jubeln die einen, "Gerüchteschleudern" und "Lauffeuerklatsch" zetern die anderen. Klar ist: Irgendetwas passiert gerade. Aber was? Der Begriff Blog ist die Kurzform von Weblog, einem Kunstwort aus Web und Log(buch). Per Definition ist eine Weblog eine Internetseite, die regelmäßig aktualisiert wird und deren neuester Beitrag immer an erster Stelle steht. Revolutionär klingt das erst mal nicht. Schaut min, sich ein paar typische Weblogs an, hat man selten das Gefühl, etwas Spektakuläres zu entdecken. Ein wenig Text, ein paar Bilder, eine Hand voll Links: Deshalb die ganze Aufregung? Umwälzende Neuerungen kommen häufig ohne Trommelwirbel und Fanfaren auf die Welt. Ein Erfolgsgeheimnis des Blog-Booms findet sich unterhalb der schlichten Oberfläche. Kleine serverseitige Systeme sorgen dafür, dass es ungefähr so schwierig ist ein Weblog zuführen wie eine E-Mail zu verschicken. Diese Bonsai-Versionen der großen Content-Management-Systeme, welche im Hintergrund professioneller OnlineMagazine werkeln, befreien die Blogger von den technischen Mühen, die das Publizieren im Web bislang mit sich brachte.
    Für jedermann erschwinglich Bei den meisten Weblog-Diensten dauert es nur wenige Minuten, ein neues Blog zu eröffnen. Je nach Ausstattung zahlt man dafür gar nichts 'oder eine geringe monatliche Gebühr. Wer es individueller mag, kann auf Dutzende unterschiedliche Blog-Software in allen Leistungs- und Preisldassen zugreifen. Eintrittskarten in den vormals exklusiven Club der Publizisten sind somit schlagartig für jedermann erschwinglich. Der Medienberater Terry Heaton sagt: "WeblogTechnik senkt die Einstiegshürde in die Medienwelt signifikant. Früher benötigte man enormes Kapital, um mitspielen zu dürfen, heute reicht ein billiger Computer." Dieser Aspekt ist es nicht allein, der das wirklich Neue ausmacht an der Blogosphäre, wie man die Gesamtheit aller Weblogs nennt Die Suchmaschine "Technorati" verzeichnet derzeit 7,8 Millionen Blogs - und zählt darin 937 Millionen Hyperlinks. Zum Vergleich: "Blogstats.de" zählte voriges Jahr 36.000 deutschsprachige Weblogs, die 1,2 Millionen Verweise enthalten. Permanent "verlinken" Blogger amüsante Fundstücke und Artikel mit politischen Kommentaren, sie verweisen auf Filmkritiken und wissenschaftliche Analysen - und natürlich setzen sie besonders oft und gerne Links auf andere Blogs. Diese enge Vernetzung ist es, welche die Blogwelt so dynamisch und explosiv macht; Informationen verbreiten sich in ihr virusartig. Selbst wenn einzelne Weblogs nur über eine Hand voll regelmäßige Leser verfügen, Tausende von Blogs können schnell einen enormen Aufmerksamkeitsstrom erzeugen - und auf die klassischen Medien einwirken. In der heißen Phase des US-Präsidentschaftswahlkampfes präsentierte CBS-Anchorman Dan Rather in der Sendung "60 Minutes" Dokumente, die belegen sollten, dass George W. Bush seinen Militärdienst geschwänzt hatte. Nur neun Minuten später, noch während die Sendung lief, tauchten in Blogs erste Zweifel an der Echtheit dieser Papiere au£ Die Blogger betätigten sich daraufhin als Amateurdetektive: Einer kannte einen Spezialisten für alte Schreibmaschinen, ein anderer war Experte für Militärformulare, ein dritter machte vor, wie schnell man solche Dokumente mit Hilfe des Schreibprogramms Word nachbauen kann. Rather konnte diese Vorwürfe nie entkräften und nahm schließlich seinen Hut.
    Nicht nur an Politikern und Journalisten erproben Blogger ihre Kräfte: In einem Spezialforum für Biker publizierte ein Nutzer aus San Francisco ein kurzes Video, das demonstrierte, wie leicht man die teuren Bügelschlösser, der Marke "Kryptonite" mit Hilfe eines schlichten Kugelschreibers überlisten kann. Wochenlang verbreitete sich dieser Skandal in der Blogosphäre, bis auch die New York Times darüber berichtete und die Hersteller in Erklärungsnot brachte. In allen diesen Fällen reagierten die Beschuldigten zunächst hilflos auf die Vorwürfe. Auf E-Mail-Anfragen der Blogger reagierten sie meist gar nicht. Solcherlei Arroganz heizt die' Diskussionstemperatur noch an. "Kryptonite schien nicht recht erfasst zu haben, dass sie nicht nur ein kleines Problem, sondern eine handfeste Krise hatten", resümiert der Internet-Berater Martin Roell. Er prophezeit: "Künftig werden immer mehr Produktprobleme online entdeckt werden und Kommunikationskrisen online starten: Nur wenige Unternehmen sind darauf vorbereitet." Laien schaffen Gegenöffentlichkeit Nicht alle sind begeistert von der' neuen Je-dermann-Publizistik. "Ist also jeder Laie berufen, journalistisch eine Art Gegenöffentlichkeit zu schaffen?", fragte kürzlich der Medienjournalist Holger Wenk im Gewerkschaftsmagazin M, um sich kurz darauf selbst die Antwort zu geben: "Mitnichten!" Das Medienmagazin Insight will die Ursache des "Problems" im "Senfstau" entdeckt haben: "Jahrzehntelang unentdeckt und allenfalls vermutet, zeigt sich in Deutschland mehr und mehr die Existenz einer gewaltigen angestauten Menge nicht dazugegebenen Senfes." Auch in den USA beziehen Blogger Prügel von professionellen Publizisten. Beispielsweise von Jonathan Klein: Ein typischer Blogger sei "ein Typ, der in seinem Pyjama im Wohnzimmer sitzt und schreibt`; verkündet der einstige Fernsehjournalist seine Vorstellung über den prototypischen Weblog-Autoren und dessen bevorzugte Kleidung. Der Pyjama-Vorwurf ist seitdem zu einem geflügelten Wort in der Blogosphäre geworden. Der Journalist und Blogger Jon Carroll schrieb kürzlich: "Pyjamas beschädigen nicht zwangsläufig die Qualität der Informationen, die das Gehirn einer Person durchlaufen, die gerade einen Pyjama trägt." Der Journalist und Autor Dan Giltmor verweist auf die selbstkorrigierenden Kräfte im Internet: "Wenn du etwas Unwahres sagst, wird es nicht lange dauern bis jemand es richtig stellt." Tatsächlich unterscheiden sich Blogs in einem wichtigen Detail von herkömmlichen Netzpublikationen: Eine Kommentarfunktion 'erlaubt es jedem Leser, eine eigene Stellungnahme unter dem jeweiligen BlogEintragzu veröffentlichen. Der redaktionelle Prozess der Faktenprüfung und der Korrektur wird an die Öffentlichkeit verlagert. "Ich habe schon vor langer Zeit; begriffen, dass meine Leser immer mehr .wissen als ich sagt Gillmor, der das Manuskript seines Buches "We the Media" komplett im Internet veröffentlichte und von den Lesern seines Blogs korrigieren ließ. "Nachrichten müssen aufhören, ein Vortrag zu sein", sagt er, "stattdessen müssen sie eher einem Seminar oder einem Gespräch gleichen." Der Redakteur der US-Zeitschrift Business Week, Stephan Baker, sieht nur eine Möglichkeit, Unwahrheiten und Gerüchten in der. Blogosphäre zu begegnen: "Der beste Weg, ein gewisses Maß an Kontrolle über diesen Informationsfluss zu gewinnen ist" dazu beizutragen." Seinen Lesern empfiehlt er: "Lesen Sie ein Blog oder zwei und veröffentlichen Sie dort Kommentare. Besser noch: Beginnen Sie Ihr eigenes Blog.""
  8. Good tags - bad tags : Social Tagging in der Wissensorganisation (2008) 0.08
    0.07998994 = product of:
      0.15997988 = sum of:
        0.047192186 = weight(_text_:und in 41) [ClassicSimilarity], result of:
          0.047192186 = score(doc=41,freq=62.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.34108895 = fieldWeight in 41, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=41)
        0.1127877 = weight(_text_:heißen in 41) [ClassicSimilarity], result of:
          0.1127877 = score(doc=41,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.22347197 = fieldWeight in 41, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.01953125 = fieldNorm(doc=41)
      0.5 = coord(2/4)
    
    Abstract
    Teile und sammle könnte der moderne Leitspruch für das Phänomen Social Tagging heißen. Die freie und kollaborative Verschlagwortung digitaler Ressourcen im Internet gehört zu den Anwendungen aus dem Kontext von Web 2.0, die sich zunehmender Beliebtheit erfreuen. Der 2003 gegründete Social Bookmarking Dienst Del.icio.us und die 2004 entstandene Bildersammlung Flickr waren erste Anwendungen, die Social Tagging anboten und noch immer einen Großteil der Nutzer/innen an sich binden. Beim Blick in die Literatur wird schnell deutlich, dass Social Tagging polarisiert: Von Befürwortern wird es als eine Form der innovativen Wissensorganisation gefeiert, während Skeptiker die Dienste des Web 2.0 inklusive Social Tagging als globale kulturelle Bedrohung verdammen. Launischer Hype oder Quantensprung was ist dran am Social Tagging? Mit der Zielsetzung, mehr über die Erwartungen, Anwendungsbereiche und Nutzungsweisen zu erfahren, wurde im Frühjahr 2008 am Institut für Wissensmedien (IWM) in Tübingen ein Workshop der Gesellschaft für Medien in der Wissenschaft (GMW) durchgeführt. Die vorliegende Publikation fasst die Ergebnisse der interdisziplinären Veranstaltung zusammen.
    Classification
    AN 95800 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Technische Verfahren und Hilfsmittel
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    AN 95500 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung
    Content
    - Theoretische Ansätze und empirische Untersuchungen Stefanie Panke & Birgit Gaiser: "With my head up in the clouds" - Social Tagging aus Nutzersicht Christoph Held& Ulrike Cress: Social Tagging aus kognitionspsychologischer Sicht Michael Derntl, Thorsten Hampel, Renate Motschnig & Tomas Pitner: Social Tagging und Inclusive Universal Access - Einsatz von Tagging in Hochschulen und Bibliotheken Christian Hänger: Good tags or bad tags? Tagging im Kontext der bibliothekarischen Sacherschließung Mandy Schiefner: Social Tagging in der universitären Lehre Michael Blank, Thomas Bopp, Thorsten Hampel & Jonas Schulte: Social Tagging = Soziale Suche? Andreas Harrer & Steffen Lohmann: Potenziale von Tagging als partizipative Methode für Lehrportale und E-Learning-Kurse Harald Sack & Jörg Waitelonis: Zeitbezogene kollaborative Annotation zur Verbesserung der inhaltsbasierten Videosuche - Kommerzielle Anwendungen von Tagging Karl Tschetschonig, Roland Ladengruber, Thorsten Hampel & Jonas Schulte: Kollaborative Tagging-Systeme im Electronic Commerce Tilman Küchler, Jan M. Pawlowski & Volker Zimmermann: Social Tagging and Open Content: A Concept for the Future of E-Learning and Knowledge Management? Stephan Schillenvein: Der .Business Case' für die Nutzung von Social Tagging in Intranets und internen Informationssystemen
    - Tagging im Semantic Web Benjamin Birkenhake: Semantic Weblog. Erfahrungen vom Bloggen mit Tags und Ontologien Simone Braun, Andreas Schmidt, Andreas Walter & Valentin Zacharias: Von Tags zu semantischen Beziehungen: kollaborative Ontologiereifung Jakob Voß: Vom Social Tagging zum Semantic Tagging Georg Güntner, Rolf Sint & Rupert Westenthaler: Ein Ansatz zur Unterstützung traditioneller Klassifikation durch Social Tagging Viktoria Pammer, Tobias Ley & Stefanie Lindstaedt: tagr: Unterstützung in kollaborativen Tagging-Umgebungen durch Semantische und Assoziative Netzwerke Matthias Quasthoff Harald Sack & Christoph Meinet: Nutzerfreundliche Internet-Sicherheit durch tag-basierte Zugriffskontrolle
    Footnote
    Enthält die Beiträge der Tagung "Social Tagging in der Wissensorganisation" am 21.-22.02.2008 am Institut für Wissensmedien (IWM) in Tübingen. Volltext unter: http://www.waxmann.com/kat/inhalt/2039Volltext.pdf. Vgl. die Rez. unter: http://sehepunkte.de/2008/11/14934.html. Rez. in: IWP 60(1009) H.4, S.246-247 (C. Wolff): "Tagging-Systeme erfreuen sich in den letzten Jahren einer ungemein großen Beliebtheit, erlauben sie dem Nutzer doch die Informationserschließung "mit eigenen Worten", also ohne Rekurs auf vorgegebene Ordnungs- und Begriffsysteme und für Medien wie Bild und Video, für die herkömmliche Verfahren des Information Retrieval (noch) versagen. Die Beherrschung der Film- und Bilderfülle, wie wir sie bei Flickr oder YouTube vorfinden, ist mit anderen Mitteln als dem intellektuellen Einsatz der Nutzer nicht vorstellbar - eine professionelle Aufbereitung angesichts der Massendaten (und ihrer zu einem großen Teil auch minderen Qualität) nicht möglich und sinnvoll. Insofern hat sich Tagging als ein probates Mittel der Erschließung herausgebildet, das dort Lücken füllen kann, wo andere Verfahren (Erschließung durch information professionals, automatische Indexierung, Erschließung durch Autoren) fehlen oder nicht anwendbar sind. Unter dem Titel "Good Tags - Bad Tags. Social Tagging in der Wissensorganisation" und der Herausgeberschaft von Birgit Gaiser, Thorsten Hampel und Stefanie Panke sind in der Reihe Medien in der Wissenschaft (Bd. 47) Beiträge eines interdisziplinären Workshops der Gesellschaft für Medien in der Wissenschaft zum Thema Tagging versammelt, der im Frühjahr 2008 am Institut für Wissensmedien in Tübingen stattgefunden hat. . . .
    Der Band zeigt eindrucksvoll die Fülle der Anwendungsgebiete für Tagging-Systeme und die Vielfalt der Forschungsfragen, die sich daraus ergeben. Dabei bleiben eine Reihe von Desideraten bestehen, etwa zum tatsächlichen Sprachgebrauch in Tagging-Systemen, dem Zusammenhang zwischen Tagverwendung und Systemdesign oder der tatsächlichen Effektivität der tagbasierten Suche. Für die Bewertung z. B. der Retrievaleffektivität der Suche bei Flickr oder YouTube sind aber sicher auch neue Qualitätsmodelle der Inhaltsbewertung erforderlich, weil die Bewertungskriterien der Fachinformation dort nur bedingt greifen."
    Kommentar M. Buzinkay: "Bibliotheken werden um Social Tagging nicht herum kommen, da schlichtweg die Kapazitäten für eine inhaltliche Erschließung fehlen. Stattdessen wäre es von Notwendigkeit, Normdateien zum Bestandteil des Tagging zu machen. Verfehlt wäre es, auf die bibliothekarische Erschließung zu verzichten, weil das zu Lasten des Verhältnisses von Recall und Precision gehen würde." (In: http://www.buzinkay.net/blog-de/2009/05/buchrezension-good-tags-bad-tags/)
    RVK
    AN 95800 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Technische Verfahren und Hilfsmittel
    AN 95100 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Referieren, Klassifizieren, Indexieren
    AN 95500 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Informationswissenschaft / Informationspraxis / Sacherschließung
  9. Schreiber, A.: Ars combinatoria (2010) 0.08
    0.07998994 = product of:
      0.15997988 = sum of:
        0.047192186 = weight(_text_:und in 963) [ClassicSimilarity], result of:
          0.047192186 = score(doc=963,freq=62.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.34108895 = fieldWeight in 963, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=963)
        0.1127877 = weight(_text_:heißen in 963) [ClassicSimilarity], result of:
          0.1127877 = score(doc=963,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.22347197 = fieldWeight in 963, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.01953125 = fieldNorm(doc=963)
      0.5 = coord(2/4)
    
    Content
    "Kürzlich bat mich ein Anhänger der Numerologie, ihm mein Geburtsdatum zu nennen. Wiederholte Quersummenbildung ergab 4, meine ,Geburtszahl`. Auf dieselbe Weise addierte er auch die Alphabet-Positionen der Vokale in meinem Namen zu 8, meiner ,Herzzahl`. Das nennt sich Gematrie. Einer Tabelle waren dann Charakter und Schicksal zu entnehmen, soweit sie mir aus kosmischen Einflüssen vorbestimmt sind. Kein Zweifel, Okkultes braucht den großen Rahmen. Der Kosmos darf es da schon sein - oder die Pythagoräer, auf die man sich gerne beruft, weil sie Zahlen und Dinge geradezu identifiziert haben. Ich ließ meinen Gesprächspartner wissen, dass ich diesen Umgang mit Zahlen und Zeichen für spekulatives, ja abergläubisches Wunschdenken halte. "Aber Sie sind doch Mathematiker", gab er triumphierend zurück, "dann beweisen Sie mir erst einmal, dass die Numerologie nicht funktioniert!". Das, natürlich, konnte ich nicht. Als weitere Quelle geheimer Gewissheiten diente ihm die jüdische Kabbalah. Gematrische Verfahren hat sie durch kombinatorische Zeichenmanipulationen erweitert wie Zeruph (Permutation) oder Temurah (zyklisches Vertauschen). Die Welt wird als Buch vorgestellt, vom Schöpfer geschrieben mit den 22 Buchstaben des hebräischen Alphabets und den 10 dekadischen Ziffern (den "Sephiroth" eines urbildlichen Lebensbaums, mit denen Umberto Eco in seinem Roman Das Foucaultsche Pendel noch ein postmodernes Spiel treibt). Einer magischen Richtung zufolge wirken Um- und Zusammenstellungen von Buchstaben und Ziffern auf die Dinge selbst ein. So kann der Bestand verborgener Beziehungen ungehemmt wachsen. Doch "nur solche Beziehungen und Feststellungen haben objektive Bedeutung, die nicht durch irgend einen Wechsel in der Wahl der Etiketten ... beeinflußt werden". Dieses "Relativitätsprinzip" formulierte Hermann Weyl - ohne auf die Kabbalah anzuspielen - in dem Anhang Ars combinatoria zur 3. Auflage seiner Philosophie der Mathematik und Naturwissenschaft. Ihren Operationen verlieh die Kabbalah denn auch keine objektive, vielmehr eine mystische, in reiner Innenschau gewonnene Bedeutung.
    In Studien dieser Art hatte sich der aus Mallorca stammende Ramon Llull (lat. Raimundus Lullus, 1235-1315) vertieft. Mit seiner Ars magna et ultima wurde er Ahnherr einer nicht erst heute naiv anmutenden Begriffskombinatorik. Diese besteht vor allem darin, mit konzentrischen, frei drehbaren Kreisscheiben Wahrheiten zu entdecken. Auf die Scheibenränder schrieb Lullus die zu kombinierenden Elemente, etwa die neun göttlichen Attribute der sog. Ersten Figur, durch Großbuchstaben B, C, D, ... , K bezeichnet und um das Zentrum A (= Aleph für Gott) herum gruppiert. Zwei von ihnen werden als erstes und letztes ausgewählt (auf 9 8 Arten); zwischen beide lässt sich noch eine adverbielle Bestimmung schieben als beliebige aus den restlichen 7 Attributen gebildete Menge. Danach wäre etwa CEKD einer von insgesamt 9216 (= 9*2**7*8) möglichen Sätzen, zu lesen als: Die Größe ist auf mächtige und ruhmvolle Weise dauerhaft. - Das Verfahren war völlig nutzlos für die Hervorbringung von Gedanken. Doch Lullus, dem unermüdlichen religiösen Eiferer, half es bei der Abfassung einer schwer fasslichen Fülle von Predigten und frommen Traktaten. An seinem gefahrvollen Ziel, die Muslime mit den ,zwingenden` Argumenten aus seiner Kreismaschinerie zum christlichen Glauben zu bekehren, ist er aber gescheitert. Martin Gardner gestand einmal in einem Essay über die Ars magna, man spüre eine "unleugbare Faszination, wenn die Kreisscheiben gedreht werden und der Geist den seltsamen Kombinationen nachsinnt, die sie hervorbrin- gen. Wohl auch deswegen blieb die Lullische Tradition für lange Zeit wirksam. Noch Gottfried Wilhelm Leibniz dürfte sie inspiriert haben, der 1666 zwangzig jährig seine Dissertatio de arte combinatoria vorlegte. In ihr finden sich erste Beiträge zu einer wissenschaftlichen Kombinatorik, aber auch hochfliegende Ideen zu einer universal anwendbaren, enzyklopädischen Über-Wissenschaft und Erfindungskunst. Leibniz sah darin "- wenn es wahr ist, daß alle großen Dinge aus kleinen zusammengesetzt sind, mögen sie Atome oder Moleküle heißen - den einzigen Weg, in die Geheimnisse der Natur einzudringen." Und an anderer Stelle: "Diese Lehre allein führt die sich fügende Seele an die Grenze der Unendlichkeit, sie allein erfaßt die Harmonie der Welt, die innere Struktur der Dinge und die Reihenfolge der Formen".
    Der schwärmerische Ton dieser Eloge mag später Karl Friedrich Hindenburg (1739-1808) in der Hoch- oder besser Überschätzung seiner "Combinationslehre" bestärkt haben. Der gebürtige Dresdner war stolzer Gründer einer merkwürdig isoliert gebliebenen sog. kombinatorischen Schule und überzeugt, "der polynomische Lehrsatz" sei "das wichtigste Theorem der Analysis". Auch wenn man das für übertrieben hält, so ist doch die Kornbinatorik nach heutigem Stand eine Disziplin, die den Vergleich mit anderen Gebieten der Mathematik nicht zu scheuen braucht. - Was die universale Logik betrifft, die Leibniz sich ausgemalt hat, so kann sie nicht gelingen; doch ihre praktische Seite hat sich auf erstaunliche Weise im Computer verwirklicht: einer Maschine, die rechnen und - vor allem - Symbole verarbeiten kann. Auch außerhalb von Wissenschaft und Technik hat die bloß Idee gebliebene ars combinatoria eine anhaltende Wirkung auf die Einbildungskraft entfaltet. Sie führt die 'Kunst' (ars) in ihrem Namen und war ihr vielfach zu Diensten. Einiges spricht dafür, dass kombinatorische Verfahren im künstlerischen Feld immer dann vermehrt ins Spiel kommen, wenn die inhaltliche Seite des Schaffensprozesses an Bedeutung verliert: aufgrund mangelnder Vorgaben von außen (durch Auftraggeber, Mäzene) und brüchig gewordener Bindungen (an metaphysische Ideen, Anschauungen über Natur und Gesellschaft). Ein solches Stadium war zu Beginn des 20. Jhs. erreicht. Die damit verbundende "Entfesselung des Materials" (Adorno) verlangte vom Künstler, sich über den Rohstoff seiner Arbeit - Farben, Formen, Töne, Wörter, Buchstaben etc. - prinzipielle Gedanken zu machen. Wie ist mit den freigesetzten Elementen umzugehen und wie der Verdacht zu entkräften, es könne nun ziemlich beliebig zugehen? Zunächst behauptete man die Eigengesetzlichkeit des Materials. Adorno zufolge arbeitet der Künstler ganz "im strengen Anspruch der Richtigkeit, den sein Gebilde an ihn stellt". Der Urheber einer Komposition etwa ist darüberhinaus "einzig der, der sie zu lesen vermag und seine eigene Musik versteht"2. Ähnlich, aber nicht ganz so überraschend war das, was zuvor Wassily Kandinsky für die von gegenständlicher Darstellung sich ablösende Malerei reklamiert hatte, nämlich: einer "inneren Notwendigkeit" zu gehorchen - zweifellos eine mystische Kategorie.
    Die in den 1960er Jahren ausgerufene "permutationelle Kunst" scheint auch mit diesem letzten Rest an Semantik aufzuräumen. In Kunst & Computer (1973) propagierte Abraham Moles eine radikale Form der ars combinatoria: "Der vom Sinn tyrannisierten traditionellen Kunst setzt die Permutation als formales Spiel die gleichmäßig dichte Erforschung des Möglichkeitenfeldes entgegen." Zunehmend wurde der Computer an der Kunstproduktion beteiligt, denn die "permutationelle Kunst klammert mit Absicht die Bedeutung aus" (S. 131). Zahllos sind inzwischen die Beispiele von computergenerierten Grafikserien, algorithmischen Kompositionen und Texten aus Poesie-Automaten, die rund um den Globus her- und im Internet ausgestellt werden. Wie aber ist ein "Möglichkeitenfeld" zu rezipieren? Muss nicht jemand eine Instanz auswählen und ihren Wert beurteilen können? Auch Moles hat das Problem erkannt und beruft sich aufs "Kunstvergnügen" und auf "Faszination". Diese entstehe in der "spielerischen Verschwendung einer kostenlosen Zeit", die wir als "Menschen in der westlichen Welt" einfach nicht haben. Die Fähigkeit, sich in kombinatorischer Leere zu verlieren, ließe sich aber aus "Lehren ... vom Orient übernehmen". Also doch wieder Mystisches? Alan Turing, ein Pionier der modernen Computerwissenschaft, brachte das Vordringen der Maschine in die Domänen menschlicher Intelligenz schon früh zur Sprache. Nicht einmal das Verfertigen von Sonetten stelle für ihn eine Grenzlinie dar, bekannte er, um sogleich einzuschränken: "The comparison is perhaps a little bit unfair because a sonnet written by a machine will be better appreciated by another machine." - Darin nun scheint mir ein bisher kaum beachteter (und von Turing nicht einmal so gemeinter) Hinweis zu liegen, wie das Rezeptionsproblem zu lösen sei. Der französische Schriftsteller Raymond Queneau hat die Pointe bemerkt und den Zitat-Nebensatz als Motto seiner Hunderttausend Milliarden Gedichtei gewählt. Wundersame Ironie ... !"
  10. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.07958474 = product of:
      0.15916948 = sum of:
        0.11981324 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.11981324 = score(doc=6206,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.039356243 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.039356243 = score(doc=6206,freq=22.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  11. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.07728001 = product of:
      0.15456001 = sum of:
        0.10269707 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.10269707 = score(doc=1729,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.051862944 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.051862944 = score(doc=1729,freq=52.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  12. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.07677643 = product of:
      0.15355286 = sum of:
        0.10269707 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.10269707 = score(doc=195,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.0508558 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.0508558 = score(doc=195,freq=50.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  13. Teutsch, K.: ¬Die Welt ist doch eine Scheibe : Google-Herausforderer eyePlorer (2009) 0.08
    0.075346686 = product of:
      0.15069337 = sum of:
        0.037905674 = weight(_text_:und in 3678) [ClassicSimilarity], result of:
          0.037905674 = score(doc=3678,freq=40.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.27396923 = fieldWeight in 3678, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3678)
        0.1127877 = weight(_text_:heißen in 3678) [ClassicSimilarity], result of:
          0.1127877 = score(doc=3678,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.22347197 = fieldWeight in 3678, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3678)
      0.5 = coord(2/4)
    
    Content
    "An einem trüben Novembertag 2008 sitzen zwei Männer an einem ovalen Konferenztisch. Sie befinden sich wie die meisten Geschäftstreibenden im Strudel der Finanzmärkte. Ihr Tisch steht im einzigen mehrstöckigen Nachwendebau der Berliner Karl-Marx-Allee. Links vom Fenster leuchtet die Spitze des Fernsehturms, rechts fällt der Blick auf kilometerlange Kachelfassaden. Die Verhandlungen mit den Investoren ziehen sich seit Wochen hin. Ein rhetorisches Ringen. Der Hirnforscher fragt: "Ist Wissen mit großem 'W' und wissen mit kleinem 'w' für Sie das Gleiche?" Der Vertriebsmann sagt: "Learntainment", "Knowledge Nuggets", "Mindmapping". Am Ende liegt ein unterschriebener Vertrag auf dem Tisch - an einem Tag, an dem Daimler laut über Kurzarbeit nachdenkt. Martin Hirsch und Ralf von Grafenstein genehmigen sich einen Piccolo. In der schwersten Wirtschaftskrise der Bundesrepublik haben sie für "eyePlorer" einen potenten Investor gefunden. Er hat die Tragweite ihrer Idee verstanden, und er hat begriffen: Die Welt ist eine Scheibe.
    Eine neue visuelle Ordnung Martin Hirsch ist der Enkel des Nobelpreisträgers Werner Heisenberg. Außerdem ist er Hirnforscher und beschäftigt sich seit Jahren mit der Frage: Was tut mein Kopf eigentlich, während ich hirnforsche? Ralf von Grafenstein ist Marketingexperte und spezialisiert auf Dienstleistungen im Internet. Zusammen haben sie also am 1. Dezember 2008 eine Firma in Berlin gegründet, deren Heiliger Gral besagte Scheibe ist, auf der - das ist die Idee - bald die ganze Welt, die Internetwelt zumindest, Platz finden soll. Die Scheibe heißt eyePlorer, was sich als Aufforderung an ihre Nutzer versteht. Die sollen auf einer neuartigen, eben scheibenförmigen Plattform die unermesslichen Datensätze des Internets in eine neue visuelle Ordnung bringen. Der Schlüssel dafür, da waren sich Hirsch und von Grafenstein sicher, liegt in der Hirnforschung, denn warum nicht die assoziativen Fähigkeiten des Menschen auf Suchmaschinen übertragen? Anbieter wie Google lassen von solchen Ansätzen bislang die Finger. Hier setzt man dafür auf Volltextprogramme, also sprachbegabte Systeme, die letztlich aber, genau wie die Schlagwortsuche, nur zu opak gerankten Linksammlungen führen. Weiter als auf Seite zwei des Suchergebnisses wagt sich der träge Nutzer meistens nicht vor. Weil sie niemals wahrgenommen wird, fällt eine Menge möglicherweise kostbare Information unter den Tisch.
    Skelett mit Sonnenbrille Hirsch sitzt in einem grell erleuchteten Konferenzraum. In der rechten Ecke steht ein Skelett, dem jemand eine Sonnenbrille aufgeklemmt hat. In der Hand hält Hirsch ein Modellgehirn, auf dem er im Rhythmus seines Sprachflusses mit den Fingern trommelt. Obwohl im Verlauf der nächsten Stunden erschreckend verwickelte Netzdiagramme zum Einsatz kommen, hält Hirsch sich an die Suggestivkraft des Bildes. Er sagt: "Das Primärerlebnis der Maschine ist bei Google das eines Jägers. Sie pirscht sich an eine Internetseite heran." Man denkt: "Genauso fühlt es sich an: Suchbegriff eingeben, 'enter' drücken, Website schießen!", schon kommt die Komplementärmetapher geschmeidig aus dem Köcher: Im Gegensatz zum Google-Jäger, sagt Hirsch, sei der eyePlorer ein Sammler, der stöbere, organisiere und dann von allem nasche. Hier werden Informationen, auf die handelsübliche Suchmaschinen nur verweisen, kulinarisch aufbereitet und zu Schwerpunkten verknüpft. Im Gegensatz zu ihren Vorgängern ist die Maschine ansatzweise intelligent. Sie findet im Laufe einer Sitzung heraus, worum es dem Benutzer geht, versteht den Zusammenhang von Suche und Inhalt und ist deshalb in der Lage, Empfehlungen auszusprechen.
    Einstein, Weizsäcker und Hitler Zu Demonstrationszwecken wird die eyePlorer-Scheibe an die Wand projiziert. Gibt man im kleinen Suchfeld in der Mitte den Namen Werner Heisenberg ein, verwandelt sich die Scheibe in einen Tortenboden. Die einzelnen Stücke entsprechen Kategorien wie "Person", "Technologie" oder "Organisation". Sie selbst sind mit bunten Knöpfen bedeckt, unter denen sich die Informationen verbergen. So kommt es, dass man beim Thema Heisenberg nicht nur auf die Kollegen Einstein, Weizsäcker und Schrödinger trifft, sondern auch auf Adolf Hitler. Ein Klick auf den entsprechenden Button stellt unter anderem heraus: Heisenberg kam 1933 unter Beschuss der SS, weil er sich nicht vor den Karren einer antisemitischen Physikbewegung spannen ließ. Nach diesem Prinzip spült die frei assoziierende Maschine vollautomatisch immer wieder neue Fakten an, um die der Nutzer zwar nicht gebeten hat, die ihn bei seiner Recherche aber möglicherweise unterstützen und die er später - die Maschine ist noch ausbaubedürftig - auch modellieren darf. Aber will man das, sich von einer Maschine beraten lassen? "Google ist wie ein Zoo", sekundiert Ralf von Grafenstein. "In einem Gehege steht eine Giraffe, im anderen ein Raubtier, aber die sind klar getrennt voneinander durch Gitter und Wege. Es gibt keine Möglichkeit, sie zusammen anzuschauen. Da kommen wir ins Spiel. Wir können Äpfel mit Birnen vergleichen!" Die Welt ist eine Scheibe oder die Scheibe eben eine Welt, auf der vieles mit vielem zusammenhängt und manches auch mit nichts. Der Vorteil dieser Maschine ist, dass sie in Zukunft Sinn stiften könnte, wo andere nur spröde auf Quellen verweisen. "Google ist ja ein unheimlich heterogenes Erlebnis mit ständigen Wartezeiten und Mausklicks dazwischen. Das kostet mich viel zu viel Metagedankenkraft", sagt Hirsch. "Wir wollten eine Maschine mit einer ästhetisch ansprechenden Umgebung bauen, aus der ich mich kaum wegbewege, denn sie liefert mir Informationen in meinen Gedanken hinein."
    Wenn die Maschine denkt Zur Hybris des Projekts passt, dass der eyePlorer ursprünglich HAL heißen sollte - wie der außer Rand und Band geratene Bordcomputer aus Kubricks "2001: Odyssee im Weltraum". Wenn man die Buchstaben aber jeweils um eine Alphabetposition nach rechts verrückt, ergibt sich IBM. Was passiert mit unserem Wissen, wenn die Maschine selbst anfängt zu denken? Ralf von Grafenstein macht ein ernstes Gesicht. "Es ist nicht unser Ansinnen, sie alleinzulassen. Es geht bei uns ja nicht nur darum, zu finden, sondern auch mitzumachen. Die Community ist wichtig. Der Dialog ist beiderseitig." Der Lotse soll in Form einer wachsamen Gemeinschaft also an Bord bleiben. Begünstigt wird diese Annahme auch durch die aufkommenden Anfasstechnologien, mit denen das iPhone derzeit so erfolgreich ist: "Allein zehn Prozent der menschlichen Gehirnleistung gehen auf den Pinzettengriff zurück." Martin Hirsch wundert sich, dass diese Erkenntnis von der IT-Branche erst jetzt berücksichtigt wird. Auf berührungssensiblen Bildschirmen sollen die Nutzer mit wenigen Handgriffen bald spielerisch Inhalte schaffen und dem System zur Verfügung stellen. So wird aus der Suchmaschine ein "Sparringspartner" und aus einem Informationsknopf ein "Knowledge Nugget". Wie auch immer man die Erkenntniszutaten des Internetgroßmarkts serviert: Wissen als Zeitwort ist ein länglicher Prozess. Im Moment sei die Maschine noch auf dem Stand eines Zweijährigen, sagen ihre Schöpfer. Sozialisiert werden soll sie demnächst im Internet, ihre Erziehung erfolgt dann durch die Nutzer. Als er Martin Hirsch mit seiner Scheibe zum ersten Mal gesehen habe, dachte Ralf von Grafenstein: "Das ist überfällig! Das wird kommen! Das muss raus!" Jetzt ist es da, klein, unschuldig und unscheinbar. Man findet es bei Google."
  14. Gernert, J.: Vorsicht Ente! : Wikipedia (2009) 0.07
    0.074374095 = product of:
      0.14874819 = sum of:
        0.035960484 = weight(_text_:und in 3633) [ClassicSimilarity], result of:
          0.035960484 = score(doc=3633,freq=36.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.25991005 = fieldWeight in 3633, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3633)
        0.1127877 = weight(_text_:heißen in 3633) [ClassicSimilarity], result of:
          0.1127877 = score(doc=3633,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.22347197 = fieldWeight in 3633, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3633)
      0.5 = coord(2/4)
    
    Content
    "Karl ist richtig. Theodor, Maria und Nikolaus stimmen. Auch Johann, Jakob, Philipp, Franz und Joseph sind korrekt, selbst der etwas exotische Sylvester. Nur Wilhelm war falsch. Den Wilhelm hatte ein Spaßvogel dem neuen Bundeswirtschaftsminister angedichtet - im Wikipedia-Eintrag über Karl-Theodor zu Guttenberg. Das wäre wohl kaum aufgefallen, hätten nicht etliche seriöse Medien, darunter Bild, taz und Spiegel Online, den falschen Wilhelm einfach abgeschrieben. Sie hatten vergessen: Wenn jeder, der will, an einem Lexikon mitarbeiten kann, kommt eben nicht nur ein riesiges, weit verästeltes Wissensnetz heraus, sondern auch so mancher Unfug. Vandalismus nennt man es bei Wikipedia, wenn Einträge mutwillig verunstaltet werden. Jimmy Wales, Gründer der Internet-Enzyklopädie, musste sich kürzlich über einen anderen Fall ärgern, als zwei vollkommen lebendige US-Senatoren bei Wikipedia plötzlich als tot galten. Mit einem anständigen Prüfsystem hätte der Unsinn vermieden werden können, schimpfte Wales.
    Das Interessante ist: Die deutschsprachige Version von Wikipedia hat schon im Mai 2008 begonnen, eine kollektive Kontrollinstanz aufzubauen. Seitdem gibt es Aufpasser, die Artikel überprüfen und Schmierereien entfernen. Sie heißen Sichter. Gut 6000 von ihnen haben die mehr als 863000 deutschen Wiki-Einträge bisher mindestens ein Mal gesichtet. Beiträge, in denen ihnen kein Vandalismus aufgefallen ist, werden mit einem gelben Auge gekennzeichnet. Das Siegel ist ein minimaler Qualitätsnachweis. Es signalisiert vor allem: Auf den ersten Blick ist mit diesem Text alles in Ordnung. Wenn das Sichter-Prinzip sich bewährt, könnte der nächste Schritt folgen. Dann würden die gesichteten Versionen inhaltlich geprüft. Doch auch die Sichter sind nicht per se Experten, sie rekrutieren sich aus den Wiki-Autoren: Wer Sichter werden will, muss 300 Einträge bearbeitet haben, mehr als zwei Monate dabei sein und darf noch nie wegen Regelverstößen gesperrt worden sein. "Es gibt kein langes Einstellungsprozedere", sagt Catrin Schoneville, Sprecherin von Wikimedia, dem Verein, der die deutsche Ausgabe finanziell unterstützt. "Das Ganze basiert ja darauf, dass möglichst viele User ihre Zeit investieren, um die Qualität hochzuhalten." Zu den Erfolgen der ausgewählten Sichter zählt bisher, dass sie im Eintrag zu Bielefeld die Zahl der Sitzplätze des Stadions um ein paar hundert korrigiert und bei der "Tomate" klargestellt haben, dass sie kein Obst ist. In dem Fall war es die achte Sichtung binnen Wochen. Einmal musste gelöscht werden, dass Tomaten "dumme niedrige unintelligente Geschöpfe mit unsensiblen Gefühlen" sind. Um solchen Unsinn, aber auch PR-Eingriffe auszubremsen, laufen schon seit 2003 in den Foren der Wikipedia-Gemeinschaft die ersten Diskussionen über "stabile Versionen": Einträge, auf die sich die Nutzer verlassen können. Jimmy Wales hatte das explizit für die deutsche Wikipedia vorgeschlagen. Deren Niveau galt als vorbildhaft.
    "Das einzuführen, hat dann einige Jahre gedauert", sagt Schoneville, "weil das Thema sehr kontrovers diskutiert wurde." Die Wikipedianer versuchen nicht nur bei einzelnen Artikeln, sondern auch bei grundsätzlichen Entscheidungen, sich zu einigen, indem sie in aller Ruhe und sehr ausführlich Pro und Kontra abwägen. Kontra hier: Ein rigides Kontrollsystem, bei dem wichtige Artikel von verlässlichen Mitgliedern permanent überwacht werden, wie es Wales vorschwebt, könnte neue Autoren abschrecken. Der Reiz an Wikipedia liege eben darin, dass jeder einfach mitschreiben kann. Was dabei herauskommt, ist beachtlich: Im Laufe der recht jungen Wikipedia-Geschichte zeigten verschiedene Untersuchungen, dass sowohl Brockhaus als auch Britannica nicht unbedingt besser sind als die Online-Enzyklopädie. Im führenden Wissenschaftsmagazin Nature erschien 2005 eine Studie, die bei Britannica-Artikeln im Durchschnitt drei und bei Wikipedia vier Fehler zählte - ein erstaunlich geringer Unterschied. Der Stern verglich den Netz-Auftritt von Brockhaus mit Wikipedia - und gab der selbstgemachten Enzyklopädie viel bessere Noten. Ihr großer Vorteil: Sie war fast immer aktueller. Allein bei der Verständlichkeit lag der Brockhaus vorn. Zwischenzeitlich schien es sogar, als habe die Online-Enzyklopädie die kiloschweren Bände nach 200 Jahren vom Markt gedrängt. In ihrer Wucht wirkten die zwar verlässlich, aber viel zu behäbig. Der gedruckte Brockhaus, hieß es, werde eingestellt und nur noch in digitaler Form vertrieben werden. Inzwischen hat der Lexikonverlag klargestellt, dass darüber noch nicht entschieden sei. Die Verkaufszahlen sind stark gestiegen, als die Nachricht von der Einstellung der Printausgabe erst einmal in der Welt war.
    Gleichzeitig passierte etwas ganz anderes: Zum ersten Mal in ihrer Geschichte erschienen Auszüge aus Wikipedia in gedruckter Form. Eine Bertelsmann-Tochter veröffentlichte in einem Jahrbuch die Einträge zu den 50000 meistgesuchten Begriffen. Sechs Redakteure prüften das Ganze vorher auf Fehler und Unstimmigkeiten.Wenn stimmt, was die Studien nahelegen, dürfte ihnen nicht viel aufgefallen sein. Denn die mehr als 500000 deutschen Wikipedia-Autoren sind keineswegs durchweg unqualifizierte Laien - es gibt auch Experten, Fachredakteure und Lektoren bei Wikipedia. Nur nennen sie sich nicht unbedingt so und werden - anders als die Kollegen bei den Lexikonverlagen - eben nicht bezahlt. Als Sebastian Moleski, der heute Wikimedia-Geschäftsführer ist, vor fünf Jahren begann, das Online-Lexikon um einzelne Zusatzartikel der US-Verfassung zu erweitern, ging es noch darum, die größten Wissenslücken zu füllen. Die Aufgabe der Wikipedianer hat sich seitdem gewandelt. Jetzt, da es Einträge zu hunderttausenden Stichworten gibt, bekommt das Aktualisieren die größte Bedeutung. Mancher recherchiert immer noch wochenlang ein Thema, besucht Bibliotheken, ruft Experten an, fasst das alles in einem Text zusammen. Genauso wichtig sind nun aber Freiwillige, die per Software nach Rechtschreibfehlern suchen, dubiose Sätze verifizieren oder Einträge auf den neuesten Stand bringen. Auf Listen können sie sehen, was an Artikeln, für die sie sich interessieren, gerade geändert worden ist. Die Seite zu Angela Merkel beispielsweise haben sehr viele auf ihrer Liste: Würde jemand die Bundeskanzlerin zu Angela Marie-Luise Merkel machen, bliebe sie das wahrscheinlich keine 60 Sekunden. Auch der zusätzliche Wilhelm im Namen des neuen Wirtschaftsministers wurde auf der Wikipedia-eigenen Diskussionsseite schnell angezweifelt - aber nicht sofort gelöscht. In Deutschland, der Schweiz und Österreich scheint Gründlichkeit den Wikipedianern nun seit einer Weile wichtiger als Wachstum. Die Zahl der neuen Beiträge hat abgenommen. Bald könnte die französische die deutsche Version als zweitgrößte weltweit ablösen - dafür aber stammen aus Deutschland die Qualitätsverbesserungen, die sich künftig auch in England, Holland und Frankreich durchsetzen könnten. "Vielleicht sind wir ein Volk von Besserwissern", hat Moleskis Vorgänger einmal gesagt. Und Jimmy Wales stellt fest: Auch wenn es wie ein Klischee klinge - "die Deutschen setzen auf Genauigkeit und Qualität"."
  15. Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998) 0.07
    0.072617784 = product of:
      0.29047114 = sum of:
        0.29047114 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
          0.29047114 = score(doc=4593,freq=4.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.6607038 = fieldWeight in 4593, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=4593)
      0.25 = coord(1/4)
    
    Abstract
    Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
  16. Reed, D.: Essential HTML fast (1997) 0.07
    0.06846471 = product of:
      0.27385885 = sum of:
        0.27385885 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
          0.27385885 = score(doc=6851,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.62291753 = fieldWeight in 6851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6851)
      0.25 = coord(1/4)
    
    Abstract
    This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
  17. Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997) 0.07
    0.06846471 = product of:
      0.27385885 = sum of:
        0.27385885 = weight(_text_:java in 171) [ClassicSimilarity], result of:
          0.27385885 = score(doc=171,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.62291753 = fieldWeight in 171, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=171)
      0.25 = coord(1/4)
    
    Abstract
    Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
  18. Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996) 0.07
    0.06846471 = product of:
      0.27385885 = sum of:
        0.27385885 = weight(_text_:java in 604) [ClassicSimilarity], result of:
          0.27385885 = score(doc=604,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.62291753 = fieldWeight in 604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=604)
      0.25 = coord(1/4)
    
    Abstract
    Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
  19. Ameritech releases Dynix WebPac on NT (1998) 0.07
    0.06846471 = product of:
      0.27385885 = sum of:
        0.27385885 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
          0.27385885 = score(doc=2782,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.62291753 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=2782)
      0.25 = coord(1/4)
    
    Abstract
    Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
  20. OCLC completes SiteSearch 4.0 field test (1998) 0.07
    0.06846471 = product of:
      0.27385885 = sum of:
        0.27385885 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
          0.27385885 = score(doc=3078,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.62291753 = fieldWeight in 3078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=3078)
      0.25 = coord(1/4)
    
    Abstract
    OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs

Authors

Languages

Types

  • a 9351
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications