Search (640 results, page 1 of 32)

  • × theme_ss:"Informationsmittel"
  1. Unzicker, A.: Wikipedia auf dem Weg zum Orwellschen Wahrheitsministerium : über den Niedergang der Online-Enzyklopädie (2018) 0.09
    0.087615624 = product of:
      0.17523125 = sum of:
        0.036438923 = weight(_text_:und in 263) [ClassicSimilarity], result of:
          0.036438923 = score(doc=263,freq=4.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.24258271 = fieldWeight in 263, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=263)
        0.13879232 = weight(_text_:html in 263) [ClassicSimilarity], result of:
          0.13879232 = score(doc=263,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.3981093 = fieldWeight in 263, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=263)
      0.5 = coord(2/4)
    
    Abstract
    Mit Wikipedia schien ein Traum wahr geworden zu sein - das Wissen der Menschheit, zusammengetragen in einem Gemeinschaftsprojekt, kostenlos, für alle verfügbar und frei von Kommerz, im wahrsten Sinne des Wortes die beste Seite des Internet. Obwohl nur ein Prozent der Weltbevölkerung betreffend, ist die deutsche Wikipedia dabei die zweitgrößte Abteilung - auch das schien eine besondere Erfolgsgeschichte. Und tatsächlich ist die Enzyklopädie nach wie vor unschlagbar bei Dingen wie Beethovens Geburtsdatum oder der Anzahl der Jupitermonde. Nähert man sich aber der Gegenwart in irgendeinem Artikel mit politisch-gesellschaftlichem Bezug, kommt man ins Staunen.
    Source
    https://www.heise.de/tp/features/Wikipedia-auf-dem-Weg-zum-Orwellschen-Wahrheitsministerium-4059211.html?view=print
  2. HME: DVD-Lexikon mit Extras : Der Brockhaus multimedial 2004 premium (2003) 0.08
    0.084174566 = product of:
      0.16834913 = sum of:
        0.04938428 = weight(_text_:und in 569) [ClassicSimilarity], result of:
          0.04938428 = score(doc=569,freq=10.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.3287631 = fieldWeight in 569, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=569)
        0.11896485 = weight(_text_:html in 569) [ClassicSimilarity], result of:
          0.11896485 = score(doc=569,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.34123653 = fieldWeight in 569, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.046875 = fieldNorm(doc=569)
      0.5 = coord(2/4)
    
    Abstract
    Zu den Neuerungen des Multimedia-Lexikons gehört vor allem die Verdoppelung der Artikelanzahl. Den jetzt 240 000 Lexikoneinträgen entsprechen aber nur 17 Millionen Wörter. Damit ist die Informationstiefe geringer als bei Microsofts Encarta 2004 Pro, das mit 50 000 Einträgen zwar weniger Artikel, aber umfassendere Informationen enthält (über 19 Millionen Wörter). Recherche-Ergebnisse lassen sich in Mappen als Backup speichern und als HTML-Report exportieren. Dies ist beim Brockhaus etwas unübersichtlicher gelöst als bei Encarta. Informationen und zusätzliche Inhalte macht der Brockhaus dennoch gut zugänglich. Praktisch ist die automatische Kontextkarte, die verwandte Themen aufzeigt. Weitere Extras sind der umfassende Atlas, ein Englisch-Wörterbuch, Länderstatistiken, ein Wissensquiz sowie acht kompakte Einführungen etwa in Biologie, Deutsch und Informatik für Schüler. Gute multimediale Inhalte sind über die Medienbibliothek direkt abrufbar. Bestnoten verdient die detaillierte Installationsroutine, der übersichtliche CD-Manager und die Direktsuche aus Windows-Applikationen heraus. Online-Updates sind bis Dezember 2004 kostenlos. FAZIT: Der Brockhaus erweist sich auch digital als zuverlässiges Lexikon mit interessanten Extras. Verbesserungswürdig sind allerdings Informationstiefe und Recherche-Reports.
  3. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.083354905 = product of:
      0.16670981 = sum of:
        0.1114965 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.1114965 = score(doc=195,freq=2.0), product of:
            0.47730878 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06772732 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.055213306 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.055213306 = score(doc=195,freq=50.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  4. Wales, J.; Geyer, S.; Scholz, M.: "Zensur ist nicht hilfreich" (2001) 0.08
    0.08156775 = product of:
      0.1631355 = sum of:
        0.04417064 = weight(_text_:und in 777) [ClassicSimilarity], result of:
          0.04417064 = score(doc=777,freq=8.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.29405463 = fieldWeight in 777, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=777)
        0.11896485 = weight(_text_:html in 777) [ClassicSimilarity], result of:
          0.11896485 = score(doc=777,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.34123653 = fieldWeight in 777, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.046875 = fieldNorm(doc=777)
      0.5 = coord(2/4)
    
    Abstract
    Der Wikipedia-Gründer Jimmy Wales spricht über seinen Einfluss auf die Politik, Wookies und Laserschwerter sowie die Zukunft der gedruckten Zeitung. Er arbeite oft im Bett, sagt er, weil er ja meist am Laptop sitze. Das glaubt man dem US-Amerikaner Jimmy Wales, 45, sofort. Nicht nur, weil er ziemlich entspannt wirkt, sondern auch, weil Wales mit einer Erfindung berühmt geworden ist, die zu dieser Behauptung passt: ein kostenloses Online-Lexikon, an dem jeder mitschreiben kann - dessen Fakten aber auch von jedem kontrolliert werden. Daraus wurde vor zehn Jahren Wikipedia, das heute meistgenutzte Lexikon der Welt, basisdemokratisch geführt und von einer Stiftung betrieben. Wales ist noch Ehrenvorsitzender und schreibt als Hobby-Autor an Wikipedia-Einträgen mit. Beruflich kümmert er sich aber mittlerweile um seine Firma Wikia, ein IT-Unternehmen, das eine Plattform für Spezial-Enzyklopädien aller Art betreibt. Auch Wikia ist eine Erfolgsgeschichte, zählt zu den 50 meistgenutzten Websites der Welt. "Uns geht's gut", sagt Wales - und lacht. Ganz entspannt.
    Content
    Vgl.: http://www.fr-online.de/politik/wikipedia-gruender-jimmy-wales--zensur-ist-nicht-hilfreich-,1472596,10960068.html.
  5. Hehl, H.: Verknüpfung von MathDatabase mit elektronischen Aufsätzen und Verbundkatalogen : ¬Das Linksystem Math-Link (2001) 0.08
    0.07860888 = product of:
      0.15721776 = sum of:
        0.0382529 = weight(_text_:und in 735) [ClassicSimilarity], result of:
          0.0382529 = score(doc=735,freq=6.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.25465882 = fieldWeight in 735, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=735)
        0.11896485 = weight(_text_:html in 735) [ClassicSimilarity], result of:
          0.11896485 = score(doc=735,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.34123653 = fieldWeight in 735, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.046875 = fieldNorm(doc=735)
      0.5 = coord(2/4)
    
    Abstract
    Math-Link ist eines der in das Multisuchsystem E-Connect integrierten Linksysteme, die Datenbanken mit verfügbaren E-Zeitschriften bzw. den Standortnachweisen der zuständigen Verbundkataloge verknüpfen. In diesem Fall besteht eine Verknüpfung der Datenbank MathDatabase mit den E-Zeitschriften verschiedener Bibliotheken sowie mit den deutschen Verbundkatalogen. Math-Link ist wie die anderen Linksysteme ein mit JavaScript erstelltes und mit einem Webformular verbundenes Programm, das unabhängig von MathDatabase in einem besonderen Frame wie hier oder einem eigenen Browserfenster läuft. Der Zugriff auf die von MathDatabase angezeigten Suchergebnisse erfolgt nicht direkt, sondern lediglich von außen her durch Einfügen der vorher insgesamt markierten und kopierten Webseiten dieser Suchergebnisse in das Formulareingabefeld des Linksystems. Math-Link existiert in zwei Versionen. Eine inzwischen etwas veraltete Version ist auf das HTML-Format der Datanbankanzeige, eine neue Version auf das Ascii-Format eingestellt. Diese neue Version soll hier vorgestellt werden.
  6. Harmsen, B.; Leiter, A.: Fraunhofer-Publica : Kompetenzdatenbank der angewandten Forschung (2009) 0.08
    0.07559649 = product of:
      0.15119298 = sum of:
        0.052055605 = weight(_text_:und in 3823) [ClassicSimilarity], result of:
          0.052055605 = score(doc=3823,freq=16.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.34654674 = fieldWeight in 3823, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3823)
        0.09913737 = weight(_text_:html in 3823) [ClassicSimilarity], result of:
          0.09913737 = score(doc=3823,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.28436378 = fieldWeight in 3823, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3823)
      0.5 = coord(2/4)
    
    Abstract
    Fraunhofer-Publica ist die multidisziplinäre, bibliographische Referenzdatenbank für die Veröffentlichungen der Fraunhofer-Gesellschaft, der größten Europäischen Trägerorganisation für angewandte Forschung, und ihre Mitarbeiter. Die Datenbank wurde 1988 ins Leben gerufen und 1991 um Patente ergänzt. Erstmals 1995 übers World Wide Web frei verfügbar, enthält sie seit 1999 auch Volltext-Dokumente. Seit 2005 ist sie "Open Archive Data Provider". Vor kurzem wurde die Web-Oberfläche überarbeitet, wodurch die Zugriffsmöglichkeiten für Suchmachinen-Robots erheblich verbessert werden konnten und Publica-Zitate nun in Google, MSN und in anderen Web-Datenbanken leichter auffindbar sind. 80 Prozent der heutigen Publica-Nutzung wird über Suchmaschinen vermittelt. Das Fraunhofer-Publica Team orientiert sich an vier Qualitätsmerkmalen für die Datenbankproduktion: Beschaffbarkeit der Originaldokumente, Vollständigkeit / Aktualität, Konsistenz der Metadaten und die Verbreitung der Publica-Inhalte. Dies verlangt akkurate Quellangaben, möglichst den Nachweis von IDs wie DOI oder URN sowie möglichst direkte Volltextlinks. Das Optimum im Bezug auf Beschaffbarkeit stellen freie Downloads dar. Was das Kriterium "Verbreitung" anbelangt, werden sowohl das "Harvesten" der Datenbank als auch die direkte Indexierung durch Robots unterstützt. Das Google-Ranking der Listen und Einzeldokumente ist jedoch schlecht, weil sie keine individuellen Titel haben. Deshalb wird als wichtigste Verbesserung angestrebt, individuelle Titel im HTML-Header für Listen und Einzelanzeigen zu generieren. Obwohl das "Harvesting" der Fraunhofer-Publica seit 2005 möglich ist, gibt es nach wie vor keine "Daten-Sets", d.h. fachspezifische Selektionsmöglichkeiten, die wichtig wären, um wissenschaftlichen Fachportalen zuzuarbeiten. Um dies zu ermöglichen, müssen nachträglich ca. 112.000 Publica-Dokumenten grobe DDC-Klassen bis zur dritten Ebene zugeordnet werden.
    Source
    Information - Wissenschaft und Praxis. 60(2009) H.3, S.151-154
  7. Schröder, B.: Geschichtsverdrehungen (2003) 0.07
    0.07052509 = product of:
      0.14105017 = sum of:
        0.02208532 = weight(_text_:und in 2373) [ClassicSimilarity], result of:
          0.02208532 = score(doc=2373,freq=2.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.14702731 = fieldWeight in 2373, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2373)
        0.11896485 = weight(_text_:html in 2373) [ClassicSimilarity], result of:
          0.11896485 = score(doc=2373,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.34123653 = fieldWeight in 2373, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.046875 = fieldNorm(doc=2373)
      0.5 = coord(2/4)
    
    Abstract
    Die Microsoft Encarta sieht die Geschichte Palästinas aus einer einseitigen Perspektive. Wer in alten Zeiten etwas über die Welt erfahren wollte, kaufte sich den legendären "Brockhaus", Meyers Konversationslexikon oder das "Große Bertelsmann Volkslexikon". Derartige Bücher waren auch innenarchitektonisch wertvoll, weil man sie als Zeichen der Bildung, gemessen in Kubikmetern, in der Schrankwand gut sichtbar platzieren konnte. Nachschlagewerke waren praktisch "für die Wissensbedürfnisse des bürgerlichen Alltags". Für den bürgerlichen Alltag mit dem Computer, der von Windows-Produkten wimmelt, bietet sich heute die Microsoft Encarta als Compact Disk an, eine Enzyklopädie des Wissens für den Hausgebrauch. Nur steht dort an manchen Stellen grober Unfug. Und wenn es um Israel geht, fragt man sich, ob die in der deutschen "Encarta" vertretenen Thesen nur schlecht redigiert sind oder ob Microsoft anti-israelische Vorurteile bewusst fördern will. Das jüdische Portal haGalil spricht sogar von "Geschichtsverdrehung unter enzyklopädischem Deckmäntelchen"
    Source
    http://www.telepolis.de/tp/deutsch/inhalt/co/14125/1.html
  8. bs: Nachschlagen in der Luxusklasse (2003) 0.07
    0.06797312 = product of:
      0.13594624 = sum of:
        0.03680887 = weight(_text_:und in 2405) [ClassicSimilarity], result of:
          0.03680887 = score(doc=2405,freq=8.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.24504554 = fieldWeight in 2405, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2405)
        0.09913737 = weight(_text_:html in 2405) [ClassicSimilarity], result of:
          0.09913737 = score(doc=2405,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.28436378 = fieldWeight in 2405, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2405)
      0.5 = coord(2/4)
    
    Abstract
    Multimedia-Enzyklopädien sind seit Jahren ein Renner. Doch mit der neuen Ausgabe packt der Brockhaus nun das Familiensilber auf zwei schlanke CD-ROMs und setzt sowohl vom Informationsumfang her als auch preislich neue Maßstäbe.
    Content
    Denn diesmal ist die gesamte 24-bändige Enzyklopädie vollständig digitalisiert worden. Der Preis von 990 Euro liegt auf dem Niveau der kartonierten Studienausgabe aber deutlich unter dem luxuriösen Brockhaus-Flaggschiff in Leder. Für eine optimale Bedienung sorgt jene Technik, die schon bisher im Brockhaus multimedial immer wieder verbessert und auf einen beachtenswerten Stand der Benutzerführung gebracht wurde. Im Vergleich zur bisherigen CD-ROM-Enzyklopädie muss für die neue Luxus-Ausgabe immerhin das Zehnfache berappt werden. - Info-Riese - Im Gegenzug erhält der Anwender deutlich mehr an Information. 330.000 Stichwörter führen zu 260.000 Artikel mit ca. 26 Millionen Wörter. Im Basispaket sind allerdings nur die Texte und Bilder enthalten, die multimediale Erweiterung mit Atlas, Videos oder Tondokumenten sind in einem Medienpaket extra zu erwerben. - Edle Benutzerführung mit Umstiegs-Problem - Die Benutzerführung wurde direkt von aus der Multimedial-Version übernommen. Hier setzt der Brockhaus schon seit jeher Maßstäbe. Neu ist, dass die persönlichen Mappen auch in eine HTML-Datei exportiert werden können. Will ein treuer Brockhaus-Anwender allerdings von der Multimedial-Ausgabe auf die teure Enzyklopädie umsteigen, kann er seine erstellten Lesezeichen, Notizen, Artikel und Mappen nicht übertragen. Er müsste sie einzeln von Hand neu erstellen. Derartige Kurzsichtigkeiten sollten bei einem Werk in dieser Kategorie eigentlich nicht vorkommen. - Fazit - Die Verschmelzung der großen Brockhaus-Enzyklopädie in ein MultimediaInterface ist mit einigen kleinen Ausnahmen durchaus gelungen. Damit müssen die Freunde der neuen Medien nicht mehr auf das umfangreiche Informationsangebot der Buchversion verzichten, kommen aber nicht gerade billig davon.
  9. Jackenkroll, M.: Cross Media Publishing mittels XML : Die Enzyklopädie als Beispiel (2003) 0.06
    0.057894584 = product of:
      0.11578917 = sum of:
        0.056306742 = weight(_text_:und in 3311) [ClassicSimilarity], result of:
          0.056306742 = score(doc=3311,freq=52.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.3748476 = fieldWeight in 3311, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3311)
        0.059482425 = weight(_text_:html in 3311) [ClassicSimilarity], result of:
          0.059482425 = score(doc=3311,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.17061827 = fieldWeight in 3311, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3311)
      0.5 = coord(2/4)
    
    Content
    "Die Extensible Markup Language (XML) ist eine Metaauszeichnungssprache, die 1998 vom World Wide Web Consortium (W3C), einer Organisation, die sich mit der Erstellung von Web Standards und neuen Technologien für das Internet beschäftigt, als neue Empfehlung für Web-Anwendungen festgesetzt wurde. Seitdem ist viel über XML und die sich durch diese Sprache ergebenden neuen Möglichkeiten des Datenaustausches über das Internet publiziert worden. In XML-Dokumenten werden die hierarchische Struktur und der Inhalt der Dokumente festgelegt, aber keinerlei Angaben zum Layout gemacht. Dieses wird in so genannten Stylesheets definiert. Mit Hilfe mehrerer Stylesheets, die sich alle auf ein XML-Dokument beziehen, ist es möglich, aus einem Datenbestand verschiedene Ausgabeprodukte, z.B. eine Online-Version und eine druckbare Ausgabe eines Dokuments, zu erzeugen. Diese Möglichkeit der Herstellung verschiedener medialer Varianten eines Produkts ist auch für die Herstellung von Informationsmitteln interessant. Im Bereich der Produktion von Informationsmitteln, vor allem von Lexika und Enzyklopädien, ist in den letzten Jahren zu beobachten gewesen, dass neben der traditionellen, gedruckten Ausgabe des Nachschlagewerks zunehmend auch elektronische Varianten, die durch multimediale Elemente angereichert sind, angeboten werden. Diese elektronischen Nachschlagewerke werden sowohl offline, d.h. auf CD-ROM bzw. DVD, als auch online im Internet veröffentlicht. Im Gegensatz zu den gedruckten Versionen werden die neuen Produkte fast jährlich aktualisiert. Diese neue Situation erforderte Veränderungen im Herstellungsprozess. Ein Verfahren, das die Erzeugung verschiedener medialer Varianten eines Produkts möglichst einfach und problemlos ermöglicht, wurde benötigt. XML und ihr Vorgänger, die Standard Generalized Markup Language (SGML), schienen die perfekte Lösung für dieses Problem zu sein. Die Erwartungen an den Nutzen, den SGML und XML bringen könnten, waren hoch: "Allein dieses Spitzklammerformat, eingespeist in einen Datenpool, soll auf Knopfdruck die Generierung der verschiedensten Medienprodukte ermöglichen". Ziel dieser Arbeit ist es, darzustellen, wie der neue Standard XML bei der Publikation von Informationsmitteln eingesetzt werden kann, um aus einem einmal erfassten Datenbestand mit möglichst geringem Aufwand mehrere Ausgabeprodukte zu generieren. Es wird darauf eingegangen, welche Ausgabeformen sich in diesem Bereich für XML-Dokumente anbieten und mit welchen Verfahren und Hilfsmitteln die jeweiligen Ausgabeformate erstellt werden können. In diesem Zusammenhang sollen auch die Aspekte behandelt werden, die sich bei der Umwandlung von XML-Dokumenten in andere For mate unter Umständen als problematisch erweisen könnten.
    Ausgehend von dieser Sachlage ergibt sich die Struktur der vorliegenden Arbeit: Einleitend werden die Metaauszeichnungssprache XML sowie einige ausgewählte Spezifikationen, die im Zusammenhang mit XML entwickelt wurden und eine sinnvolle Anwendung dieser Sprache erst ermöglichen, vorgestellt (Kapitel 2). Dieses Kapitel soll einen knappen, theoretischen Überblick darüber geben, was XML und zugehörige Ergänzungen leisten können, welche Ziele sie jeweils verfolgen und mit welchen Methoden sie versuchen, diese Ziele zu erreichen. Damit soll dieser erste Teil dazu beitragen, das Vorgehen bei der Entwicklung der späteren Beispiel-DTD und den zugehörigen Stylesheets nachvollziehbar zu machen. Daher wird hier nur auf solche Spezifikationen eingegangen, die im Zusammenhang mit der Produktion von Informationsmitteln auf XML-Basis unbedingt benötigt werden bzw. in diesem Bereich von Nutzen sind. Neben der sogenannten Dokumenttypdefinition (DTD), die die Struktur der XML-Dokumente bestimmt, sollen daher die Spezifikationen zu den Themen Linking, Transformation und Formatierung behandelt werden. Sicherlich spielen auch Techniken zur Gestaltung des Retrieval bei elektronischen Ausgaben von Informationsmitteln eine Rolle. Dieser Bereich soll hier jedoch ausgeklammert werden, um den Rahmen dieser Arbeit nicht zu sprengen. Der Schwerpunkt liegt vielmehr auf den Bereichen der Transformation und Formatierung, da diese zur Erstellung von Stylesheets und damit zur Generierung der späteren Ausgabeprodukte von zentraler Bedeutung sind.
    Das folgende Kapitel (Kapitel 3) der Arbeit beschäftigt sich mit dem Themenkomplex der Informationsmittel. Hier soll herausgearbeitet werden, welche Typen von Informationsmitteln es gibt und inwieweit sich elektronische und gedruckte Informationsmittel unterscheiden. Schwerpunktmäßig soll in diesem Teil aber dargestellt werden, wie XML und die ihr verwandte, aber komplexere Metaauszeichnungssprache SGML in Verlagen zur Publikation von Informationsmitteln eingesetzt werden, welche Vorteile eine derartige Auszeichnung der Daten mit sich bringt und an welchen Stellen Probleme auftauchen. Nach dem theoretischen Teil soll im weiteren Verlauf der Arbeit (Kapitel 4) die zuvor erläuterte Vorgehensweise an einem Beispiel demonstriert und in die Praxis umgesetzt werden. Anhand eines geografischen Lexikonartikels soll gezeigt werden, wie sich eine DTD entwickeln lässt, welche die Charakteristika dieses Dokumenttyps widerspiegelt und wie verschiedene Stylesheets eingesetzt werden können, um aus dem einmal erfassten Inhalt verschiedene Ausgabeprodukte zu erzeugen. Das entworfene XML-Dokument soll in diesem Fall als HTML-Dokument, als PDF-Dokument und als leicht verändertes XML-Dokument ausgegeben werden."
    Imprint
    Köln : FH / Fakultät für Informations- und Kommunikationswissenschaften, Institut für Informationswissenschaft
    Series
    Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.35
  10. Jackenkroll, M.: Nutzen von XML für die Herstellung verschiedener medialer Varianten von Informationsmitteln : dargestellt am Beispiel eines geografischen Lexikonartikels (2002) 0.06
    0.0567901 = product of:
      0.1135802 = sum of:
        0.05409777 = weight(_text_:und in 804) [ClassicSimilarity], result of:
          0.05409777 = score(doc=804,freq=48.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.36014193 = fieldWeight in 804, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=804)
        0.059482425 = weight(_text_:html in 804) [ClassicSimilarity], result of:
          0.059482425 = score(doc=804,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.17061827 = fieldWeight in 804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0234375 = fieldNorm(doc=804)
      0.5 = coord(2/4)
    
    Content
    "Die Extensible Markup Language (XML) ist eine Metaauszeichnungssprache, die 1998 vom World Wide Web Consortium (W3C), einer Organisation, die sich mit der Erstellung von Web Standards und neuen Technologien für das Internet beschäftigt, als neue Empfehlung für Web-Anwendungen festgesetzt wurde. Seitdem ist viel über XML und die sich durch diese Sprache ergebenden neuen Möglichkeiten des Datenaustausches über das Internet publiziert worden. In XML-Dokumenten werden die hierarchische Struktur und der Inhalt der Dokumente festgelegt, aber keinerlei Angaben zum Layout gemacht. Dieses wird in so genannten Stylesheets definiert. Mit Hilfe mehrerer Stylesheets, die sich alle auf ein XML-Dokument beziehen, ist es möglich, aus einem Datenbestand verschiedene Ausgabeprodukte, z.B. eine Online-Version und eine druckbare Ausgabe eines Dokuments, zu erzeugen. Diese Möglichkeit der Herstellung verschiedener medialer Varianten eines Produkts ist auch für die Herstellung von Informationsmitteln interessant. Im Bereich der Produktion von Informationsmitteln, vor allem von Lexika und Enzyklopädien, ist in den letzten Jahren zu beobachten gewesen, dass neben der traditionellen, gedruckten Ausgabe des Nachschlagewerks zunehmend auch elektronische Varianten, die durch multimediale Elemente angereichert sind, angeboten werden. Diese elektronischen Nachschlagewerke werden sowohl offline, d.h. auf CD-ROM bzw. DVD, als auch online im Internet veröffentlicht. Im Gegensatz zu den gedruckten Versionen werden die neuen Produkte fast jährlich aktualisiert. Diese neue Situation erforderte Veränderungen im Herstellungsprozess. Ein Verfahren, das die Erzeugung verschiedener medialer Varianten eines Produkts möglichst einfach und problemlos ermöglicht, wurde benötigt. XML und ihr Vorgänger, die Standard Generalized Markup Language (SGML), schienen die perfekte Lösung für dieses Problem zu sein. Die Erwartungen an den Nutzen, den SGML und XML bringen könnten, waren hoch: "Allein dieses Spitzklammerformat, eingespeist in einen Datenpool, soll auf Knopfdruck die Generierung der verschiedensten Medienprodukte ermöglichen". Ziel dieser Arbeit ist es, darzustellen, wie der neue Standard XML bei der Publikation von Informationsmitteln eingesetzt werden kann, um aus einem einmal erfassten Datenbestand mit möglichst geringem Aufwand mehrere Ausgabeprodukte zu generieren. Es wird darauf eingegangen, welche Ausgabeformen sich in diesem Bereich für XML-Dokumente anbieten und mit welchen Verfahren und Hilfsmitteln die jeweiligen Ausgabeformate erstellt werden können. In diesem Zusammenhang sollen auch die Aspekte behandelt werden, die sich bei der Umwandlung von XML-Dokumenten in andere For mate unter Umständen als problematisch erweisen könnten.
    Ausgehend von dieser Sachlage ergibt sich die Struktur der vorliegenden Arbeit: Einleitend werden die Metaauszeichnungssprache XML sowie einige ausgewählte Spezifikationen, die im Zusammenhang mit XML entwickelt wurden und eine sinnvolle Anwendung dieser Sprache erst ermöglichen, vorgestellt (Kapitel 2). Dieses Kapitel soll einen knappen, theoretischen Überblick darüber geben, was XML und zugehörige Ergänzungen leisten können, welche Ziele sie jeweils verfolgen und mit welchen Methoden sie versuchen, diese Ziele zu erreichen. Damit soll dieser erste Teil dazu beitragen, das Vorgehen bei der Entwicklung der späteren Beispiel-DTD und den zugehörigen Stylesheets nachvollziehbar zu machen. Daher wird hier nur auf solche Spezifikationen eingegangen, die im Zusammenhang mit der Produktion von Informationsmitteln auf XML-Basis unbedingt benötigt werden bzw. in diesem Bereich von Nutzen sind. Neben der sogenannten Dokumenttypdefinition (DTD), die die Struktur der XML-Dokumente bestimmt, sollen daher die Spezifikationen zu den Themen Linking, Transformation und Formatierung behandelt werden. Sicherlich spielen auch Techniken zur Gestaltung des Retrieval bei elektronischen Ausgaben von Informationsmitteln eine Rolle. Dieser Bereich soll hier jedoch ausgeklammert werden, um den Rahmen dieser Arbeit nicht zu sprengen. Der Schwerpunkt liegt vielmehr auf den Bereichen der Transformation und Formatierung, da diese zur Erstellung von Stylesheets und damit zur Generierung der späteren Ausgabeprodukte von zentraler Bedeutung sind.
    Das folgende Kapitel (Kapitel 3) der Arbeit beschäftigt sich mit dem Themenkomplex der Informationsmittel. Hier soll herausgearbeitet werden, welche Typen von Informationsmitteln es gibt und inwieweit sich elektronische und gedruckte Informationsmittel unterscheiden. Schwerpunktmäßig soll in diesem Teil aber dargestellt werden, wie XML und die ihr verwandte, aber komplexere Metaauszeichnungssprache SGML in Verlagen zur Publikation von Informationsmitteln eingesetzt werden, welche Vorteile eine derartige Auszeichnung der Daten mit sich bringt und an welchen Stellen Probleme auftauchen. Nach dem theoretischen Teil soll im weiteren Verlauf der Arbeit (Kapitel 4) die zuvor erläuterte Vorgehensweise an einem Beispiel demonstriert und in die Praxis umgesetzt werden. Anhand eines geografischen Lexikonartikels soll gezeigt werden, wie sich eine DTD entwickeln lässt, welche die Charakteristika dieses Dokumenttyps widerspiegelt und wie verschiedene Stylesheets eingesetzt werden können, um aus dem einmal erfassten Inhalt verschiedene Ausgabeprodukte zu erzeugen. Das entworfene XML-Dokument soll in diesem Fall als HTML-Dokument, als PDF-Dokument und als leicht verändertes XML-Dokument ausgegeben werden."
  11. Mills, T.; Moody, K.; Rodden, K.: Providing world wide access to historical sources (1997) 0.06
    0.05574825 = product of:
      0.222993 = sum of:
        0.222993 = weight(_text_:java in 3697) [ClassicSimilarity], result of:
          0.222993 = score(doc=3697,freq=2.0), product of:
            0.47730878 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06772732 = queryNorm
            0.46718815 = fieldWeight in 3697, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3697)
      0.25 = coord(1/4)
    
    Abstract
    A unique collection of historical material covering the lives and events of an English village between 1400 and 1750 has been made available via a WWW enabled information retrieval system. Since the expected readership of the documents ranges from school children to experienced researchers, providing this information in an easily accessible form has offered many challenges requiring tools to aid searching and browsing. The file structure of the document collection was replaced by an database, enabling query results to be presented on the fly. A Java interface displays each user's context in a form that allows for easy and intuitive relevance feedback
  12. Wikipedia schlägt Brockhaus : stern-Test (2007) 0.05
    0.05291754 = product of:
      0.10583508 = sum of:
        0.036438923 = weight(_text_:und in 1734) [ClassicSimilarity], result of:
          0.036438923 = score(doc=1734,freq=16.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.24258271 = fieldWeight in 1734, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1734)
        0.06939616 = weight(_text_:html in 1734) [ClassicSimilarity], result of:
          0.06939616 = score(doc=1734,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.19905464 = fieldWeight in 1734, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1734)
      0.5 = coord(2/4)
    
    Abstract
    Die kostenlose Online-Enzyklopädie Wikipedia wird nur von Freiwilligen geschrieben. Ist die Qualität der Einträge deshalb schlechter als bei einem etablierten Lexikon? Der stern hat Wikipedia-Beiträge von einem unabhängigen Institut untersuchen und mit der Online-Ausgabe des Brockhaus vergleichen lassen - mit überraschenden Ergebnissen.
    Content
    "Wikipedia gehört neben Google zu den größten Recherche-Angeboten im Internet. Aber weil Wikipedia von ganz normalen Nutzern geschrieben wird, müssten sich, so Kritiker, in dem kostenlosen Online-Lexikon viele Fehler finden. Um dies zu überprüfen, ließ der stern Wikipedia von Experten des Recherche-Instituts "Wissenschaftlicher Informationsdienst Köln" untersuchen. Für den stern-Test wurden 50 zufällig ausgewählte Einträge aus den Fachgebieten Politik, Wirtschaft, Sport, Wissenschaft, Kultur, Unterhaltung, Erdkunde, Medizin, Geschichte und Religion überprüft. Die vier Kriterien Richtigkeit, Vollständigkeit, Aktualität und Verständlichkeit wurden mit Schulnoten bewertet. Wikipedia erzielte über alle Bereiche eine Durchschnittsnote von 1,7. Die Einträge zu den gleichen Stichworten in der kostenpflichtigen Online-Ausgabe des 15-bändigen Brockhaus, die nach Verlags-Angaben "permanent aktualisiert" wird, erreichten lediglich eine Durchschnittsnote von 2,7. Ob "Hartz IV", "U2", "Penicillin" oder "Moses": Bei 43 Artikeln bekam Wikipedia bessere Noten als die Konkurrenz. Nur bei sechs Stichworten lag der Brockhaus vorn, in einem Fall erhielten beide Nachschlagewerke die gleiche Note. Wikipedia besonders aktuell Besonders gut schnitt Wikipedia in der Kategorie Aktualität ab. Beispiel: Während im Wikipedia-Artikel zu Luciano Pavarotti dessen Ableben bereits am Todestag vermerkt worden war, erwähnte der Brockhaus-Eintrag den Tod des Tenors selbst am 2. Dezember noch nicht. Der Literatur-Nobelpreis für die Schriftstellerin Doris Lessing, in Wikipedia längst beschrieben, fehlte beim Brockhaus zu diesem Zeitpunkt ebenso. Überraschend siegte Wikipedia beim stern-Test auch in der Rubrik "Richtigkeit". Angesichts der Tatsache, dass hier Freiwillige gratis gegen professionelle Redakteure antreten, war dies nicht zu erwarten. Einzig bei der Verständlichkeit liegt der Brockhaus vorn. Einige Wikipedia-Artikel sind für Laien schlicht zu kompliziert, viele zu weitschweifig, urteilten die Tester."
    Dazu Reaktion des Brockhaus (http://futurezone.orf.at/produkte/stories/241241/): "Stern"-Studie: Brockhaus wehrt sich Äpfel, Birnen, Editionen Der Brockhaus-Verlag sieht die vom Magazin "Stern" veröffentlichte Studie über das Online-Lexikon Wikipedia und den Brockhaus-Internet-Auftritt als schiefen Vergleich. "Da werden Äpfel mit Birnen verglichen", sagte Brockhaus-Sprecher Klaus Holoch am Freitag zu Agenturjournalisten. In der Untersuchung von 50 Stichwörtern aus verschiedenen Gesellschaftsbereichen hatte der Wissenschaftliche Informationsdienst Köln [WIND] Wikipedia deutlich bessere Noten gegeben als brockhaus.de. Unterschiedliche Editionen Holoch erklärte, die Studie habe die bei brockhaus.de eingestellte Substanz der 15-bändigen Brockhaus-Ausgabe "mit der großen Substanz von Wikipedia verglichen". Die deutsche Wikipedia-Ausgabe enthält knapp 700.000 Artikel. Wenn, dann hätte man Wikipedia mit der 30-bändigen Brockhaus-Enzyklopädie mit ihren 300.000 Stichwörtern vergleichen sollen, deren Substanz ebenfalls online zur Verfügung stehe, sagte der Sprecher. Der Zugriff auf den Online-Brockhaus ist freilich kostenpflichtig. Er räumte ein, dass Brockhaus derzeit "noch von einem Print-Betrieb geprägt" sei. Das ändere sich jedoch: Man sei dabei, dem gedruckten Nachschlagewerk ein optimales Online-Angebot zur Seite zu stellen. "Wir arbeiten daran, aber wir sind sicherlich noch ein Weilchen unterwegs, bis wir online so stark sind wie wir das bereits in der Print-Welt sind." Wissenschaftler mahnt zur Knappheit Für das Kölner Institut WIND bekräftigte der Forscher Ulrich Kämper, man sei bei der Untersuchung auf "diverse Aussetzer" und "einige Schnitzer" bei Brockhaus gestoßen. Besonders bei der Aktualität habe Wikipedia "eindeutig die Nase vorn". Er nannte als Beispiele den Tod von Luciano Pavarotti und den Nobelpreis für Doris Lessing. Die Stärken von Brockhaus seien Knappheit und Übersichtlichkeit. Bis zu 50 Wikipedia-Seiten zu einem Stichwort seien dagegen eine "Informations-Überfrachtung": "Damit können viele Leute gar nichts mehr anfangen." Die richtige Synthese aus beiden wäre "ein Brockhaus in der Knappheit, wie er jetzt da ist, aber dann aktueller und präziser". (dpa)
    Source
    http://www.stern.de/computer-technik/internet/:%0A%09%09stern-Test%0A%09%09%09-Wikipedia-Brockhaus/604423.html
  13. Sixtus, M.: Füttern erlaubt : Webseiten versorgen zunehmend "Feedreader" mit Informationen - das erlaubt gezieltes Lesen statt langem Surfen (2003) 0.05
    0.05250624 = product of:
      0.10501248 = sum of:
        0.045530055 = weight(_text_:und in 2646) [ClassicSimilarity], result of:
          0.045530055 = score(doc=2646,freq=34.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.30310458 = fieldWeight in 2646, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2646)
        0.059482425 = weight(_text_:html in 2646) [ClassicSimilarity], result of:
          0.059482425 = score(doc=2646,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.17061827 = fieldWeight in 2646, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2646)
      0.5 = coord(2/4)
    
    Content
    "Wer im Jahr 2003 in seinen Lieblingsthemen detailliert informiert sein möchte, klappert täglich Dutzende von News-Sites und Webmagazinen ab. Ein Unterfangen, das mitunter recht mühselig sein kann: Neben, über und unter den gewünschten Nachrichten quälen sich bei jedem Aufruf Menüleisten, Banner und Grafiken durch die Leitung, und oft genug wurde die Seite seit seinem vergangenen Besuch nicht einmal aktualisiert. RSS-Clients, auch Feedreader genannt, könnten künftig Surfern die zeitaufwendige Handarbeit abnehmen. Das Prinzip ist denkbar einfach: Die Betreiber von Webangeboten stellen - neben den HTML-Seiten, die übliche Browser benötigen - einen so genannten Newsfeed zur Verfügung. Genau genommen handelt es sich dabei um nichts Weiteres. als eine speziell kodierte Textdatei mit berschriften, Zusammenfassungen und Textausschnitten der jeweils jüngsten Meldungen. Der Feedreader dreht in regelmäßigen Abständen seine Runden, holt diese Dateien und - wieder daheim - präsentiert die enthaltenen Informationen übersichtlich lesbar. Erst ein Klick auf eine Überschrift lädt den entsprechenden Originalartikel schließlich in den Webbrowser. Statt sich der Reizüberflutung auf Dutzenden, unterschiedlich gestylten Websites auszusetzen, genügt so ein Blick auf die systematisch geordneten Texteinträge im Fenster des Feedreaders, um zu entscheiden, welche Beiträge einer genaueren Betrachtung würdig sind und welche nicht. Diese Sammel-und-Zeige-Programme gibt es mittlerweile in vielen Geschmacksrichtungen und für nahezu jedes Betriebssystem (siehe "Feedreade"). Der Haken: Die Betreiber der Webangebote müssen den Dienst unterstützen und die nötigen RSS-Dateien zur Verfügung stellen. Da sich die meisten News-Magazine allerdings mit Bannerwerbung finanzieren, standen ihre Herausgeber dieser Verbreitung ihrer Texte bisher skeptisch gegenüber. Doch langsam denken viele um: Immerhin kann das System Besucher anlocken. Und nicht irgendwelche. Die Leser sind ausgesprochen interessiert und motiviert, da sie sich explizit für ein bestimmtes Angebot entschieden haben - und nicht zufällig oder unter Zeitdruck durch die einzelnen Seiten stolpern. Spätestens seit mit Yahoo einer der großen Anbieter seine aktuellen Meldungen als Newsfeed verbreitet, darf man davon ausgehen, dass etliche Mitbewerber folgen werden. So könnte die praktische Technologie in absehbarer Zeit zum nützlichen Alltagswerkzeug werden. Bis das soweit ist, übernehmen spezialisierte Dienste den Job des Mittlers zwischen den Welten: Unter NewsIsFree.com kann sich jeder User seine individuelle Auswahl an RSSFeeds zusammenstellen. Sollte das betreffende Internet-Angebot die Technik noch nicht unterstützen, wird einfach kurzerhand der notwendige Feed extern generiert - ob es dem Betreiber nun passt oder nicht. Der Service ist in der Basis-Version kostenlos. RSS steht für "Rich Site Summary". Doch zuletzt werden die drei Buchstaben häufiger als Akronym für "Really Simple Syndication" eingesetzt. Die Idee geht zurück auf das Jahr 1999, als das mittlerweile beinahe verblichene Unternehmen Netscape mit Hilfe dieses Verfahrens die Popularität seines Portals MyNetscape.com erhöhen wollte. Der Durchbruch kam mit der Verbreitung der Weblogs. Angeregt durch die Integration des RSS-Standards in das beliebte Blog-Tool Radio Userland, übernahmen die Hersteller anderer Publishing-Systeme schnell diese Strategie, und heute kommt kaum noch ein Online-Journal ohne eigenen Newsfeed aus - erkennbar am kleinen XML-Button auf der Startseite.
    Die Neuigkeits-Ströme können mehr, als einen schnellen Überblick über frische Artikel zu verschaffen: Mit Hilfe kleiner, handlicher Skripte lassen sich die externen Inhalte problemlos in eigene Webseiten einbinden. Die Aktualisierung läuft dabei automatisch. Einmal integriert, kann man so seinen Besuchern, neben den eigenen, stets aktuelle Meldungen aus anderen Ecken des Netzes anbieten. Vor allem wissenschaftliche oder fachspezifische Portale nutzen das zunehmend. Unterschiedliche Entwicklerteams mit verschiedenen Zielrichtungen haben in den vergangenen Jahren unglücklicherweise für eine recht unübersichtliche Versionsvielfalt im RSS-Lager geführt. Will man auf Nummer sicher gehen, empfiehlt sich der angestaubte Standard 0.91. Zwar hat sich eine Gruppe von Programmierern aufgemacht, News-Syndication mit einem einheitlichen Format aufs nächste Level zu befördern. Doch einstweilen scheinen zunächst noch einige Glaubenskriege ausdiskutiert zu werden. Bislang herrscht noch nicht einmal Einigkeit über den Projektnamen. Davon gänzlich ungerührt schickt sich die RSS-Technologie an, mindestens einen Veteranen aus den Anfangstagen des Internets abzulösen: den Newsletter. In den zunehmend überquellenden Postfächern finden die elektronischen Rundmails sowieso kaum Beachtung, und wer regelmäßig seinen Feedreader im Auge behält, benötigt schlichtweg keine Benachrichtigungen per E-Mail. Ob künftig kommerzielle Websites die Möglichkeiten der News-Syndication nutzen und Hinweise auf fremde Seiten in ihr Angebot integrieren werden, darf bezweifelt werden. Man stelle sich folgendes Szenario in der Offline-Welt vor: Neben einem Artikel im gedruckten Spiegel findet sich ein Kasten mit den Hinweisen: Zu diesem Thema finden Sie im aktuellen Focus diesen Beitrag und im neuen Stern jenen. Unvorstellbar. Aber bei genauerer Betrachtung wahrscheinlich sogar vorteilhaft für alle Beteiligten. Im Web ist das technisch bereits ohne weiteres machbar. Allein der Wille fehlt. Bisher."
  14. Thomas, C.: Blackout : Leitartikel (2012) 0.05
    0.04964865 = product of:
      0.0992973 = sum of:
        0.03981488 = weight(_text_:und in 882) [ClassicSimilarity], result of:
          0.03981488 = score(doc=882,freq=26.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.26505727 = fieldWeight in 882, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=882)
        0.059482425 = weight(_text_:html in 882) [ClassicSimilarity], result of:
          0.059482425 = score(doc=882,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.17061827 = fieldWeight in 882, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0234375 = fieldNorm(doc=882)
      0.5 = coord(2/4)
    
    Abstract
    Wo das Internet seine Potenziale ausschöpft und seine ganze Dynamik entfaltet, zählt das Urheberrecht zu den ersten Opfern der Internetkultur.
    Content
    "Welcher Blackout ist schon originell? Als Bewusstseinsstörung, als echter Aussetzer, ist er eher peinlich - oder auch beunruhigend, da mochte die Definition, wie sie die deutschsprachige Seite von Wikipedia um zwölf Uhr MEZ lieferte, noch so sachlich daherkommen. Während hier vom "plötzlichen Versagen eines Zustandes" die Rede war, führte die englischsprachige Seite ihre Nutzer auf eine dunkle Seite. Der Blackout als Protest. Der Blackout als bewusste Tat. Das zeigt, dass das Internet wahrhaftig ein Tummelplatz ist, der unglaublich absurde Energien zu erzeugen vermag. Es war der erste Blackout dieser Art. Was Google oder Facebook bereits in Aussicht stellten, setzte Wikipedia in die Tat um. Anlass sind zwei US-Gesetzesinitiativen, namentlich bekanntwurde sie als Stop Online Piracy Act (SOPA) und Protect Intellectual Property Act (PIPA). Mit ihnen sollen nicht nur Anstrengungen unternommen, sondern gesetzliche Grundlagen geschaffen werden, solche Webseiten zu sperren, über die Raubkopien etwa von Filmen und Musiktiteln vertrieben werden können. Es geht also, das ist keine originelle Erkenntnis, um nichts weniger als Urheberrechtsfragen, zu denen der Wikipedia-Gründer Jimmy Wales in einem Interview meinte: "Das ist eine ziemlich plumpe Gesetzgebung, die gefährlich für ein offenes Internet ist."
    Auch das ist kein origineller Gedanke - aber wie auch? Das hat unmittelbar mit dem Internet selbst zu tun, ist es doch eine Plattform des Recyclings, der nicht abreißenden Vervielfältigung von Informationen und Meinungen. Was im Internet erst in Umlauf ist, wird in Sekundenbruchteilen übernommen - vieles davon unhinterfragt. Was im Internet Meinung ist, spricht nicht zwangsläufig für offene Formen der Kommunikation, auch wenn sie immerzu behauptet werden, gebetsmühlenartig wiederholt werden. Sicher, das Internet ist ein Schauplatz, der Regierungen nicht nur irritiert, sondern ins Wanken gebracht hat, etwa im vergangenen Jahr, man denke nur an die Empörungen und Massenerhebungen in Nordafrika. Dennoch ist das Internet, dem auch der Wikipedia-Gründer Wales huldigt wie einem Fetisch, nicht unter allen Umständen ein Forum der Aufklärung geworden - wenn man darunter weiterhin so etwas wie die Selbsttätigkeit des Denkens versteht, den Versuch, sich seines eigenen Verstandes zu bedienen, der sich orientiert an allgemein verbindlichen Standards. In demokratisch legitimierten Gesetzen kann man solche Standards verbrieft sehen - und dazu zählt, auch das ist kein origineller Gedanke, das Urheberrecht. Dessen Wahrung durch Gesetze vermag mit der ungeheuren Dynamik des Internets nicht Schritt zu halten. Zu dieser Dynamik zählt eine permanent in die Welt gesetzte Selbstlegitimierung des Internets durch seine Protagonisten - ein Freibrief auch für Übertretungen oder Rechtsbrüche, die eine demokratisch herbeigeführte Gesetzgebung zu ahnden hat.
    Wales, und sicherlich nicht nur er, ist als Internetaktivist so etwas wie ein Suchmaschinist der Deregulierung von geistigem Eigentum. Wenn obendrein Kritiker der Gesetzes-Initiative des US-Kongresses die vorgesehenen Netzsperren als "Zensur" kritisieren, ist auch das, nun ja, kein eigenständiger Gedanke. Es ist das Ritual in einem Kulturkampf, der - um die Motive nicht aus den Augen zu verlieren - von ökonomischen Interessen beherrscht wird. Keine Frage, ein Medienmogul wie etwa Rupert Murdoch, der die Internetpiraterie auch aus aktuellem Anlass wieder heftig beklagt hat, um Gesetze zur Eindämmung einzuklagen, ist einer der größten Freibeuter. Als Heuchler ist er ein Aktivist. Die Internetkultur hat sich ihre eigenen Nutzungs- und Verhaltensformen geschaffen, angefangen damit, dass in einem "offenen" Internet, in dem Autor und Publikum, Produzent und Nutznießer immer weniger unterscheidbar sind, das Copyright kaum noch "transparent" bleibt. Mit Blick auf das Internet sind immer wieder gewaltige Potenziale und eine schier ungeheure Dynamik angekündigt worden. In der Tat, wo es seine Potenziale ausschöpft und seine ganze Dynamik entfaltet, zählt das Urheberrecht zu den ersten Opfern der Internetkultur. Wo doch wir, die Generation Google, zu Virtuosen in der Kunst des Textkopierens geworden sind. Wir, Wikipedia-Aktivisten, wissen um den Satz des Bert Brecht und seiner "laxen Haltung" zum geistigen Eigentum, um ihn täglich mehrfach recycelnd zu exekutieren. Die jahrhundertealte Tradition der Wahrung des geistigen Eigentums beruht auf einer Kulturtechnik. Wenn die englische Wikipediaseite diese Kulturtechnik durch einen Blackout ignoriert, wird damit in der Tat eine längst universelle Bewusstseinsstörung ins Netz gestellt. In dem Blackout findet Wikipedia auch zu sich selbst."
    Footnote
    Vgl. auch den Beitrag in derselben Ausgabe: Moll, S.: Ein Tag ohne Weltwissen: In den USA wurden als Protest gegen ein geplantes Gesetz Recherche-Seiten lahmgelegt. In: Frankfurter Rundschau. Nr.16 vom 19.01.2012, S.37. Vgl.: http://www.fr-online.de/meinung/wikipedia-wikipedia-blackout---urheberrecht-ist-das-opfer,1472602,11472590.html.
  15. Moll, S.: ¬Ein Tag ohne Weltwissen : In den USA wurden als Protest gegen ein geplantes Gesetz Recherche-Seiten lahmgelegt (2012) 0.05
    0.045357894 = product of:
      0.09071579 = sum of:
        0.031233361 = weight(_text_:und in 883) [ClassicSimilarity], result of:
          0.031233361 = score(doc=883,freq=16.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.20792803 = fieldWeight in 883, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=883)
        0.059482425 = weight(_text_:html in 883) [ClassicSimilarity], result of:
          0.059482425 = score(doc=883,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.17061827 = fieldWeight in 883, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0234375 = fieldNorm(doc=883)
      0.5 = coord(2/4)
    
    Abstract
    Als Protest gegen ein geplantes Gesetz, streiken in den USA Websites wie die Wikipedia für einen Tag - und zeigen den Internetnutzern, welche Auswirkungen die Gesetze haben könnten.
    Content
    "Dara Kiese ist in der heißen Phase ihrer Dissertation, der Abgabetermin sitzt ihr im Nacken. Deshalb hat die Kunsthistorikerin auch laut geflucht, als sie in der Nacht von Dienstag auf Mittwoch ab Mitternacht auf einigen Internetseiten nur noch Fehlermeldungen bekam. Es waren Internetseiten, die sie zuvor regelmäßig besuchte. Sie wollte während des Schreibens Bilder vergleichen. Doch plötzlich ging nichts mehr. "Das wirft mich wahrscheinlich um mindestens einen ganzen Tag zurück", sagt Dara Kiese und ist richtig sauer. Diese Reaktion ist wahrscheinlich genau das, was sich die Internetanbieter in den USA am Mittwoch gewünscht haben. Recherchehilfen von Reddit über Boing Boing bis hin zu Wikipedia schlossen für 24 Stunden ihre Pforten, um Verbrauchern klar zu machen, was sie verlieren, wenn der Kongress in Washington seine umstritten Urheberrechtsgesetze SOPA (Stop Online Piracy Act) und PiPa (Protect IP Act) verabschiedet. Unter SOPA könnten die Inhaber von Urheberrechten sich beim Gesetzgeber beschweren, wenn Webseiten ohne Erlaubnis von ihnen generierte Inhalte benutzen. Der Staat hätte dann das Recht, diese Seiten sofort vom Netz zu nehmen.
    Website-Betreiber fürchten das Schlimmste Die Betreiber verschiedenster Internetseiten befürchten nun, dass das für sie in einer Katastrophe enden könnte. "Wir haben mehr als ein Jahrzehnt damit zugebracht, die größte Enzyklopädie in der Geschichte der Menschheit aufzubauen", schrieb Wikipedia auf seiner ansonsten geschwärzten Homepage. "Jetzt zieht der Kongress ein Gesetz in Erwägung, welches das freie und offene Internet tödlich bedroht." Der Chefredakteur von Boing Boing, Rob Beschizza, war sich ebenfalls sicher, dass das neue Gesetz das Aus für seine Seite bedeuten würde. "Das Problem ist, dass die Maßnahmen so weitreichend wären, dass wir in leichtfertigen Klagen ersticken würden." Die Gegner der Gesetze behaupten, es würde das Verfassungsrecht auf freie Meinungsäußerung beschränken. "Das ist ein ganz klarer Fall der Verletzung des ersten Verfassungszusatzes", sagte Ben Huh, Gründer des erfolgreichen Portals Cheezburger, das ebenfalls am Mittwoch vom Netz ging. Das Urheberrecht der Inhaltsgeneratoren, meinte Huh, sei bereits ausreichend geschützt.
    "Internetgemeinde verteidigt das Copyright" Die Praxis von Seiten wie seiner oder von Wikipedia oder YouTube bezeichnete er als "fair use", ein legaler Begriff, unter dem beispielsweise das Recht zu zitieren geschützt ist. Wikipedia-Chef Jimmy Wales stimmte Huh zu, dass das Urheberrecht im Internet bereits ausreichend geschützt sei. "Die Internetgemeinde verteidigt das Copyright leidenschaftlich. Wir haben sehr strenge Regeln und Praktiken. Die andere Seite wird es so darstellen, als würde jeder, der sich gegen dieses Gesetz wendet, Piraterie befürworten. Das ist einfach nicht wahr." Das Problem sei, dass das Gesetz missachte, wie das Internet funktioniere und viel zu tief eingreift. "Wir müssten beispielsweise jeden Link zu einer Seite löschen, die möglicherweise geschütztes Material verwendet", sagte Wales. "Das wäre völlig unmöglich." In der Zwischenzeit rüstete sich Amerika für einen Tag ohne seine beliebtesten Recherchemittel. Allerorten waren Ratgeber zu finden, wie man ohne Wikipedia überleben kann.
    Ausnahmsweise die Originalquelle anschauen Die Washington Post riet zu so offensichtlichen Dingen, wie bei einer Suche mit Google einfach am Link zu Wikipedia vorbei zu scrollen und sich ausnahmsweise die Originalquellen anzuschauen, die ansonsten in Wikipedia zusammengefasst sind. Ein anderer Vorschlag war, ins Regal zu greifen und eine echte Enzyklopädie hervorzuholen. Das hätte sogar einen gewissen Kult-Faktor: "Das ist so ähnlich wie Vinyl zu hören." Die Medienseite mediate, die beim Boykott nicht mitmachte, verwies auf andere Nachschlagewerke im Internet, die bislang weniger populär waren, wie etwa everything2 oder Scholarpedia. Der Geheimtipp des Tages war jedoch ein kostenloses 30-Tage Probeabo der Encyclopedia Brittanica.
    Footnote
    Vgl. auch den Leitartikel in derselben Ausgabe: Thomas, C.: Blackout (S.13). Vgl.: http://www.fr-online.de/digital/internet-protest-in-den-usa-ein-tag-ohne-weltwissen,1472406,11472830.html.
  16. Rest, J.: ¬Die Neuvermessung der Welt : Google maps (2012) 0.04
    0.042000115 = product of:
      0.08400023 = sum of:
        0.034431543 = weight(_text_:und in 1409) [ClassicSimilarity], result of:
          0.034431543 = score(doc=1409,freq=28.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.22921911 = fieldWeight in 1409, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1409)
        0.049568687 = weight(_text_:html in 1409) [ClassicSimilarity], result of:
          0.049568687 = score(doc=1409,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.14218189 = fieldWeight in 1409, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1409)
      0.5 = coord(2/4)
    
    Abstract
    Apple verbannt Google Maps von seinem iPhone und setzt auf einen eigenen Kartendienst. Es geht um ein Milliardengeschäft mit Werbung - und viel mehr.
    Content
    "Mit dem neuen iPhone greift Apple seinen schärfsten Konkurrenten Google direkt an: Es ist das erste iPhone, das fast ohne Google-Produkte auskommt - nur die Google-Suche bleibt noch übrig. Der herbste Schlag für den Internetkonzern: die Entfernung von Google Maps. Seit 2007 das erste iPhone auf den Markt kam, war dieser Dienst vorinstalliert. Stattdessen bietet Apple nun mit "Karten" einen eigenen Kartendienst an. Für Google wird das wohl bedeuten, dass die mobilen Zugriffe auf seinen Kartendienst einbrechen- ein Feld, das entscheidend für Googles Umsatz im immer wichtiger werdenden Geschäft mit mobilen Anzeigen sein soll. Mehr als die Hälfte der mobilen Zugriffe auf Google Maps soll von iPhone- und iPad-Nutzern kommen. Ihnen wird Apple nun eigene Anzeigen einblenden können. Doch für Apple ist das nur ein Nebeneffekt. Tatsächlich geht es bei der Entwicklung des eigenen Kartendienstes darum, die Zukunft des iPhones zu sichern, Apples wichtigster Einkommensquelle. Denn digitale Kartentechnologie ist die entscheidende Schnittstelle zwischen virtuellem Raum und realer Welt. "Ortsbasierte Dienstleistungen", sagt Analystin Annette Zimmermann vom führenden IT-Marktforschungsinstitut Gartner, "sind zu wichtig als dass Apple sich dabei auf die Karten des unmittelbaren Konkurrenten Google als Basis verlassen könnte." Nur indem unzählige lokale Daten verknüpft und auf den Standort und die Anfragen des Nutzers bezogen werden, kann ein Smartphone zu dem allumfassenden Alltagsassistenten werden wie es Apple beim iPhone mit seiner Software Siri vorschwebt: etwa warnen, dass der Nutzer früher zu einem Meeting aufbrechen muss, da sich ein Stau gebildet hat oder ein Bus ausfällt. Siri-Konkurrent Google Now kann auf Android-Smartphones solche Aufgaben bereits erledigen. Die bessere digitale Abbildung und das vollkommenere Verständnis der physischen Begebenheiten wird so zu einem Schlüsselkriterium dafür, welche Smartphones den Markt künftig dominieren werden.
    Kartografen-Armee bei Google Google setzt daher eine ganze Armee von Spezialisten auf die Entwicklung seiner Karten an. Branchenberichten zufolge arbeiten mehr als tausend Google-Vollzeitkräfte an den Kartendienstleistungen, hinzu kommen noch rund 6 000 Arbeitskräfte von externen Firmen. Apple müsste seine Beschäftigtenzahl um mehr als die Hälfte erhöhen, um eine vergleichbare Abteilung aufzubauen. Für die Karten-App setzt Apple stattdessen auf die Dienstleistung von anderen Unternehmen. Wichtigster Kartenlieferant ist Tomtom. Das holländische Navigationsunternehmen ist neben Google und der von Nokia übernommenen US-Firma Navteq einer der drei globalen Kartenmonopolisten - und der letzte, der bis zu dem Apple-Deal nicht eng mit einem der drei dominierenden Smartphone-Betriebssysteme verbunden war. Die Nokia-Geodatenfirma Navteq, an der Apple ebenfalls interessiert gewesen sein soll, liefert bereits an Windows Phone, das Smartphone-Betriebssystem von Microsoft. Bei Tomtom sind mehr als tausend Mitarbeiter damit beschäftigt, die Karten zu pflegen. Zwar basiert ihre Tätigkeit auf den Milliarden Datensätzen, darunter Bewegungsprofile der Navigatoren-Nutzer oder Fehlerhinweise, die diese manuell übermitteln. Doch Georg Fisch, der die Tomtom-Abteilung für das Kartenmaterial in Nord- und Zentraleuropa leitet, sagt: "Zur Interpretation der Daten sind Menschen unersetzlich". Mehr als 70 Angestellte sind allein damit beschäftigt, die Karten für Deutschland aktuell zu halten. Sie prüfen etwa die rund 15 000 Hinweise, die von Nutzern über geänderte Straßenführungen oder Straßennamen eingehen. Zwei Drittel müssen die Mitarbeiter aussortieren - auch schon mal, weil Anwohner ihre Straße als gesperrt melden, nur um den Durchgangsverkehr zu verringern.
    Zur Überprüfung solcher Angaben wertet Fischs Abteilung Bewegungsdaten aus, die von den Navigatoren automatisiert übermittelt werden. "Fahren etwa mehr als 97 Prozent der Wagen in eine Richtung", sagt Fisch, "kann man sicher sein, dass es sich um eine Einbahnstraße handelt." Zudem nutzt Tomtom die Bilder, die von Kameraabfahrten der wichtigen Verkehrslinien erzeugt werden. Fahrspurangaben auf Autobahnkreuzen oder Straßenschilder werden mit einem Programm ausgelesen. Tomtom-Mitarbeitern geben die gewonnen Informationen dann in die Navigationsdatenbank ein. Google erstellt auf ähnliche Weise seine eigenen Karten, seit der Konzern nach einem Experiment mit eingekauftem Material 2008 zu der Überzeugung gekommen ist, dass es nur auf diese Weise möglich sei, solche umfassenden und exakten Karten zu erschaffen, die der Konzern für die Entwicklung seiner ortsbezogenen Dienste benötigt. Google häuft dabei nur ungleich größere Datenmengen an als andere Unternehmen. Zentraler Baustein des von Google intern "Ground Truth" getauften Projektes ist Street View, das wahnwitzig anmutende Vorhaben, alle befahrbaren Straßen abzufotografieren - inzwischen selbst alpines Gelände mit Schneemobilen. Bis heute hat Google über acht Millionen Kilometer abgefilmt, eine Länge, die einer mehr als zweihundertfachen Erdumrundung entspricht. Die dabei eingesammelten 21,5 Milliarden Megabyte Bildmaterial werden von Google nicht nur nach Schildern und Fahrbahnmarkierungen durchsucht, sondern auch nach Hausnummern oder Firmenlogos. Auch vor den Toren von öffentlichen Gebäuden macht Google dabei längst nicht mehr halt: Mit schiebbaren Kameras werden etwa Museen von innen kartographiert. Die Integration von immer mehr Daten führt dazu, dass Google Maps inzwischen - zumindest in den USA - ebenso durch Ikea-Filialen und Shopping-Malls navigieren kann wie durch Flughäfen.
    Nutzer bezahlen mit Daten Solche Navigationsangebote innerhalb von Gebäudekomplexen werden für mobile Werbung an Bedeutung gewinnen, sagt Gartner-Analystin Zimmermann. "Navigiert ein Nutzer etwa durch ein Shopping-Center, können ihm Händler direkt Coupons mit Sonderangeboten auf das Smartphone schicken". Der Markt solcher ortsbasierter Werbung soll in den nächsten Jahren rasant anwachsen: Zehn Milliarden US-Dollar sollen nach Prognosen von Strategy Analytics schon in vier Jahren umgesetzt werden. Damit das passiert, müssen die Nutzer aber überzeugt werden, ihre Ortsdaten preiszugeben. Gartner-Analystin Zimmermann sagt: "Nutzer schieben ihre Bedenken schnell beiseite, sobald sie glauben, von der Preisgabe ihrer Ortsdaten zu profitieren." Ihren immer intelligenteren mobilen Assistenten werden Nutzer so mit ihren eigenen Daten bezahlen - und das umso bereitwilliger, desto perfekter diese die physische Umgebung verstehen können."
    Footnote
    Vgl.: http://www.fr-online.de/wirtschaft/google-maps-die-neuvermessung-der-welt,1472780,17256260.html.
  17. Humborg, C.: Wie Wikimedia den Zugang zu Wissen stärkt (2022) 0.04
    0.039654948 = product of:
      0.15861979 = sum of:
        0.15861979 = weight(_text_:html in 2213) [ClassicSimilarity], result of:
          0.15861979 = score(doc=2213,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.45498204 = fieldWeight in 2213, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0625 = fieldNorm(doc=2213)
      0.25 = coord(1/4)
    
    Source
    https://www.heise.de/tp/features/Wie-Wikimedia-den-Zugang-zu-Wissen-staerkt-6341358.html?view=print
  18. Kennedy, S.D.: So many URLs ... so little time! : In these times of information overload, look to the net librarians for aid (1998) 0.03
    0.03469808 = product of:
      0.13879232 = sum of:
        0.13879232 = weight(_text_:html in 6167) [ClassicSimilarity], result of:
          0.13879232 = score(doc=6167,freq=2.0), product of:
            0.3486287 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.06772732 = queryNorm
            0.3981093 = fieldWeight in 6167, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6167)
      0.25 = coord(1/4)
    
    Abstract
    A guide to collection development and leisure related Web sites. Highlights more than 2 dozen sites, approximately half of which are devoted to collection development. The same principles used to develop print collections apply to electronic resource collection development. Many review resources are available as a result of efforts by Internet librarians. Good starting points for this category include the Library Web Manager's Reference Center: Current Awareness, and the Librarians' Index to the Internet. Picks of the month for leisure time include KidsHealth.org, Chemical Scorecard, and DigiCams Web Cam Viewer. Also includes a sidebar listing eight books covering topics such as SQL, HTML, DHTML, Web navigation, Windows 98, guides to computers and Palm Pilots, and spamming
  19. Albert, E.-M.: Adreßbücher und ihr Nutzwert für den Allgemeinen Informationsdienst : Typen und Beurteilungskriterien anhand von acht bis zehn deutsch- und englischsprachigen Beispielen (1980) 0.03
    0.025501933 = product of:
      0.10200773 = sum of:
        0.10200773 = weight(_text_:und in 6859) [ClassicSimilarity], result of:
          0.10200773 = score(doc=6859,freq=6.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.67909014 = fieldWeight in 6859, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=6859)
      0.25 = coord(1/4)
    
  20. Gorgs, H.: Adreßbücher und ihr Nutzwert für den Allgemeinen Informationsdienst : Typen und Beurteilungskriterien anhand von acht bis zehn deutsch- und englischsprachigen Beispielen (1980) 0.03
    0.025501933 = product of:
      0.10200773 = sum of:
        0.10200773 = weight(_text_:und in 6860) [ClassicSimilarity], result of:
          0.10200773 = score(doc=6860,freq=6.0), product of:
            0.15021236 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06772732 = queryNorm
            0.67909014 = fieldWeight in 6860, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.125 = fieldNorm(doc=6860)
      0.25 = coord(1/4)
    

Years

Languages

  • d 605
  • e 33
  • More… Less…

Types

  • a 458
  • i 85
  • el 76
  • m 66
  • x 34
  • s 9
  • r 3
  • b 2
  • ? 1
  • fi 1
  • h 1
  • z 1
  • More… Less…

Subjects

Classifications