-
Weilenmann, A.-K.: Fachspezifische Internetrecherche : für Bibliothekare, Informationsspezialisten und Wissenschaftler (2001)
0.07
0.07006921 = product of:
0.14013842 = sum of:
0.09183239 = weight(_text_:jedes in 1507) [ClassicSimilarity], result of:
0.09183239 = score(doc=1507,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.20877738 = fieldWeight in 1507, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0234375 = fieldNorm(doc=1507)
0.04830603 = weight(_text_:und in 1507) [ClassicSimilarity], result of:
0.04830603 = score(doc=1507,freq=36.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.31189203 = fieldWeight in 1507, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1507)
0.5 = coord(2/4)
- Classification
- AN 95000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Informationspraxis # Bibliographische Erfassung, Suchpraxis]
AN 97000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Fachliche Information und Dokumentation # Allgemeines, Wissenschaft, Hochschulwesen]
- Footnote
- Rez. in: Online-Mitteilungen 2006, H.88 [=Mitteilungen VÖB 2006, H.4], S.16-18 (M. Buzinkay): "Dass das Internet ein Heuhaufen sein kann, in dem die berühmt-berüchtigte Nadel nicht einmal annähernd gefunden werden kann, hat sich herumgesprochen. Orientierungshilfen und Wegweiser gibt es also viele, sowohl online als auch über traditionellere Medien wie dem Buch. Auch das vorliegende Werk von Anna-Katharina Weilenmann ordnet sich in diese Kategorie von Internet-Führern ein. Auf rund 200 Seiten werden Einstiege in verschiedenste Themen der Wissenschaft angeboten. Über so genannte Subject Gateways - nennen wir sie schlicht Themen-Portale - werden Wissenschaftsdisziplinen erschlossen, meist in einer kurzen, aber präzisen Beschreibung der online-Ressource. Jedes Sachgebiet wird zudem um Lexika, Enzyklopädien, Bibliographien und Datenbanken ergänzt. Die Ordnung der Sachgebiete orientiert sich an der Dewey Dezimalklassifikation. Die Bandbreite der Sachgebiete ist dementsprechend groß und orientiert sich an der Wissenschaft: - Bibliotheks- und Informationswissenschaft - Philosophie und Psychologie, Religion / Theologie - Sozialwissenschaften, Soziologie, Politik - Wirtschaft, Recht - Erziehung, Ethnologie, Sprache, Literaturwissenschaft - Mathematik, Physik, Chemie, Biologie - Technik - Medizin - Landwirtschaft, Informatik - Kunst, Architektur, Musik, Theater, Film - Sport - Geschichte Geographie, Reisen Bei der Auswahl der einzelnen Web-Quellen ließ sich die Autorin von Qualitätskriterien wie Alter der Webseite, der Zuverlässigkeit der Inhalte, der Aktualität aber auch von der Art der Trägerschaft leiten. Webseiten mit einem akademischen Hintergrund standen daher im Vordergrund, waren aber nicht ausschließlich vertreten. So finden sich auch Webseiten kommerzieller Anbieter (z.B. Scopus von Elsevier) oder auch anderer öffentlicher, nicht-akademischer Institutionen (wie der Österreichischen Nationalbibliothek mit Ariadne) im Webseiten-Verzeichnis. Rund 200 deutsch- und englischsprachige Einträge werden im Buch genauer beschrieben, mit Informationen zum Inhalt des Angebots, der Urheberschaft und Angabe möglicher Kosten. Auch weiterführende Links werden häufig angeführt. Ein einführendes Kapitel zur Informationsrecherche rundet dieses gelungene Buch ab.
Empfehlung: Das Buch eignet sich meiner Meinung nach gut als Ausgangspunkt für die Recherche in einem noch unbekannten Sachgebiet. Zum einen, weil ein Sachgebiet von recht wenigen, dafür von der Autorin gut ausgesuchten Web-Quellen eingerahmt wird. Zum anderen, weil hier von vertrauenswürdigen Webseiten ausgegangen werden kann. Man kann es auch anders sagen: dieses Buch gehört möglichst nahe an jede InternetArbeitsstation. Aufgrund der Dynamik des Themas - Links und Webseiten können recht rasch "altern" - hat dieses Buch natürlich eine fast schon natürliche Lebensdauer. Hier wäre es interessant, und das ist weniger ein Hinweis an die Autorin als vielmehr ein Wink an den Verlag, die so detailreich beschriebenen Quellen auch online zugänglich zu machen, nämlich in der Form von Bookmarks, die von den Leserlnnen auf eigene Bookmarking-Tools übernommen werden könnten. Entweder ganz einfach als Favoriten im eigenen Browser oder zu elaborierten Werkzeugen wie Rollyo, wo individuelle Suchdienste basierend auf selbst erstellten Searchrolls bedient werden könnten. Damit würde man sich die mehr als lästige Tipp-Arbeit ersparen. Mehr zu Rollyo können Sie unter http://www.buzinkay.net/blog-de/2006/11/rollyo/ nachlesen."
Weitere Rez: Information - Wissenschaft und Praxis 58(2007) H.5, S.317-318 (M. Katzmayr): "Fazit: Mit diesem Band ist eine interessante und relevante Zusammenstellung wichtiger Ausgangspunkte für thematische Webrecherchen geglückt, aufgrund seiner praktischen Relevanz ist ihm eine weite Verbreitung zu wünschen. Insbesondere Bibliothekare im fachlichen Auskunftsdienst in wissenschaftlichen oder größeren öffentlichen Bibliotheken können aus dieser gut sortierten Fundgrube hochwertiger Internetquellen einen großen Nutzen ziehen."
- RVK
- AN 95000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Informationspraxis # Bibliographische Erfassung, Suchpraxis]
AN 97000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Fachliche Information und Dokumentation # Allgemeines, Wissenschaft, Hochschulwesen]
-
Sixtus, M.: Füttern erlaubt : Webseiten versorgen zunehmend "Feedreader" mit Informationen - das erlaubt gezieltes Lesen statt langem Surfen (2003)
0.07
0.06938871 = product of:
0.13877742 = sum of:
0.09183239 = weight(_text_:jedes in 2646) [ClassicSimilarity], result of:
0.09183239 = score(doc=2646,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.20877738 = fieldWeight in 2646, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0234375 = fieldNorm(doc=2646)
0.046945024 = weight(_text_:und in 2646) [ClassicSimilarity], result of:
0.046945024 = score(doc=2646,freq=34.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.30310458 = fieldWeight in 2646, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2646)
0.5 = coord(2/4)
- Content
- "Wer im Jahr 2003 in seinen Lieblingsthemen detailliert informiert sein möchte, klappert täglich Dutzende von News-Sites und Webmagazinen ab. Ein Unterfangen, das mitunter recht mühselig sein kann: Neben, über und unter den gewünschten Nachrichten quälen sich bei jedem Aufruf Menüleisten, Banner und Grafiken durch die Leitung, und oft genug wurde die Seite seit seinem vergangenen Besuch nicht einmal aktualisiert. RSS-Clients, auch Feedreader genannt, könnten künftig Surfern die zeitaufwendige Handarbeit abnehmen. Das Prinzip ist denkbar einfach: Die Betreiber von Webangeboten stellen - neben den HTML-Seiten, die übliche Browser benötigen - einen so genannten Newsfeed zur Verfügung. Genau genommen handelt es sich dabei um nichts Weiteres. als eine speziell kodierte Textdatei mit berschriften, Zusammenfassungen und Textausschnitten der jeweils jüngsten Meldungen. Der Feedreader dreht in regelmäßigen Abständen seine Runden, holt diese Dateien und - wieder daheim - präsentiert die enthaltenen Informationen übersichtlich lesbar. Erst ein Klick auf eine Überschrift lädt den entsprechenden Originalartikel schließlich in den Webbrowser. Statt sich der Reizüberflutung auf Dutzenden, unterschiedlich gestylten Websites auszusetzen, genügt so ein Blick auf die systematisch geordneten Texteinträge im Fenster des Feedreaders, um zu entscheiden, welche Beiträge einer genaueren Betrachtung würdig sind und welche nicht. Diese Sammel-und-Zeige-Programme gibt es mittlerweile in vielen Geschmacksrichtungen und für nahezu jedes Betriebssystem (siehe "Feedreade"). Der Haken: Die Betreiber der Webangebote müssen den Dienst unterstützen und die nötigen RSS-Dateien zur Verfügung stellen. Da sich die meisten News-Magazine allerdings mit Bannerwerbung finanzieren, standen ihre Herausgeber dieser Verbreitung ihrer Texte bisher skeptisch gegenüber. Doch langsam denken viele um: Immerhin kann das System Besucher anlocken. Und nicht irgendwelche. Die Leser sind ausgesprochen interessiert und motiviert, da sie sich explizit für ein bestimmtes Angebot entschieden haben - und nicht zufällig oder unter Zeitdruck durch die einzelnen Seiten stolpern. Spätestens seit mit Yahoo einer der großen Anbieter seine aktuellen Meldungen als Newsfeed verbreitet, darf man davon ausgehen, dass etliche Mitbewerber folgen werden. So könnte die praktische Technologie in absehbarer Zeit zum nützlichen Alltagswerkzeug werden. Bis das soweit ist, übernehmen spezialisierte Dienste den Job des Mittlers zwischen den Welten: Unter NewsIsFree.com kann sich jeder User seine individuelle Auswahl an RSSFeeds zusammenstellen. Sollte das betreffende Internet-Angebot die Technik noch nicht unterstützen, wird einfach kurzerhand der notwendige Feed extern generiert - ob es dem Betreiber nun passt oder nicht. Der Service ist in der Basis-Version kostenlos. RSS steht für "Rich Site Summary". Doch zuletzt werden die drei Buchstaben häufiger als Akronym für "Really Simple Syndication" eingesetzt. Die Idee geht zurück auf das Jahr 1999, als das mittlerweile beinahe verblichene Unternehmen Netscape mit Hilfe dieses Verfahrens die Popularität seines Portals MyNetscape.com erhöhen wollte. Der Durchbruch kam mit der Verbreitung der Weblogs. Angeregt durch die Integration des RSS-Standards in das beliebte Blog-Tool Radio Userland, übernahmen die Hersteller anderer Publishing-Systeme schnell diese Strategie, und heute kommt kaum noch ein Online-Journal ohne eigenen Newsfeed aus - erkennbar am kleinen XML-Button auf der Startseite.
Die Neuigkeits-Ströme können mehr, als einen schnellen Überblick über frische Artikel zu verschaffen: Mit Hilfe kleiner, handlicher Skripte lassen sich die externen Inhalte problemlos in eigene Webseiten einbinden. Die Aktualisierung läuft dabei automatisch. Einmal integriert, kann man so seinen Besuchern, neben den eigenen, stets aktuelle Meldungen aus anderen Ecken des Netzes anbieten. Vor allem wissenschaftliche oder fachspezifische Portale nutzen das zunehmend. Unterschiedliche Entwicklerteams mit verschiedenen Zielrichtungen haben in den vergangenen Jahren unglücklicherweise für eine recht unübersichtliche Versionsvielfalt im RSS-Lager geführt. Will man auf Nummer sicher gehen, empfiehlt sich der angestaubte Standard 0.91. Zwar hat sich eine Gruppe von Programmierern aufgemacht, News-Syndication mit einem einheitlichen Format aufs nächste Level zu befördern. Doch einstweilen scheinen zunächst noch einige Glaubenskriege ausdiskutiert zu werden. Bislang herrscht noch nicht einmal Einigkeit über den Projektnamen. Davon gänzlich ungerührt schickt sich die RSS-Technologie an, mindestens einen Veteranen aus den Anfangstagen des Internets abzulösen: den Newsletter. In den zunehmend überquellenden Postfächern finden die elektronischen Rundmails sowieso kaum Beachtung, und wer regelmäßig seinen Feedreader im Auge behält, benötigt schlichtweg keine Benachrichtigungen per E-Mail. Ob künftig kommerzielle Websites die Möglichkeiten der News-Syndication nutzen und Hinweise auf fremde Seiten in ihr Angebot integrieren werden, darf bezweifelt werden. Man stelle sich folgendes Szenario in der Offline-Welt vor: Neben einem Artikel im gedruckten Spiegel findet sich ein Kasten mit den Hinweisen: Zu diesem Thema finden Sie im aktuellen Focus diesen Beitrag und im neuen Stern jenen. Unvorstellbar. Aber bei genauerer Betrachtung wahrscheinlich sogar vorteilhaft für alle Beteiligten. Im Web ist das technisch bereits ohne weiteres machbar. Allein der Wille fehlt. Bisher."
-
Majica, M.: ¬Eine ganz große Nummer : dem User eröffnet die Umstellung viele ungekannte Möglicchkeiten - zumindest in Zukunft (2012)
0.07
0.06868788 = product of:
0.13737576 = sum of:
0.09183239 = weight(_text_:jedes in 1224) [ClassicSimilarity], result of:
0.09183239 = score(doc=1224,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.20877738 = fieldWeight in 1224, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0234375 = fieldNorm(doc=1224)
0.04554336 = weight(_text_:und in 1224) [ClassicSimilarity], result of:
0.04554336 = score(doc=1224,freq=32.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.29405463 = fieldWeight in 1224, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1224)
0.5 = coord(2/4)
- Abstract
- An diesem Mittwoch ändert sich die Architektur des World Wide Web: Provider, Betreiber von Webseiten und Hersteller von Computern und Smartphones stellen auf den neuen Adressstandard IPv6 um.
- Content
- "Nun beginnt für das Internet eine neue Zeitrechnung. Die Organisation Internet Society spricht von einem Meilenstein auf dem Weg in die Zukunft: Am 6. Juni wird das neue Internet Protocol Version 6 eingeführt, Insidern besser bekannt unter der Abkürzung IPv6. Für diese technische Neuerung wurde es nach Ansicht von Experten höchste Zeit. Wir dokumentieren die wichtigsten Fragen zum Start, dem IPv6 Launch Day. IPv6 kommt - wird alles anders? In den Maschinenräumen des Internets schon. Doch so groß die Veränderungen im Inneren auch sind: Äußerlich wird sich erst mal nichts ändern. Auf den ersten, zweiten und auch dritten Blick wird das Internet nach diesem 6. Juni genauso funktionieren wie sonst. Warum wird diese Umstellung überhaupt gemacht? Weil die bisherigen IP-Adressen knapp geworden sind. Mit dem bisher üblichen System können rund vier Milliarden Adressen ausgeben werden. Da die Zahl der weltweiten PC, Tablet-Computer, Smartphone, Spiele-Konsolen und ähnlichen Geräten rasant gestiegen ist, gibt es längst zu wenige Adressen. Bisher funktioniert das Internet nur deshalb meist reibungslos, weil all diese Geräte nicht gleichzeitig online sind.
Wie viel mehr neue IP-Adressen sind denn nun möglich? Mit dem neuen IPv6 stehen 340 Sextillionen Adressen zur Verfügung - das ist eine 34 mit 37 Nullen. Das reicht zumindest fürs Erste. Was sind IP-Adressen überhaupt? Sie sind quasi die Adresse von Computern, an die Daten oder Anfragen geschickt werden. Jede Homepage hat eine eine solche Adresse, und jeder Internetnutzer auch. IP-Adressen in der bisher gängigen Version 4 bestehen aus vier Blöcken maximal dreistelliger Zahlen mit Werten zwischen 0 und 255. So hat etwa die Webseite des Chaos Computer Clubs die IP-Adresse 213.73.89.122. Da sich aber www.ccc.de leichter merken lässt, übersetzen sogenannte DNS-Server zwischen den Wort- und den Zahl-Adressen. Und was ist anders an IPv6? Die Adressen sehen zum einen anders aus: Der Wikipedia-Eintrag zu IPv6 findet sich etwa unter 2001:0db8:85a3:08d3:1319:8a2e:0370:7344. Zum anderen enthalten sie 128 Bit Information statt bisher 32 Bit. Dadurch vergrößert sich die Anzahl möglicher Adressen, der sogenannte Adressraum. Außerdem wird durch den neuartigen Aufbau auch die Verwaltung in den Innereien des Internets vereinfacht. Deshalb haben zahllose Unternehmen und Initiativen seit Jahren an der Einführung des neuen Protokolls gearbeitet. Große Software-Firmen wie Microsoft, Apple oder Google haben die meisten aktuellen Programme längst so überarbeitet, dass sie IPv6 "sprechen". Sind die alten Adressen damit überholt? Für einige Jahre werden beide Protokoll-Versionen parallel laufen, auch um einen reibungslosen Übergang zu gewährleisten. Die Netzbetreiber müssen sich bei der Umstellung auf IPv6 ohnehin erst vom Skelett des Internets zum einzelnen Kunden vorarbeiten. Während die zentrale Infrastruktur etwa bei der Telekom bereits IPv6 beherrsche, wie deren Sprecher Ralf Sauerzapf erläutert, soll es bis Ende dieses Jahres immerhin bei bis zu 800.000 Endkunden angekommen sein. Dies gelte aber nur für Kunden, die auf neue "IP-Anschlüsse" umstellen.
Ist durch IPv6 mit Ausfällen und Problemen zu rechnen? Da die Umstellung seit längerem vorbereitet wurde und schrittweise umgesetzt wird, rechnen Experten nicht damit. An der Einführung beteiligen sich nun alleine in den USA eine ganze Reihe großer Netzbetreiber wie AT&T, aber auch Hardware-Hersteller wie Cisco und D-Link und große Internet-Konzerne wie Google, Facebook, Microsoft und Yahoo. Verändert sich für den Internet-Nutzer etwas im Alltag? Zunächst eher nicht, perspektiv aber schon. Durch die nahezu unendliche Zahl an Adressen entstehen neue Anwendungs-Möglichkeiten. Bisher werden in den meisten Netzwerken, etwa im heimischen W-Lan, regelmäßig neue IP-Adressen vergeben, um die beschränkten Ressourcen flexibel zu nutzen. In Zukunft könnte jedem einzelnen Gerät eine einzige IP-Adresse für seine gesamte Lebenszeit zugewiesen werden. Damit könnten auch Geräte wie ein Kühlschrank, die Heizungsanlage oder Stromzähler eine Adresse bekommen (siehe Text nebenan) und ansteuerbar sein. Jedoch wäre dann jedes Internet-Gerät eindeutig identifizierbar. Datenschützer haben deshalb bereits Protest angemeldet. Lassen sich IPv6-Adressen nicht anonymisieren, wie bei der Rufnummernunterdrückung? So etwas planen Netzbetreiber. Die Telekom hat etwa angekündigt, den Netzwerk-Teil am Anfang der Adresse alle 24 Stunden neu zu codieren, auf Wunsch des Nutzers auch häufiger. Der Betreiber 1&1 hat in einem Firmenblog angekündigt, auch mit IPv6 die Adressen dynamisch zu vergeben, also immer wieder neu. Zudem wird auf der Internetseite 1und1.de erläutert, wie man die Kennung des Endgerätes verschlüsselt, die in die zweite Hälfte der Adresse einfließt."
- Footnote
- Beispiel einer IPv6-Adresse: 2001:08e0:72d3:7d88:1122:33ff:fe44:5566 (1122:33ff:fe44:5566 ist dabei die Endgeräte-Adresse und entspricht der alten MAC-Adresse) Vgl.: http://www.fr-online.de/digital/internet-protocol-version-6-ipv6-ist-eine-ganz-grosse-nummer,1472406,16307336.html: "IPv6 ist eine ganz große Nummer".
-
Charlier, M.: ¬Das Netz wartet auf neue Zeichen : Viele Web-Adressen sind vergeben - selbst weitere Top-Level-Domains und fremde Schriften helfen nicht unbedingt (2001)
0.07
0.06644231 = product of:
0.13288462 = sum of:
0.09183239 = weight(_text_:jedes in 6783) [ClassicSimilarity], result of:
0.09183239 = score(doc=6783,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.20877738 = fieldWeight in 6783, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0234375 = fieldNorm(doc=6783)
0.041052233 = weight(_text_:und in 6783) [ClassicSimilarity], result of:
0.041052233 = score(doc=6783,freq=26.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.26505727 = fieldWeight in 6783, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=6783)
0.5 = coord(2/4)
- Abstract
- Kurz bevor es mit den Dotcoms bergab ging, wurde aus den USA gemeldet, die letzten Internet-Domains mit drei Buchstaben vor dem com seien verkauft. Inzwischen sind auch die letzten .de-Domains mit drei Zeichen weg; Restbestände werden von einem Spekulanten unter sedo.de zum Preis von 700 Mark angeboten. Im April waren 4 300 000 Adressen für de registriert. Personennamen sind fast alle vergeben - auch viele Zusammensetzungen Vorname-Familienname. Wer mit einem neuen Angebot ins Netz will, muss sich schon einen Fantasienamen wie alando oder belana einfallen lassen - und auch die sind oft schon besetzt. Während die Zahl der numerischen IP-Adressen nicht unbegrenzt erhöht werden kann - erst die geplante sechste Version des IP-Protokolls wird hier größeren Spielraum bieten -, ist die Menge der Domainnamen prinzipiell unbegrenzt. Theoretisch kann man beliebig viele Top-Level-Domains (TLD) einrichten - und mit allen bekannten und unbekannten Wörtern daraus Netzanschriften machen. Als die Internet-Verwaltung Icann im vergangenen Herbst über eine Erweiterung des Adressraums beriet, lagen denn auch mehr als 200 Vorschläge für TLDs auf dem Tisch, die der gegenwärtigen Knappheit abhelfen sollten. Die Liste reichte vom auf amerikanisch durchaus seriös für Unternehmen bis zum lockeren sucks (nervt), wo unzufriedene Kunden der BizUnternehmen unter dem Firmennamen ihre Kritik ins Netz stellen könnten: citroen.sucks, volkswagen.sucks, opel.sucks. Das Icann hat allerdings zunächst nur sieben neue TLDs zugelassen: biz, (nicht jedoch sucks), name für Privatpersonen, .museum (für eben diese), aero (für Luftverkehrsunternehmen), coop für genossenschaftliche Unternehmen und .info für allgemeine Verwendungen. Dazu kommt eine streng reglementierte pro-Domain, unter der mit law.pro Rechtsanwälte, med.pro Ärzte und cpa.pro Steuerberater online gehen sollen.
Dass das Icann nur sieben TLDs einrichten möchte, hat wenig mit Technik zu tun, aber viel mit Geschäftsinteressen und mit Politik. Sowohl die Vermarktung als auch die letzte Kontrolle über die Domains sollen möglichst da bleiben, wo sie sind: in den USA. So hat zwar jedes kleine Pazifikatoll seine eigene Länderdomain, nicht aber die Europäische Union, die gerne unter eu registrieren möchte, das aber bislang nicht kann. Und deshalb lässt sich das Icann viel Zeit damit, seinen Beschluss vom vergangenen Herbst in die Realität umsetzen zu lassen. Nach ernsthaften Schätzungen ist nicht vor dem dritten Quartal mit der Verfügbarkeit der neuen Domains zu rechnen. Pessimisten nennen eher das erste Quartal 2002. Seit Monaten werben nun Unternehmen mit Angeboten zur Reservierung einer der neuen Top-Level-Domains, damit man dann, wenn diese endlich funktionieren, auch mit seiner Wunschdoniain" zum Zug kommt. Im Prinzip ist gegen eine solche Reservierung nichts zu sagen - man muss sich nur anschauen, bei wem man die Buchung vornehmen lässt. Es ist wenig darüber bekannt, inwieweit die Reservierungsanbieter sicherstellen, dass jede Adresse tatsächlich nur einmal versprochen wird, und man kann auch nicht ausschließen, dass es da schwarze Schafe gibt, denen es herzlich egal ist, ob ein Konkurrent die gleiche Adresse schon vergeben hat. Das Gleiche gilt für die vom ehemaligen Registrierungs-Monopolisten Network Solutions vorangetriebenen Bemühungen, in Domain-Namen die Verwendung nationaler Sonderzeichen und nichtlateinischer Schriften zu ermöglichen. Der Zeitpunkt der Umsetzung ist ungewiss, und ob vorsorgliche Reservierungen wirklich zum Zuge kommen, wird sich erst dann zeigen, wenn die zusätzlichen Domainnamen wie müller.de mit echtem ü tatsächlich in die DNS-Datenbanken eingetragen werden. Die Knappheit bei Domainnamen lässt sich mit beiden Ansätzen kaum überwinden - dafür ist die Ausweitung viel zu bescheiden.
Findige Unternehmer sind deshalb auf den Ausweg verfallen, eigene DNS-Server einzurichten, über die sie Hunderte von neuen TLDs selbst ans Netz bringen. Technisch ist das kein Problem. Aber solange die dezentralen Nameserver des offiziellen DNS diese unautorisierten Nameserver nicht berücksichtigen, sind die unter den dort vergebenen Domains eingerichteten Websites für alle praktischen Zwecke unsichtbar. Um sie zu finden, muss man sich über besondere Zugänge ins etz einwählen oder eine Zusatzsoftware installieren - keine guten Voraussetzungen für eine massenhafte Nutzung. Auch Juristen könnten die Versuche, den Namensraum zu vergrößern, scheitern lassen. Unternehmen und Organisationen, die das Internet zunächst verschlafen hatten, versuchen, alle Adressen, in denen Teile ihres Firmennamens oder ihrer Markenzeichen vorkommen, nachträglich für sich zu reklamieren. So macht der Süßwarenhersteller Ferrero ("Kinder-Schokolade") dem Inhaber von www.kinder.at seine Domain streitig. Der Westdeutsche Rundfunk hat die amerikanische Bank Warburg-Dillon-Reed gerichtlich gezwungen, wdr.com abzutreten, und dem Journalisten Wolf Dieter Roth wdr.org weggeklagt. Nach der Freigabe waren die Funker wohl zu lahm - ein Schweizer schnappte sich die Adresse für seine höchst informative World-Domain-Rights-Homepage. Die Weiterentwicklung des Namensraumes liegt längst nicht mehr allein bei den Institutionen des Netzes. Setzen sich die Juristen durch, lässt sich der Namensraum kaum mehr erweitern - wenn zu viele Wörter, quer durch alle TLDs nur einem Inhaber zugesprochen werden.
-
Böttger, D.: Mit den eigenen Fotos Geld verdienen : Hobbyfotografen können ihre Bilder über Microstock-Agenturen verkaufen (2011)
0.07
0.06563705 = product of:
0.1312741 = sum of:
0.09183239 = weight(_text_:jedes in 178) [ClassicSimilarity], result of:
0.09183239 = score(doc=178,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.20877738 = fieldWeight in 178, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0234375 = fieldNorm(doc=178)
0.039441712 = weight(_text_:und in 178) [ClassicSimilarity], result of:
0.039441712 = score(doc=178,freq=24.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.25465882 = fieldWeight in 178, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=178)
0.5 = coord(2/4)
- Content
- "Auf so mancher Festplatte schlummern wahre Schätze. Denn das ein oder andere Urlaubsfoto kann mit Hilfe so genannter Microstock-Agenturen in bare Münze verwandelt werden. Dabei muss es nicht zwangsläufig ein Palmenstrand sein, auch Aufnahmen vom letzten Waldspaziergang lassen sich verkaufen. Echte Verkaufsschlager sind symbolische Bilder, die sich möglichst universell einsetzen lassen, wie eine Tasse dampfenden Kaffees oder Finger auf einer Computertastatur beziehungsweise Aufnahmen von Personen in allen Lebenslagen. Viele solcher Motive finden sich bereits irgendwo auf einem Datenträger und warten nur darauf, verkauft zu werden. Bilder selbstkritisch betrachten Dies übernehmen so genannte Microstock-Agenturen. Gegenüber einer klassischen Bildagentur bieten Microstock-Agenturen ihre Bilddaten zu günstigen Konditionen über Online-Plattformen an. Bilder in kleiner Internetauflösung gibt es bereits ab einem Euro. Je größer das jeweilige Bild dann bestellt wird, desto höher der Preis. Diese Preismodelle setzen vor allem auf Masse und weniger auf Exklusivität. Das bedeutet auch, dass jeder Interessierte seine Bilder einer Microstock-Agentur anbieten kann. In der Regel sind dazu erstmal drei bis fünf digitale Dateien notwendig, die zeigen, dass die technischen Aspekte und somit die Bildqualität stimmt. Vier Megapixel Auflösung sollten die Dateien mindestens bieten und am besten mit einer hochwertigen Kompaktkamera oder noch besser mit einer digitalen Spiegelreflex fotografiert werden. Je mehr Megapixel die Datei bietet, umso besser, denn dann kann das Bild auch in größeren Formaten zu höheren Preisen verkauft werden. Kleine Dateien mit Hilfe von Bildbearbeitungsprogrammen künstlich hochzurechnen bringt keinen Vorteil, da darunter die Bildqualität erheblich leidet.
Da die ersten Bilddaten von den Kontrolleuren der Bildagentur besonders kritisch unter die Lupe genommen werden, sollte man unbedingt seine besten Bilder einreichen. Scheitern alle diese Bilder bei der Qualitätskontrolle, braucht man es mit dem Rest erst gar nicht versuchen. Bei der Auswahl der Motive sollte man vor allem selbstkritisch seine Bilder betrachten und vor allem auch jemand anderen nach seiner Meinung fragen. Alle Microstock-Agenturen bieten auf ihren Seiten zudem Informationen, welche Motive gesucht werden und welche bereits in ausreichender Zahl vorhanden sind. Sonnenuntergänge, Windräder und Fotos von Schnittblumen wie Rosen, Tulpen oder Gerbera haben so gut wie keine Chance aufgenommen zu werden - auch wenn sie technisch noch so perfekt fotografiert wurden.
Richtig verschlagworten Wenn es die ersten Motive durch die Qualitätskontrolle geschafft haben, können erste Bilder über eine spezielle Internetseite in die Bilddatenbank der Microstock-Agentur hochgeladen werden. Danach geht es an den arbeitsintensiven Teil, nämlich deren Verschlagwortung. Dabei werden die Bilder in Kategorien einsortiert und mit Stichwörtern zum Bildinhalt versehen. Diese helfen anschließend den potenziellen Käufern bei der Bildersuche. Somit kommt der Verschlagwortung eine ganz zentrale Rolle zu. Nur wer die richtigen Begriffe mit seinem Bild verknüpft und das Motiv eindeutig beschreibt, dessen Foto erscheint als Treffer bei der entsprechenden Suche. Nach der Verschlagwortung kommt nochmal der Bildredakteur der jeweiligen Microstock-Agentur zum Einsatz. Jedes Bild wird vor der Freischaltung auf Motivauswahl, Qualität und entsprechende Verschlagwortung überprüft. Das kann dann in der Praxis auch mal ein paar Tage dauern, bis die Bilder dann zum Verkauf freigegeben werden. Vom Verkaufserlös erhält der Fotograf dann einen prozentualen Anteil, der von Agentur zu Agentur variiert und von verschiedenen Faktoren abhängig ist. Bei der Bildagentur Fotolia beispielsweise rangiert der Anteil zwischen 33 Prozent vom Verkaufspreis für Einsteiger bis zu 80 Prozent für etablierte Fotografen, die erfolgreich eine Vielzahl exklusiver Motive anbieten. Ein und dasselbe Bild kann auch über mehrere Microstock-Agenturen angeboten werden. Allerdings sinkt dann der prozentuale Anteil am Erlös. Generell gilt: Ausprobieren kostet nichts. Die Agenturen finanzieren sich in der Regel über die Verkaufserlöse. Die Anmeldung ist kostenlos."
-
Annan, K.A.: ¬Die Vereinten Nationen wollen das Internet nicht kontrollieren (2005)
0.06
0.06467754 = product of:
0.12935507 = sum of:
0.076527 = weight(_text_:jedes in 166) [ClassicSimilarity], result of:
0.076527 = score(doc=166,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.17398116 = fieldWeight in 166, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.01953125 = fieldNorm(doc=166)
0.052828066 = weight(_text_:und in 166) [ClassicSimilarity], result of:
0.052828066 = score(doc=166,freq=62.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.34108895 = fieldWeight in 166, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=166)
0.5 = coord(2/4)
- Content
- "Das Hauptziel des "Weltgipfels zur Informationsgesellschaft", der nächste Woche in Tunis stattfinden wird, ist es, sicherzustellen, diss die armen Länder voll von den Informations- und Kommunikationstechnologien profitieren können, die ihre wirtschaftliche und soziale- Entwicklung verbessern können. jetzt, da der Gipfel näher rückt, gibt es eine wachsende Zahl von Stimmen, die über di' es Ereignis falsch informieren: Eine falsch Vorstellung ist, dass die Vereinten Nation das Internet "übernehmen" oder kon- trolli ren wollen. Nichts' liegt ferner der Wahrheit als diese Behauptung. Die UN wollen lediglich die globale Verbreitung gewährleisten, und diese Anstrengung steht im Zentrum unserer Aktivitäten beim Gipfel. Es wird bei diesem Gipfelstarke Stimmen geben, die fordern, das Internet zu schützen. Das Internet ist in der kurzen Zeit, seit der es besteht, zu einem Mittel des dramatischen und revolutionären Wandels geworden. Zum Beispiel im Gesundheits- und Erziehungswesen, aber auch im Journalismus und der Politik. Bei unserer eigenen Arbeit innerhalb der UN haben wir bisher nur einen kleinen Einblickerhalten, welche Vorteile dieses Medium erbringen kann: Opfern Von Katastrophen kann schneller Hilfe geleistet werden. Arme Menschen in abgelegenen Gebieten können lebensrettende medizinische Informationen erhalten und Menschen, die unter einer repressiven Regie- rung leiden müssen, können sich Zugang zu unzensierten Informationen verschaffen und über ihre Lage andere informieren. Es gibt auch legitime Bedenken wegen des Missbrauchs des Internets, zum Beispiel durch Terroristen oder Rechtsextreme oder wegen der Verbreitung von Pornografie. Den Cyberspace zu zensieren, die technischen Möglichkeiten zu begrenzen oder ihn einer Regierungskontrolle zu unterziehen, hieße, dass wir einem- der größten Mittel des Fortschritts unseren Rücken zuwenden würden. Das Internet zu verteidigen, bedeutet die Freiheit selbst zu verteidigen. Bisher wird mit Dingen wie Spam und Cyberkrimi-nalität in einer oft sehr unterschiedlichen Art umgegangen. Die Infrastruktur des Internets wird in einer informellen, aber effektiven Weise zwischen verschiedenen Institutionen gemanagt. Unternehmen, Zivilgesellschaft, und die akademischen, und technikorientierten Gruppen nehmen dabei eine Führungsposition ein. Die Entwicklungsländer finden es schwierig, all diesen Prozessen zu folgen, und fühlen sich, was die Kontrolle und Struktur des Internets betrifft, zunehmend ausgeschlossen.
Den Vereinigten Staaten gebührt unser Dank dafür, dass sie das Internet entwickelt und es der Welt verfügbar gemacht haben. Aus historischen Gründen besitzen die Vereinten Nationen die höchste Autorität über einige der wichtigsten Web-Ressourcen und viele sagen, dass diese Autorität künftig mit der internationalen Gemeinschaft geteilt werden sollte. Die USA, die ihre Kontrollaufgaben bisher fair und ehrenhaft unternommen haben, erkennen selbst an, dass andere. Regierungen legitime Bedenken haben. Es wird auch anerkannt, dass in diesem Bereich mehr internationale Aufgabenteilung nötig ist. Es geht dabei um die Zukunft, wenn das Wachstum des Internets vor allem in den Entwicklungsländern dramatisch zunehmen wird. Zurzeit erleben wir den Beginn eines Dialogs zwischen zwei verschiedenen Kulturen: die Gemeinschaft der Internetnutzer mit ihren informellen und basisorientierten Entscheidungsprozessen und die formalere, strukturiertere Welt der Regierungen und internationalen Organisationen. Das Internet ist für alle Volkswirtschaften und Verwaltun- gen von so großer Bedeutung, dass es sehr naiv wäre zu glauben, dass Regierungen damit nicht irgendein Interesse verfolgen würden. Sie müssen in der Lage sein, ihre Internetpolitik richtig gestalten und sie mit der Gemeinschaft der Nutzer koordinieren zu können. Aber Regierungen alleine können diese Regeln nicht setzen. Sie müssen lernen, mit nichtstaatlichen Partnern zusamenzuarbeiten. Sie sind es, die das Internet aufgebaut und zudem gemacht haben, was es heute ist. Sie werden auch treibende Kraft sein, wenn es um die künftige Expansion und Innovation geht.
Beim vorherigen Weltgipfel, vor zwei Jahren in Genf, führten die Diskussionen über Regelursgenbeim Internetin eine Sackgasse. Die UN-Mitgliedsstaaten hatten mich des halb aufgefordert, eine Arbeitsgruppe einzusetzen, um dieses Thema näher zu untersuchen. Diese Arbeitsgruppe hat ihre Ergebnissein einem Bericht publiziert, die zwar ihre Sicht der Dinge wiedergibt, aber nicht die der UN. Sie schlägt die Gründung eines "neuen Raums für Dialog" vor, ein Forum, das alle Beteiligten zum Informationsaustausch. zusammenbringt, indem schwierige Themen diskutiert werden, das aber keine Entscheidungskraft besitzt. Die Arbeitsgruppe hat auch für zukünftige Kontrollmaßnahmen Vorschläge gemacht. Manche haben mehr, manche weniger Bezug zu den UN und auch der Grad an Beteiligung der Regierungen ist unterschiedlich. In keinem wird gefordert, dass die UN die Rolle einnehmen sollte, die bisher die technischen Institutionen haben, die das Internet betreiben. In keinem wird gefordert, eine neue UN-Behörde zu schaffen, und einige wollen, dass die UN in diesem Bereich überhaupt keine Rolle spielen soll. Jeder erkennt die Notwendigkeit für internationale Beteiligung an der Diskussion über die Kontrolle des Internets: Uneinigkeit, herrscht darüber, wie sie erreicht werden kann. Wir sollten die Angst vor einem "UN-Design" des Internets nicht unnötig steigern. Manche wollen damit einen neuen Angriff auf die UN starten, aber die Argumente greifen nicht. Die UN wollen ausschließlich Dialog und Konsens zwischen allen Beteiligten fördern. Letztendlich wollen wir erreichen, dass alle Menschen an den Vorteilen des Internets teilhaben können. Bei Treffen im Vorfeld des Gipfels wurde das Menschenrecht bekräftigt, "Informationen und Ideen durch jedes Medium und über alle Grenzen hinweg zu nutzen, zu empfangen und zu verbreiten". Ich fordere alle Teilnehmer am Gipfel auf die digitale Kluft zu schließen. Sie müssen bereit sein, eine offene und alle beteiligende Informationsgesellschaft zu schaffen, die die Menschen bereichert, und dafür zu sorgen, dass dieses bemerkenswerte Geschenk voll vom 20. in das 21. Jahrhundert übernommen werden kann."
-
Pawlak, A.: Durch das Internet mit Links (2002)
0.06
0.06391879 = product of:
0.12783758 = sum of:
0.09183239 = weight(_text_:jedes in 1558) [ClassicSimilarity], result of:
0.09183239 = score(doc=1558,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.20877738 = fieldWeight in 1558, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0234375 = fieldNorm(doc=1558)
0.036005188 = weight(_text_:und in 1558) [ClassicSimilarity], result of:
0.036005188 = score(doc=1558,freq=20.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.2324706 = fieldWeight in 1558, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1558)
0.5 = coord(2/4)
- Content
- "Wie findet der einzelne Nutzer in der "allwissenden Müllhalde" Internet genau die verlässliche Information, die er sucht? Immerhin stehen dem wissbegierigen User auf über 36 Millionen Web-Angeboten (Sites) mehr als vier Milliarden Einzelseiten zur Verfügung. Deshalb gibt er meist in ein eigens dafür konzipiertes Internet-Programm, eine so genannte Suchmaschine, eine Kombination von Suchwörten ein und erhält eine Liste von Webseiten, in denen diese Wörter vorkommen. Nur allzuoft enthält diese Liste einen hohen Anteil Unbrauchbares, denn aus dem bloßen Vorhandensein eines Wortes geht nicht hervor, ob die Webseite zu dem zugehörigen Begriff etwas zu sagen hat. Mehr Sinn steckt schon in den in Hyperlinks, anklickbaren Verweisen, die der Autor der Webseite selbst in diese eingefügt hat. Das Web lässt sich als ein riesiges Netz aus Knoten auffassen, die durch die Hyperlinks miteinander verknüpft sind. Spezielle Computerprogramme sind in der Lage, in diesem unübersehbaren, zufällig erscheinenden Fadengewirr eine gewisse Ordnung zu finden (Spektrum der Wissenschaft 8/1999, S.44). Dabei erweist sich die Hyperlink-Struktur oftmals als ein deutlicheres Kennzeichen für die inhaltliche Verwandtschaft von Webseiten als noch so geschickt gewählte Suchbegriffe. Alle Verknüpfungen im gesamten Internet unter die Lupe zu nehmen scheitert jedoch an ihrer riesigen Menge. Deshalb haben Gary Flake und seine Kollegen vom Forschungsinstitut der amerikanischen Firma NEC in Princeton einen eiwas anderen Weg gewählt. Sie beschränken sich nicht auf eine vorgegebene Menge von Seiten, sondern wählen zunächst eine aus, die als Keimzelle für eine so genannte Commu nity (Gemeinschaft) dient. Kandidaten für die Community sind zunächst die Webseiten, die mit der Keimzelle direkt oder indirekt über (einoder ausgehende) Hyperlinks verknüpft sind. Durch einen raffinierten Algorithmus wird dann bestimmt, welche Webseiten endgültig zur Community gehören: Per Definition ist jedes Mitglied einer Community mit mehr Mitgliedern als Nicht-Mitgliedern verbunden. Das Computer-Programm der NEC-Forscher identifiziert somit ausgehend vom gewählten Startpunkt die Gemeinschaft, die sich selbstorganisiert über die Hyperlinks im Internet gebildet hat (IEEE Computer, Bd. 35, S. 66, 2002). Ein Beispiel für diese Methode findet sich unter http://webselforganization.corn/example.html. Dort hat der Algorithmus der NEC-Forscher einer Internetseite mit Themen zum 11. September eine Gemeinschaft von mehr als 6000 weiteren Seiten zugeordnet - nur auf grund der Verknüpfungen über Hyperlinks und ohne Zuhilfenahme von Textinformationen. Innerhalb dieser Community führt das Suchwort "why" nun sofort auf Seiten, die sich mit der Frage "Why did it happen and why did the buildings collapse?" beschäftigen. Auch die ansonsten mehrdeutigen Begriffe "bin" und "laden" führen nicht mehr in die Irre, sondern auf Informationen über Usama Bin Laden. Filtersoftware zur Abwehr pornografischer oder anderer anstößiger Web-Inhalte könnte mit dem Community-Algorithmus noch treffsicherer werden. Wie sich herausstellt, ist eine Pornografie-Seite nicht unbedingt am Vorhandensein gewisser Reizwörter zu erkennen, die von den Betreibern vielleicht mit Fleiß vermieden werden, sondern weit zuverlässiger daran, dass sie auf andere Pornografie-Seiten verweist oder auf sie von diesen verwiesen wird. Auch sind effektivere Suchmaschinen denkbar, bei denen sich text- und linkbasierte Methoden geschickt ergänzen.
Allerdings läuft man im kurzlebigen Internet oft ins Leere. Was nützt der schönste Fund, wenn die zugehörige Internetseite nicht mehr existiert? John Markwell und David Brooks von der Universität von Nebraska in Lincoln haben das bei den von ihnen entwickelten Web-basierten Kursen zur Biochemie (http: //dwb.unl.edu/Teacher/NSF/C10/C10.html, -C11/C11.html und -C08/C08.html) schmerzlich zu spüren bekommen: Häufig fielen Hyperlinks aus - als würden aus einem Lehrbuch immer wieder Seiten ausgerissen. Einen vorläufigen Bericht dazu haben Markwell und Brooks unter http://www-eiass.unl.edu// biochem/url/broken_links.html veröffentlicht. Ihr Ergebnis: Hyperlinks haben eine Halbwertszeit von etwa 55 Monaten. Nach dieser Zeit sind somit die Hälfte von ihnen "zerbrochen", nach 13 Monaten schon 16,5 Prozent. Dabei erwiesen sich die Links von Regierungsstellen (Kürzel .gov) mit nur vier Prozent Verlust als einigermaßen robust, solche von Bildungsstätten (.edu) mit 17,5 Prozent als besonders kurzlebig. Diese Resultate haben die Begeisterung von Markwell und Brooks für die Verwendung von Hyperlinks erheblich gedämpft. Der Psychologe Ulf-Dietrich Reips von der Universität Zürich hat das Problem bereits seit längerem erkannt und für sich gelöst. Der Spezialist für psychologische Web-Experimente verweist nicht nur auf die Experimente seiner Kollegen, sondern archiviert sie gleich komplett unter der Adresse http://130.60. 239.96/wexlist/, um sie so langfristig verfügbar zu halten.
-
Beuth, P.: Sternzeichen Google (2008)
0.06
0.06336692 = product of:
0.12673384 = sum of:
0.076527 = weight(_text_:jedes in 3298) [ClassicSimilarity], result of:
0.076527 = score(doc=3298,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.17398116 = fieldWeight in 3298, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.01953125 = fieldNorm(doc=3298)
0.05020684 = weight(_text_:und in 3298) [ClassicSimilarity], result of:
0.05020684 = score(doc=3298,freq=56.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.32416478 = fieldWeight in 3298, product of:
7.483315 = tf(freq=56.0), with freq of:
56.0 = termFreq=56.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3298)
0.5 = coord(2/4)
- Content
- "Basti mag Emails nicht besonders. Sie sind ihm zu langsam, weil man immer so lange warten muss, bis sie beantwortet werden. Mit seinen Freunden tauscht sich der 17-Jährige nur über den Instant Messenger ICQ aus. Was für Mittdreißiger zum zentralen Kommunikationsmittel geworden ist, sehen Jugendliche längst als veraltet an: Schon 2005 hat eine Studie des "Pew Internet & American Life Project" ergeben, dass Jugendliche nur noch Emails schreiben, wenn sie mit Erwachsenen kommunizieren. Urs Gasser, Professor an der Universität St. Gallen, kennt zahllose Jugendliche wie Basti. Er nennt sie Digital Natives. Sie sind hineingeboren in eine Welt mit Internet und Handy, mit MP3 und Flatrate. Ein Leben ohne Google kennen sie nicht. Zusammen mit Professor John Palfrey erforscht Gasser die Digital Natives am Berkman Center for Internet and Society in Harvard. Darüber haben die beiden ein Buch geschrieben, es heißt "Generation Internet". US-Experten preisen es als Grundlagenwerk und Pflichtlektüre für Eltern und Lehrer. Denen will das Buch helfen, die Digital Natives besser zu verstehen. Es soll erklären, wie sie lernen, arbeiten und kommunizieren, und wie sie sich dabei von anderen Generationen unterscheiden. "Es ist der Anfang einer Konversation über die Chancen und Herausforderungen, die mit dieser neuen digitalen Welt verbunden sind", sagt Gasser im Gespräch mit der FR. "Es ist geschrieben für jene Generationen, die nicht den gleichen Einblick haben in die Welt des Internets."
Identität aus dem Netz Es ist eine Welt, in der sich Zwölftklässler wie Basti mit traumwandlerischer Sicherheit bewegen: Etwa vier Stunden lang ist er nach der Schule jeden Tag im Netz, doppelt so lange wie der Durchschnittsdeutsche. Sein Handy ist immer an, er ist rund um die Uhr erreichbar. Er besitzt etwa 30 CDs, aber zehnmal so viele Alben im MP3-Format. Gegen Bezahlung bastelt er in seiner Freizeit Webseiten für andere Leute. Basti hat noch nie einen Computer zur Reparatur geben müssen. Einen neuen Hauptprozessor einzusetzen oder eine passende Grafikkarte zu finden, ist für ihn ein Klacks. Seit er zwölf ist, schraubt er an seinen Rechnern herum und behebt alle technischen Probleme selbst. Er kauft kein Produkt, ohne sich vorher in Foren und Blogs die Meinungen anderer dazu angesehen zu haben. Jedes seiner Referate beginnt mit der Recherche bei Google und Wikipedia, gefolgt von Universitäts-Webseiten. "Für wirklich wichtige Arbeiten gehe ich auch in die Bibliothek", sagt er. Viele Ältere haben solche Verhaltensweisen adaptiert. Gasser und Palfrey nennen sie Digital Immigrants, eingewandert aus der analogen in die digitale Welt. Doch sie werden nie ganz wie die Natives leben, weil sie im Gegensatz zu denen nicht schon mit digitalisierten Fotos, Tagebüchern und Freundschaften aufwachsen, schreiben die Professoren. Nicht nur ihre technische Nutzung, sondern auch der Drang, ihre Identität vor allem im Internet zu entwickeln, unterscheide die Digital Natives von ihren Vorgängern. Wer sich mal durch einige MySpace-Profile klickt und mit atombusigen GoGo-Girl-Avataren in Second Life spricht, weiß, was die Autoren meinen. Auf MySpace wimmelt es nur so von Profilfotos, die auch gut auf ein Plattencover passen würden. Fast alles ist gestellt, und zwar auf maximal cool. Und hinter den aufreizenden Model-Avataren stecken manchmal schüchterne 13-jährige Mädchen. So wie sich die Digital Natives darstellen, so wollen sie wahrgenommen werden. Pseudonyme wie "darkangel" oder "electrogirl" drücken aus, zu welcher Szene sie gehören wollen.
Ihre Tagebücher sind jedermann zugänglich und miteinander verlinkt. Gasser und Palfrey werfen den Digital Natives deshalb auch vor, mitunter wandelnde Datenschleudern zu sein. So zitieren sie etwa aus einer Studie von 2007, nach der 41 Prozent aller Facebook-Nutzer bereit sind, einem völlig Fremden persönliche Informationen mitzuteilen. Nina aus der Nähe von Bonn war auch mal so. Früher konnte jeder sehen, in welchem Ort sie lebte, wie sie aussah und unter welcher ICQ-Nummer sie erreichbar war. "Ich habe dann ständig Nachrichten von irgendwelchen Männern bekommen, die schrieben, wie hübsch ich doch sei." Nach einem Seminar in ihrer Schule änderte sie ihre Einstellung: "Eine Polizistin kam in die Klasse und erklärte uns, wie leicht es ist, jemanden anhand solcher Daten ausfindig zu machen und zu verfolgen." Seitdem ist Nina Datenschützerin in eigener Sache. Zwar ist die 19-Jährige Mitglied sowohl bei Facebook als auch bei SchülerVZ und StudiVZ, aber ihre Profile sind nur für Freunde einsehbar, die sie selbst eingeladen hat. Links auf Blogs oder Fotoalben gibt es bei ihr auch nicht. Wer sie googelt, findet nur Einträge zu einer anderen Person mit dem gleichen Namen. Das kontrolliert sie regelmäßig selbst, indem sie nach ihrem Namen und ihren diversen Email-Adressen sucht. "Ich will nicht, dass irgendeiner sieht, die wohnt da und da, ist Single und so weiter. Ich gebe nirgendwo mein richtiges Geburtsdatum oder meine Telefonnummer an. Wer die Daten kennen soll, kennt sie", erzählt die Abiturientin.
Eltern sollen von Kindern lernen Für Gasser ist das eine gute Nachricht. Denn je mehr das Internet zur wichtigsten Informationsquelle wird, desto wichtiger wird es, mit diesen Informationen umgehen zu können. Dabei machen die Digital Natives insgesamt eine gute Figur, sei es bei der langsam zunehmenden Sensibilisierung für den Datenschutz oder der überraschend gut ausgeprägten Fähigkeit, Informationen auf ihren Wahrheitsgehalt überprüfen zu können: "Je mehr man sich im Netz bewegt, desto größer ist interessanterweise die Kompetenz im Umgang mit dem Medium", fasst Gasser entsprechende Studien zusammen. Wenn es etwa darum geht, die Qualität eines Wikipedia-Artikels zu überprüfen, nutzen diejenigen, die länger im Netz sind, diese Zeit auch, um die Quellen des Artikels zu überprüfen und zu vergleichen. Dass viele Menschen künftig praktisch rund um die Uhr online sein werden, ist Gasser und Palfrey bewusst. Schon jetzt nutzen zehn Millionen Deutsche das mobile Web, in Japan so gut wie jeder. Die Forscher fordern deshalb Eltern und Lehrer auf, "ihre Kenntnis der Digitaltechnik zu verbessern" - dabei könne ihnen niemand so gut helfen wie die Digital Natives selbst. Erwachsene bräuchten unbedingt "ein eigenes Verständnis davon, wie diese Technologie funktioniert, die unsere Kids tagein, tagaus nutzen." Vor allem diejenigen, die immer noch diese rückständigen, langsamen E-Mails schreiben."
- Footnote
- Rezensionsartikel zu: John Palfrey, John und Urs Gasser: Generation Internet: Die Digital Natives: Wie sie leben - Was sie denken - Wie sie arbeiten. München: Hanser Verlag 2008.
-
Frey, J.: Weltoffen : TCP/IP erweitert den PC-Horizont (1994)
0.06
0.061221596 = product of:
0.24488638 = sum of:
0.24488638 = weight(_text_:jedes in 154) [ClassicSimilarity], result of:
0.24488638 = score(doc=154,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.5567397 = fieldWeight in 154, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0625 = fieldNorm(doc=154)
0.25 = coord(1/4)
- Abstract
- Nachdem sich die lokale Vernetzung von PCs auf breiter Front durchsetzen konnte, steht als nächstes der Anschluß and die weltumspannende Datenautobahn an. Dort dominierte als Transportvehikel TCP/IP, das bei PCs derzeit noch zur Sonderausstattung zählt. Mit dem rasant wachsenden Informationsangebot auf dem Internet steigt gleichzeitig die Zahl der verfügbaren TCP/IP-Pakete für Windows. Mit ihnen soll der PC problemlos Anschluß an jedes UNIX-Netz finden
-
Heess, J.: Internet-Computer erleichtern Blinden, den Alltag zu bewältigen. Sehende können ihre Augen ausleihen : Surfen mit Fingerspitzengefühl (2002)
0.06
0.061015405 = product of:
0.12203081 = sum of:
0.076527 = weight(_text_:jedes in 1589) [ClassicSimilarity], result of:
0.076527 = score(doc=1589,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.17398116 = fieldWeight in 1589, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.01953125 = fieldNorm(doc=1589)
0.045503814 = weight(_text_:und in 1589) [ClassicSimilarity], result of:
0.045503814 = score(doc=1589,freq=46.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.29379928 = fieldWeight in 1589, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1589)
0.5 = coord(2/4)
- Content
- "Wenn Marita Kessler im Internet surft, braucht sie beide Hände. Und ihre Ohren. Denn sie muss hören, was sich auf dem Bildschirm abbildet. Die 47-Jährige ist seit ihrer Geburt blind. Mit Hilfe bestimmter PC-Ausstattungen kann sie den Computer fast genauso nutzen wie Sehende. Bereits seit 19 Jahren arbeitet Marita Kessler in der Firma Audiodata in Oberhausen bei Speyer - und zwar hauptsächlich am Rechner. Unter anderem beantwortet sie die Zuschriften vieler blinder und sehbehinderter Menschen, die sich an das Unternehmen wenden - in der Hoffnung, Erleichterung in hrem Alltag oder ihrer Freizeit zu finden. Der Betrieb, ,der in einem ehemaligen Schweinestall seinen Hauptsitz hat, produziert seit 1983 Computer-Hilfsmittel für Blinde und Sehbehinderte. Firmengründer Joachim Frank ist selbst sehbehindert und hat eigene Erfahrungen in seine Arbeit einfließen lassen. "Das erste Produkt war ein akustisches Blinden-Text-System, mit dem Blinde auch Texte verarbeiten können", erinnert er sich. "Doch dann haben wir gemerkt, dass es eigentlich zum viel mehr geht." Nämlich dass Menschen ohne Augenlicht, die gesamten Möglichkeiten des PCs intensiv nutzen können. Heute stellt Frank mit rund 50 sehenden und blinden Mitarbeitern 14 Hilfsmittel her - und zwar neun Geräte und fünf Programme. Beispielsweise die Software Blindows. Sie übersetzt die grafische Windows-Oberfläche in hörbare Sprache oder in die Blindenschrift Braille. Marita Kessler zeigt an ihrem Arbeitsplatz die Funktionsweise des Programms. Wenn sie ein neues Word-Dokument öffnen will, bewegt sie den Cursor mit der Tastatur auf die Menüleiste. Die Befehle werden von einer elektronischen Stimme mitgesprochen und gleichzeitig auf einer Schiene an der Unterseite der Tastatur in Braille-Schrift wiedergegeben. Marita Kessler kann also auf die Stimme hören und mit den Fingerspitzen die sich hebenden und senkenden Pünktchen spüren. Es ist für sie kein Problem, längere Texte am Schirm zu lesen oder Mails zu beantworten. Damit es flotter geht, stellt sie gerne die Geschwindigkeit der lesenden Stimme schneller - und lauscht nun einem Text, der in ungeübten Ohren so klingt, als würde man eine Kassette im Vorlauf abspielen. Doch Marita Kessler versteht jedes Wort. Nicht weniger beeindruckend ist ihre Bewegungssicherheit auf dem Monitor. Da-zu bedient sie mit beiden Händen einen vertikal sowie einen horizontal zur Tastatur angebrachten Schieber. Je nach Standort werden unterschiedliche Töne erzeugt. Leerzeilen erkennt Marita Kessler zum Beispiel an einem tiefen, Cursorzeilen an einem hellen Ton. "Die taktil-akustische Seiten-Orientierung erfasst den Bildschirm in zwei Dimensionalen", erklärt der Erfinder Joachim Frank. "Blinde wollen ja nicht, dass ihnen der Bildschirm wie ein Brief von oben nach unten vorgelesen wird, sondern sie wollen gezielt auf etwas zugreifen." Mit dem Hilfsmittel seien Blinde in der Lage, den Punkt ihrer Aufmerksamkeit selbst zu setzen. Was besonders beim Surfen im Internet sinnvoll angewendet werden kann. Denn gerade im Netz sucht man oft nach einer bestimmten Information und lässt überflüssigeTexte undLinks unbeachtet. Oder Bilder. Die sind für Blinde besonders störend, da sie nicht übersetzt werden können. An dieser Stelle erleichtert eine weitere Entwicklung Sehbehinderten das Dasein im Netz. Der Webformator blendet alle Bilder und Grafiken aus und stellt die komplette Internetseite in Textform dar. So können - wiederum mit Hilfe von Blindows - auch Links, die sich eventuell unter Icons oder Bildern verbergen, gezielt angewählt werden. Die Kombination der Hilfsmittel erlaubt dem Rennsport Fan Marita Kessler unter anderem, eine Formel-l-Seite mit Grafiken und Ergebnistabellen ohne Probleme zu lesen.
Während Blinde das Leben im Cyberspace mit diesen Hilfsmitteln nahezu mühelos bewältigen können, bietet der Alltag nach wie vor Hürden, die sie nur mit der Unterstützung von Sehenden überwinden. Halte ich gerade die Dose mit den Erbsen oder das Hundefutter in der Hand? Habe ich zwei verschiedenfarbige Socken an? Auch eine handgeschriebene Postkarte müssen sich gehbehinderte immer noch vorlesen lassen-was voraussetzt, dass gerade jemand da ist. Um die Abhängigkeit der Blinden von ihrem Umfeld zu lockern, hat sich Joachim Frank "Klickblick" ausgedacht. Die Erfindung erinnert in ihrer Kreativität ein wenig an die verrückten Schöpfzungen von Walt Disneys Daniel Düsentrieb. Im Gegensatz zu den Einfällen der Erfinder-Ente funktioniert Franks Entwicklung aber tatsächlich. Was Marita Kessler beweist. Mit Hilfe einer Webcam, die sie an ihrem PC angebracht hat, und der nötigen Software ist sie in der Lage, ein Bild der Postkarte ins Internet zu übermitteln. Daraufhin kann ihr ein so genannter Blicker, der auch online ist, die Postkarte vorlesen - entweder über eine TelefonInternet-Verbindung oder in Form eines getippten Textes. "Somit können Blinde jederzeit auf die Unterstützung Sehender zurückgreifen - auch wenn gerade keiner in der Nähe ist", erklärt Joachim Frank. Damit Klickblick funktioniert, muss sich der Blicker lediglich die entsprechende kostenlose Software herunterladen und ein Mikrofon fier die Sprachverbindung anschaffen. Der blinde Frager benötigt zusätzlich die Webcam und muss - je nach Benutzungsfrequenz - einen kleinen Be-trag bezahlen. Natürlich brauchen beide einen Internet-Zugang oder zumindest einen Zugriff zu einem lokalen Netzwerk. Derzeit ist die aktive Klickblick-Gemeinschaft überschaubar. An der Testphase des Projekts, das im vergangenen Jahr mit dem "Start Social, einem Sozialpreis der Bundesregierung, ausgezeichnet wurde, beteiligen sich seit Januar 20 Blinde und 50 Blicker. Die Gefahr ist noch groß, dass in dem Moment, in dem der Blinde sich das Auge eines anderen Users leihen möchte, keiner online ist. Deshalb will Joachim Frank mehr sehende Menschen für seine Idee begeistern. Unterstützung von den deutschen Blinden-Selbsthilfeverbänden hat er bereits: Mit ihnen hat Frank den gemeinnützigen Verein "Klickblick Plus" gegründet. Wir haben uns hauptsächlich die' Förderung von Klickblick und die internationale Verbreitung der Erfindung zum Ziel gesetzt", erklärt Frank. Gerade hat er Klickblick auf einer Messe in Los Angeles vorgestellt. "Wir, wollen keine verschiedensprachigen Netzwerke, sondern eine einzige Community einrichten, beschreibt er. Dort könne man sich mit seiner Muttersprache und seinen Zweitsprache registrieren. "Das wird dann zu einer transnationalen Brücke führen°, hofft Frank. Die Namen für Klickblick, die sind allerdings noch unterschiedlich: Auf Spanisch heißt die Entwicklung "Los ojos", die Augen Und das Englische kommt der eigentlichen: Bedeutung, nämlich der Idee des ausgeliehenen Auges, vielleiht am nächsten: Hier heißt Klickblick schlicht "See for me"."
-
Siegle, J.: Sexuelle Belästigung im Internet : Pornographie, Gewalt und Hass finden zunehmend den Weg ins Web. Jugendschützer kämpfen dagegen an (2001)
0.06
0.0553686 = product of:
0.1107372 = sum of:
0.076527 = weight(_text_:jedes in 4986) [ClassicSimilarity], result of:
0.076527 = score(doc=4986,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.17398116 = fieldWeight in 4986, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.01953125 = fieldNorm(doc=4986)
0.034210198 = weight(_text_:und in 4986) [ClassicSimilarity], result of:
0.034210198 = score(doc=4986,freq=26.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.22088107 = fieldWeight in 4986, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4986)
0.5 = coord(2/4)
- Content
- "Bilder verstümmelter Leichen und vergewaltigter Kinder, Anleitungen zum Bombenbauen oder neonazistische Hasstiraden - fast 1800 Jugendschutz verletzende Online-Angebote registrierte die Zentralstelle der Bundesländer für den Jugendschutz im Internet, Jugendschutz.net, im vergangenen Jahr in Deutschland. Für das laufende Jahr ist mit noch mehr Beanstandungen zu rechnen. "Die Zahl der Hinweise auf jugendgefährdende Internet-Inhalte nimmt ebenso stetig zu wie die Zahl der Websites", erklärt Martin Döring, Jurist bei Jugendschutz.net, gegenüber der FR. "Und nach unserem Eindruck wächst dabei die Zahl pornographischer Angebote mit Abstand am schnellsten." In 550 von den Mainzer Jugendschützern beanstandeten Fällen handelt es sich um "einfache" Pornographie, in 250 Fällen um "harte" Sex-Angebote - sprich sexuelle Handlungen mit Kindern, Tieren und Gewaltdarstellungen. Die Web-Adressen derartiger Online-Angebote werden umgehend an das Bundeskriminalamt in Wiesbaden weitergeleitet. Mehrere Hunderte der jugendgefährdenden Sites haben neonazistische Hintergründe. Schon seit 1997 durchforstet Jugendschutz.net das Internet. Zum einen recherchieren die "Cyberpolizisten" dabei selbst aktiv nach jugendgefährdenden OnlinePerversionen, zum anderen wird so genannte Crawler-Software eingesetzt, die das Netz systematisch durchsiebt. "Die meisten Hinweise bezüglich pornographischer Internet-Seiten erhalten wir jedoch über unsere Hotline", erklärt Döring. "Rechtsextreme Online-Angebote spüren wir in der Regel dagegen selbst auf." Die Betreiber pornographischer Angebote werden angeschrieben und aufgefordert, die Inhalte vom Netz zu nehmen oder abzuändern.
Bislang kamen dieser Aufforderung nach einem ersten Hinweis immerhin neun von zehn Anbietern nach. Rechtsextreme Überzeugungstäter und Anbieter mit schweren Verstößen werden umgehend an die Strafverfolgungsbehörden weitergeleitet, wonach empfindliche Strafen drohen - zumindest sofern es sich um in Deutschland beheimatete Internet-Angebote handelt." Liegen die Web-Seiten allerdings im Ausland, sind die Möglichkeiten deutlich eingeschränkt: Die deutsche Zentralstelle der Bundesländer kann dann nur die Provider bitten, entsprechende Sites im Hinblick auf die eigenen Allgemeinen Geschäftsbedingungen zu überprüfen und diese bei eventuellen Verletzungen zu entfernen. "Vor allem auf in den USA gehostete Angebote haben wir nur beschränkten -Einfluss", sagt Döring. "Das gilt insbesondere in Bezug auf rechtsextreme Inhalte, da dort das Recht auf freie Meinungsäußerung wesentlich unbeschränkter ist als in Deutschland." - Hardcore-Sex bei Whitehouse.com - Im Zuge der laxeren US-Online-Politik sind auf amerikanischen Internet-Servern Darstellungen von Gewalt, Sex oder Neonazi-Content noch einfacher zu finden. Eine vom Crimes Against Children Research Center der University of New Hampshire Ende Juni veröffentlichte Studie belegte zudem, dass im Cyber-Mutterland USA jedes fünfte Kind während des Surfens oder Chattens sexuell belästigt wird. Eine aktuelle Untersuchung des Washingtoner Pew Internet Projects unterstreicht dieses erschreckende Ergebnis mit der Feststellung, dass fast 60 Prozent der amerikanischen Internet-Kids unaufgefordert E-Mails oder sonstige Online-Mitteilungen von Unbekannten empfangen. Dennoch hat das Jugendschutz.net auch in den Vereinigten Staaten schon einige Erfolge vorzuweisen: Geocities, ein Anbieter von Speicherplatz im Internet, nahm beispielsweise mehrere Web-Seiten vom Netz, nachdem die Initiative der Bundesländer darauf hingewiesen hatte, dass Inhalte gegen die Geschäftsbedingungen des Yahoo-Ablegers verstoßen.
"Unzählige pornographische Online-Angebote sind auch nur einen Mausklick von konventionellen Angeboten entferne, moniert Döring. "Mit ähnlich lautenden WebAdressen sollen Surfer unfreiwillig auf bestimmte Sites gelockt werden." Eine vermeintliche Internet-Domain des Weißen Hauses gilt bereits seit Jahren als Paradebeispiel hierfür: Die Adresse Whitehou-se.com lädt keineswegs zu einem virtuellen Rundgang im Oval Office, sondern zu handfester Hardcore-Unterhaltung. Der US-Präsidentensitz ist dagegen unter Whitehouse.org zu erreichen. Und auch in Deutschland gibt es genügend derartig irreführender Adressen. "Diese bewusste Falschdeklarierung stößt uns ganz besonders übel auf, wenn dadurch Kinder ungewollt mit diesen Seiten konfrontiert werden", erklärt Döring. Die Jugendschützer laufen bislang vergebens Sturm gegen die bewusst irreführenden - und oftmals deutlich fragen- und auch menschenverachtenden - Domainnamen. "Es wäre absolut unmöglich, unter dem Namen Negervotzen.de beim Ordnungsamt ein Unternehmen einzutragen", kritisiert Döring. "Und dennoch können diese Begriffe problemlos als Web-Adressen registriert werden." Die Registrare argumentieren ihrerseits, nicht genügend Kapazitäten zu haben, alle Anmeldungen prüfen zu können. - Harmlose Seiten werden gesperrt - Ein Blick in die "Wois"-Datenbank der deutschen Internetverwaltung' Denic bestätigt die fast schon skandalöse Praxis der Domainvergabe: Ein Frankfurter konnte etwa die Adresse Kinderficken.de registrieren, eine Mann aus Bad Salzuflen die Domain Vergewaltigung.de. "Also was tun?", fragen beunruhigte Eltern. Verschiedene Experten raten zum Einsatz von Internet-Filterprogrammen. Die bislang erhältliche Software dient dem Ziel des Jugendschutzes jedoch nur unzureichend. Web-Filter wie CyberPatrol, CyberSitter, Cyber Snoop, Net-Nanny oder Surf-Watch zeigten in verschiedenen Testreihen erhebliche Mängel. Grund: Die Sperrung von Seiten mit "einschlägigen" Begriffen ist oft wenig treffgenau, viele problematische Angebote bleiben vom Filter verschont, harmlose wiederum werden grundlos gesperrt.
"Man muss dabei trennen zwischen Keyword-Blocking-Software wie CyberSitter und Lösungen wie CyberPatrol, die Adressen blockieren", präzisiert Döring die Filterproblematik. "Programme wie CyberSitter haben das Problem mit dem Zuviel an Sperrung, SiteBlocker laufen dagegen der rasanten Entwicklung im Internet immer hinterher." Frühere Versionen von Filterprogrammen zensierten sogar Begriffe wie "Staatsexamen" oder die englische Grafschaft Sussex. Unter die Zensur fielen teilweise auch Sites von Schulen, die die Note "befriedigend" vergeben haben. Beliebte Filterop'fer sind auch Angebote zur Sexualaufklärung. In der Nazi-Online-Szene werden außerdem häufig Codes verbreitet, die sich mit Filtern kaum erfassen lassen. Besonders beliebt ist etwa die Ziffer 88: Die beiden Zahlen stehen hierbei für den achten Buchstaben des Alphabets, also zweimal "H" als Abkürzung für "Heil Hitler". In jüngerer Vergangenheit wurden zudem auch die Indexlisten von Filteranbietern gehackt - so geschehen etwa Anfang des Jahres bei der Firma Surfcontrol aus Massachussetts, dem Anbieter von Cyber Patrol. Und auch im World Wide Web selbst kursieren massenweise Anleitungen zum Cracken der Cybersiebe: "Die vollmundigen Versprechungen der Hersteller nach einem vollständigen Schutz entsprechen nicht unseren Beobachtungen", kritisiert auch Döring. "Filter können eine flankierende Maßnahme sein, sie können die elterliche Aufsicht aber nicht ersetzen."
-
Höhn, S.: Stalins Badezimmer in Wikipedia : Die Macher der Internet-Enzyklopädie diskutieren über Verantwortung und Transparenz. Der Brockhaus kehrt dagegen zur gedruckten Ausgabe zurück. (2012)
0.05
0.053997904 = product of:
0.10799581 = sum of:
0.076527 = weight(_text_:jedes in 3171) [ClassicSimilarity], result of:
0.076527 = score(doc=3171,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.17398116 = fieldWeight in 3171, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.01953125 = fieldNorm(doc=3171)
0.031468805 = weight(_text_:und in 3171) [ClassicSimilarity], result of:
0.031468805 = score(doc=3171,freq=22.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.20318104 = fieldWeight in 3171, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3171)
0.5 = coord(2/4)
- Abstract
- An diesem Donnerstag beginnt in Berlin eine internationale Konferenz der Wikimedia Foundation, Betreiberin der Internet-Enzyklopädie Wikipedia. Die Macher diskutieren über Verantwortung und Transparenz. Der Brockhaus kehrt dagegen zur gedruckten Ausgabe zurück.
- Content
- "Sie galt international als die renommierteste Enzyklopädie, man nannte sie auch die Königin unter den Nachschlagewerken. Seit 1768 enthielt die Encyclopaedia Britannica das gesammelte Wissen der Menschheit, zuletzt waren es 33 000 Seiten in 32 Bänden. Doch nun ist Schluss. Vor zwei Wochen gab der Verlag mit Sitz in Chicago bekannt: Die Encyclopaedia Britannica wird es in gedruckter Form nicht mehr geben. Nach 244 Jahren geht eine Ära zu Ende. Schon im Jahr 2008 hatte der Brockhaus, das deutsche Pendant des englischsprachigen Nachschlagewerks, vor dem Internet kapituliert. Unter dem Eindruck dieser Nachricht beginnt an diesem Donnerstag in Berlin eine internationale Konferenz der Wikimedia Foundation, Betreiberin der Internet-Enzyklopädie Wikipedia. Aus aller Welt kommen Autoren der Plattform für drei Tage in einem Wilmersdorfer Konferenzzentrum zusammen. Auch der Mitbegründer von Wikipedia, der Amerikaner Jimmy Wales, wird dabei sein. Es geht um alltägliche Probleme der Community, um technische Feinheiten, aber auch um Strategien und die Frage: Wie geht es weiter mit der Enzyklopädie? Die Wikipedianer wissen, dass Ihnen eine immer größere Verantwortung zukommt. Denn den Hauptgrund für das Ende der altehrwürdigen Standardwerke liefert zweifellos Wikipedia. Das kostenlose, immer und überall frei zugängliche Online-Lexikon hat sie aus Sicht vieler Nutzer obsolet gemacht. "Die Verantwortung ist schon gewaltig", sagt Pavel Richter, Chef von Wikimedia Deutschland. "Aber wir werden ihr gerecht, denn wir sind enorm offen und transparent. Jeder kann sehen, was in der Wikipedia passiert, jeder kann mitmachen."
Anfänglich belächelt, immer wieder kritisiert vor allem für Fehleranfälligkeiten, ist das Vertrauen in die Wikipedia mittlerweile deutlich gewachsen. Dennoch stellt sich die Frage: Kann die Online-Wissenssammlung, zusammengestellt zum großen Teil von Freiwilligen, bei denen es nicht auf formales Expertentum ankommt, die Nachfolge von Brockhaus und Co. antreten? Findet hier nicht ein massiver Paradigmenwechsel statt? Die Zeit der Aufklärung "Wenn man sich die Geschichte der Encyclopaedia Britannica anschaut, wird man sehen, dass sie in der Zeit der Aufklärung einen ähnlichen Anfang hatte", sagt Karsten Weber, Professor für Technikwissenschaften an der Brandenburgischen Technischen Universität Cottbus. "Ziel war es, Leute die sich auskannten, zu möglichst vielen Wissensgebieten schreiben zu lassen. Da ging es um Kenntnisse, nicht um den Doktortitel." Erst später, sagt Weber, seien die Lexika professionalisiert worden. Wikipedia sei eine Rückbesinnung auf die Wurzeln. Auf eine Zeit also, in der das Wissen dem exklusiven Zugriff der Obrigkeit entzogen wurde. "Wikipedia ermöglicht heute eine völlig neue und partizipative Form des Lernens ohne die Interpretationsmacht irgendwelcher Institutionen", sagt Peter Pawlowsky, Professor für Wirtschaftswissenschaften an der TU Chemnitz. Pawlowsky sitzt im Beirat des "Leonardo European Corporate Learning Award". Der Preis ging 2011 an Jimmy Wales. Am Rande der Berliner Konferenz wird er morgen an den Wikipedia-Gründer übergeben. Dem Leonardo-Beirat ging es bei der Vergabe vor allem um die Auswirkungen von Wikipedia auf den Zugang von Wissen innerhalb von Unternehmen. Immer mehr Firmen nutzen die Plattform für die Erstellung interner Wikis.
Basisdemokratisches Wissen "Es gibt ein neues Verständnis von innerbetrieblichem Lernen", sagt Pawlowsky. "Durch Wikipedia wird es basisdemokratischer, jeder Beteiligte hat mit seiner Perspektive eine Stimme." Das sei auch nötig, denn nur so könne die zunehmende Komplexität der Wirklichkeit bewältigt werden. Wikipedia, so liest sich die Diktion der Preisinitiatoren, ist nicht nur demokratisch, sie dient auch der Effizienzsteigerung. Falsche Einträge in Wikipedia haben in der Vergangenheit dennoch für Aufsehen gesorgt. Vergangenes Jahr etwa offenbarte ein Autor der Berliner Zeitung, den Eintrag über die Friedrichshainer Karl-Marx-Allee zwei Jahre zuvor gefälscht zu haben, um Wikipedia zu testen. Zu DDR-Zeiten, hatte er dort geschrieben, sei die Straße "Stalins Badezimmer" genannt worden. Der Fantasiebegriff blieb nicht nur zwei Jahre in der Wikipedia, er wurde auch von anderen Medien übernommen. Einige Kritiker fühlten sich damals bestätigt: Der Wikipedia sei nicht zu trauen. "Wie jedes offene System kann auch Wikipedia missbraucht werden", sagt Pavel Richter. "Da sind wir als Community gefordert, dass so etwas entdeckt und rückgängig gemacht wird." Der Nutzer müsse sich darüber im Klaren sein, dass er sich nicht allein auf Wikipedia verlassen kann. "Man sollte nie nur einer Quelle vertrauen", sagt Richter. Karsten Weber sieht das ähnlich: "Es gibt in der Wikipedia eine ganze Menge Mist. Aber machen wir uns keine Illusionen. Das gilt auch für die Wissenschaft." Zudem hätten mehrere Studien herausgefunden, dass die Fehlerquote bei Wikipedia kaum höher sei als etwa beim Brockhaus.
- Footnote
- Die Druckausgabe war teuer Die Wikipedia ist ein kostenloses Online-Lexikon, an dem jeder als Autor mitwirken kann. Die Plattform wurde 2001 gegründet. Sie existiert in 280 Sprachen. Die englische Version enthält fast vier Millionen Artikel, die deutsche etwa 1,4 Millionen. Weltweit haben sich schon weit über eine Million Nutzer beteiligt. Der Brockhaus galt lange Zeit als das wichtigste deutsche Nachschlagewerk. 1796 erschien ein Vorläufer der ersten Auflage. 2008 wurde entschieden, die rund 2800 Euro teure Druckausgabe einzustellen. Die Nachfrage war zu stark eingebrochen. Spätestens 2015 soll es nun doch ein Comeback geben. Die Encyclopaedia Britannica gilt als Produkt der schottischen Aufklärung. Ihre aktuelle Auflage kostet rund 1500 Euro. Zuletzt wurden nur noch 8000 Exemplare verkauft. 1990 waren es noch 120.000. Die Encyclopaedia wird es künftig nur noch online geben, zu einem Abo-Preis von 70 Euro pro Jahr. Zu den Themen, die die Wikipedianer in Berlin diskutieren, gehört vor allem die noch sehr einseitige demografische Durchmischung der Autoren. Vor allem Frauen sind mit einem Anteil von nur neun Prozent stark unterrepräsentiert - weltweit. Laut Pavel Richter ist der typische Autor männlich, gut gebildet und zwischen 20 und 30 Jahren alt. "Wir haben uns für dieses Jahr vorgenommen, zu untersuchen woran es liegt, dass Frauen sich kaum beteiligen", sagt er. Eine erste Vermutung sei die stark männlich geprägte Diskussionskultur. Auch Senioren und Menschen mit Migrationshintergrund gibt es unter den Autoren kaum. Die Wikimedia Foundation plant deshalb Projekte zum Beispiel in Seniorenbildungseinrichtungen.
-
Devadason, F.J.; Intaraksa, N.; Patamawongjariya, P.; Desai, K.: Faceted indexing application for organizing and accessing internet resources (2003)
0.05
0.048064314 = product of:
0.19225726 = sum of:
0.19225726 = weight(_text_:headings in 4966) [ClassicSimilarity], result of:
0.19225726 = score(doc=4966,freq=14.0), product of:
0.3388535 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06983213 = queryNorm
0.5673757 = fieldWeight in 4966, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.03125 = fieldNorm(doc=4966)
0.25 = coord(1/4)
- Abstract
- Organizing and providing access to the resources an the Internet has been a problem area in spite of the availability of sophisticated search engines and other Software tools. There have been several attempts to organize the resources an the WWW. Some of them have tried to use traditional library classification schemes such as the Library of Congress Classification, the Dewey Decimal Classification and others. However there is a need to assign proper subject headings to them and present them in a logical or hierarchical sequence to cater to the need for browsing. This paper attempts to describe an experimental system designed to organize and provide access to web documents using a faceted pre-coordinate indexing system based an the Deep Structure Indexing System (DSIS) derived from POPSI (Postulate based Permuted Subject Indexing) of Bhattacharyya, and the facet analysis and chain indexing System of Ranganathan. A prototype software system has been designed to create a database of records specifying Web documents according to the Dublin Core and input a faceted subject heading according to DSIS. Synonymous terms are added to the standard terms in the heading using appropriate symbols. Once the data are entered along with a description and URL of the Web document, the record is stored in the system. More than one faceted subject heading can be assigned to a record depending an the content of the original document. The system stores the surrogates and keeps the faceted subject headings separately after establishing a link. Search is carried out an index entries derived from the faceted subject heading using chain indexing technique. If a single term is input, the system searches for its presence in the faceted subject headings and displays the subject headings in a sorted sequence reflecting an organizing sequence. If the number of retrieved headings is too large (running into more than a page) then the user has the option of entering another search term to be searched in combination. The system searches subject headings already retrieved and look for those containing the second term. The retrieved faceted subject headings can be displayed and browsed. When the relevant subject heading is selected the system displays the records with their URLs. Using the URL the original document an the web can be accessed. The prototype system developed under Windows NT environment using ASP and web server is under rigorous testing. The database and indexes management routines need further development.
-
Quick queries (1996)
0.05
0.045416504 = product of:
0.18166602 = sum of:
0.18166602 = weight(_text_:headings in 4735) [ClassicSimilarity], result of:
0.18166602 = score(doc=4735,freq=2.0), product of:
0.3388535 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06983213 = queryNorm
0.53611964 = fieldWeight in 4735, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.078125 = fieldNorm(doc=4735)
0.25 = coord(1/4)
- Abstract
- Provides a list of 19 WWW and gopher sites from which answers to ready reference queries may be obtained. These are arranged under the following headings: ready made collections; date and time; weights and measures; flag wavers; foreign currency; state by state; the elements; and case and tense
-
Auer, N.J.: Bibliography on evaluating Internet resources (1998)
0.05
0.045416504 = product of:
0.18166602 = sum of:
0.18166602 = weight(_text_:headings in 4528) [ClassicSimilarity], result of:
0.18166602 = score(doc=4528,freq=2.0), product of:
0.3388535 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06983213 = queryNorm
0.53611964 = fieldWeight in 4528, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.078125 = fieldNorm(doc=4528)
0.25 = coord(1/4)
- Abstract
- Presents a bibliography on evaluating Internet resources in which titles are arranged under the following headings: Internet resources, print resources, and useful listservs
-
Devadason, F.J.; Intaraksa, N.; Patamawongjariya, P.; Desai, K.: Faceted indexing based system for organizing and accessing Internet resources (2002)
0.04
0.03893654 = product of:
0.15574616 = sum of:
0.15574616 = weight(_text_:headings in 1097) [ClassicSimilarity], result of:
0.15574616 = score(doc=1097,freq=12.0), product of:
0.3388535 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06983213 = queryNorm
0.45962682 = fieldWeight in 1097, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.02734375 = fieldNorm(doc=1097)
0.25 = coord(1/4)
- Abstract
- Organizing and providing access to the resources an the Internet has been a problem area in spite of the availability of sophisticated search engines and other Software tools. There have been several attempts to organize the resources an the World Wide Web. Some of them have tried to use traditional library classification schemes such as the Library of Congress Classification, the Dewey Decimal Classification and others. However there is a need to assign proper subject headings to them and present them in a logical or hierarchical sequence to cater to the need for browsing. This paper attempts to describe an experimental system designed to organize and provide access to web documents using a faceted pre-coordinate indexing system based an the Deep Structure Indexing System (DSIS) derived from POPSI (Postulate based Permuted Subject Indexing) of Bhattacharyya, and the facet analysis and chain indexing system of Ranganathan. A prototype Software System has been designed to create a database of records specifying Web documents according to the Dublin Core and to input a faceted subject heading according to DSIS. Synonymous terms are added to the Standard terms in the heading using appropriate symbols. Once the data are entered along with a description and the URL of the web document, the record is stored in the System. More than one faceted subject heading can be assigned to a record depending an the content of the original document. The System stores the Surrogates and keeps the faceted subject headings separately after establishing a link. The search is carried out an index entries derived from the faceted subject heading using the chain indexing technique. If a single term is Input, the System searches for its presence in the faceted subject headings and displays the subject headings in a sorted sequence reflecting an organizing sequence. If the number of retrieved Keadings is too large (running into more than a page) the user has the option of entering another search term to be searched in combination. The System searches subject headings already retrieved and looks for those containing the second term. The retrieved faceted subject headings can be displayed and browsed. When the relevant subject heading is selected the system displays the records with their URLs. Using the URL, the original document an the web can be accessed. The prototype system developed in a Windows NT environment using ASP and a web server is under rigorous testing. The database and Index management routines need further development.
-
Reference sources on the Internet : off the shelf and onto the Web (1997)
0.04
0.036333203 = product of:
0.14533281 = sum of:
0.14533281 = weight(_text_:headings in 1616) [ClassicSimilarity], result of:
0.14533281 = score(doc=1616,freq=2.0), product of:
0.3388535 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06983213 = queryNorm
0.4288957 = fieldWeight in 1616, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0625 = fieldNorm(doc=1616)
0.25 = coord(1/4)
- Abstract
- Issue devoted to reference sources on the Internet. Provides reference librarians with a core list of resources in a variety of subject areas available on the Internet. Articles are grouped under the following headings: general; business and social sciences; humanities; leisure studies; sciences; and a feature column on government information sources
-
El-Sherbini, M.: Selected cataloging tools on the Internet (2003)
0.04
0.036333203 = product of:
0.14533281 = sum of:
0.14533281 = weight(_text_:headings in 2997) [ClassicSimilarity], result of:
0.14533281 = score(doc=2997,freq=2.0), product of:
0.3388535 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06983213 = queryNorm
0.4288957 = fieldWeight in 2997, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0625 = fieldNorm(doc=2997)
0.25 = coord(1/4)
- Abstract
- This bibliography contains selected cataloging tools an the Internet. It is divided into seven sections as follows: authority management and subject headings tools; cataloging tools by type of materials; dictionaries, encyclopedias, and place names; listservs and workshops; software and vendors; technical service professional organizations; and journals and newsletters. Resources are arranged in alphabetical order under each topic. Selected cataloging tools are annotated. There is some overlap since a given web site can cover many tools.
-
Weinberg, B.H.: Complexity in indexing systems abandonment and failure : implications for organizing the Internet (1996)
0.03
0.031791553 = product of:
0.12716621 = sum of:
0.12716621 = weight(_text_:headings in 6187) [ClassicSimilarity], result of:
0.12716621 = score(doc=6187,freq=2.0), product of:
0.3388535 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06983213 = queryNorm
0.37528375 = fieldWeight in 6187, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0546875 = fieldNorm(doc=6187)
0.25 = coord(1/4)
- Abstract
- The past 100 years have seen the development of numerous systems for the structured representation of knowledge and information, including hierarchical classification systems and with sophisticated features for the representation of term relationships. Discusses reasons for the lack of widespread adoption of these systems, particularly in the USA. The suggested structure for indexing the Internet or other large electronic collections of documents is based on that of book indexes: specific headings with coined modifications
-
Shafer, K.: Scorpion Project explores using Dewey to organize the Web (1996)
0.03
0.031791553 = product of:
0.12716621 = sum of:
0.12716621 = weight(_text_:headings in 6818) [ClassicSimilarity], result of:
0.12716621 = score(doc=6818,freq=2.0), product of:
0.3388535 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06983213 = queryNorm
0.37528375 = fieldWeight in 6818, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0546875 = fieldNorm(doc=6818)
0.25 = coord(1/4)
- Abstract
- As the amount of accessible information on the WWW increases, so will the cost of accessing it, even if search servcies remain free, due to the increasing amount of time users will have to spend to find needed items. Considers what the seemingly unorganized Web and the organized world of libraries can offer each other. The OCLC Scorpion Project is attempting to combine indexing and cataloguing, specifically focusing on building tools for automatic subject recognition using the technqiues of library science and information retrieval. If subject headings or concept domains can be automatically assigned to electronic items, improved filtering tools for searching can be produced