-
Wikipedia feiert den zehntausendsten deutschsprachigen Artikel (2003)
0.08
0.07911295 = product of:
0.1582259 = sum of:
0.115006894 = weight(_text_:jede in 2436) [ClassicSimilarity], result of:
0.115006894 = score(doc=2436,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.2689081 = fieldWeight in 2436, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.03125 = fieldNorm(doc=2436)
0.043218993 = weight(_text_:und in 2436) [ClassicSimilarity], result of:
0.043218993 = score(doc=2436,freq=16.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.2772374 = fieldWeight in 2436, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2436)
0.5 = coord(2/4)
- Content
- "Der deutschsprachige Ableger der Online-Enzyklopädie Wikipedia (http://www.wikipedia.de) feiert im 24. Januar 2003 seinen zehntausendsten Artikel. Bei dem offenen Projekt kann jeder über das Internet nicht nur Artikel lesen, sondern auch ohne Anmeldung schreiben und bearbeiten. Auf diese Weise kamen in anderthalb Jahren nach Angaben der Organisatoren 10.000 Artikel zusammen, die teilweise von überraschend hoher Oualität sind. Dafür sorgen die zahlreichen fachlich versierten Teilnehmer, die an dem Projekt mitarbeiten. Wikipedia-Artikel sind gratis abrufbar und dürfen frei weiterverbreitet werden. Alle Inhalte werden unter den Bedingungen der GNU-Lizenz für Freie Dokumentation veröffentlicht. Diese aus der Open-Source-Software-Szene heraus entstandene Lizenz stellt sicher, dass jeder Artikel in beliebiger Weise verwendet werden darf, auch kommerziell, solange dieses Recht auch weiterhin eingeräumt wird. Besonders die uneinschränkbare Weiterverwendbarkeit reizt viele Teilnehmer, selbst Artikel beizusteuern. Die deutschsprachige Wikipedia ist der größte Ableger des gleichnamigen englischsprachigen Projekts, das im Januar 2001 gegründet wurde. Kurz zuvor, am 21. Januar, wurde dort der loo.oooste Artikel geschrieben; über 27.000 Artikel existieren in 26 weiteren Sprachen. Die Gründer der englischsprachigen Wikipedia sind der Internet-Unternehmer Jimmy Wales und der Philosoph Larry Sanger. Wales sorgt für die finanzielle Unterstützung des Projekts und Sanger leitete das Projekt im ersten Jahr. Beide schreiben den Erfolg Wikipedias dem Umstand zu, dass eine eingefleischte Gruppe von Teilnehmern zusammen die Einhaltung der selbst aufgestellten Oualitäts- und Neutralitätsstandards überwachen. "Alle Teilnehmer überwachen sorgfältig die Seite mit den letzten Änderungen", sagt Wales. "Jeder redigiert ständig die Arbeit der anderen Teilnehmer. Es ist überraschend, dass dies so gut funktioniert, aber das tut es." Schon nach einem Jahr feierte die englische Wikipedia den 20.000sten Artikel, ein weiteres Jahr später hat sich diese Zahl verfünffacht. Mehr als 600 Benutzer haben sich bei der deutschen Wikipedia registriert, über 7000 sind es bei der englischen. Der Erfolg solch eines offenen Projekts, das von vielen unterschiedlichen Autoren getragen wird, mag verwirren: Wie können so viele Personen mit so unterschiedlichen Hintergründen ohne wirkliche Führung zusammenarbeiten? Teils - so antworten die Organisatoren des Projekts -, weil die Teilnehmer sehr einfach gegenseitig ihre Beiträge bearbeiten können, und teils, weil das Projekt strenge Regeln gegen jede Art von Voreingenommenheit hat; dies führe zu einem freundlichen und produktiven Diskussionsklima. Was motiviert einen Wissenschaftler, an einem so offenen Projekt teilzunehmen? Für Axel Boldt, Mathematikprofessor an der Metropolitan State University in St. Paul (Minnesota), ist die Motivation, Dutzende mathematische Artikel beizusteuern "die gleiche, die mich zur akademischen Arbeit motiviert: Es macht Spaß zu lehren, es macht Spaß zu lernen, es macht Spaß, mit intelligenten Menschen zu arbeiten." "
- Source
- Information - Wissenschaft und Praxis. 54(2003) H.2, S.69-70
-
Graupp, A.: InetBib 2006 : Beim Web 2.0 besteht erheblicher Nachholbedarf (2006)
0.08
0.07653942 = product of:
0.15307884 = sum of:
0.08625516 = weight(_text_:jede in 188) [ClassicSimilarity], result of:
0.08625516 = score(doc=188,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.20168108 = fieldWeight in 188, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.0234375 = fieldNorm(doc=188)
0.066823676 = weight(_text_:und in 188) [ClassicSimilarity], result of:
0.066823676 = score(doc=188,freq=68.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.42865464 = fieldWeight in 188, product of:
8.246211 = tf(freq=68.0), with freq of:
68.0 = termFreq=68.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=188)
0.5 = coord(2/4)
- Abstract
- In Münster fand vom 6. bis zum 8. September zum 9. Mal die InetBib-Tagung statt, die sich inzwischen im deutschsprachigen Raum zur größten Veranstaltung dieser Art entwickelt hat. I n acht Vortragsblöcken und drei Workshops referierten und diskutierten mehr als 300 Fachleute aus dem In- und Ausland über aktuelle Themen des Internet, über Informationsmanagement, eScience und elektronische Publikationen.
- Content
- "Die Themen kamen vorwiegend aus den sich mittlerweile stark überschneidenden Bereichen der IT und des Bibliothekswesens und boten eine ausgewogene Mischung für das Publikum, das sich vor allem aus Bibliothekaren und EDV-Spezialisten zusammensetzte. Einen interessanten Beitrag gleich zu Beginn der Tagung bot der Workshop Nr. 3 »Web 2.0-Technologien: Zukunft der Bibliothek - Bibliothek der Zukunft?«. Er startete mit der »Hype Cycle-Grafik« (siehe Abbildung auf Seite 732) der US-Unternehmensberatung Gartner. Dort wird das Web 2.0 zurzeit an der Spitze der entsprechenden Entwicklungskurve (Peak of Inflated Expectations) gesehen, also kurz vor dem Niedergang - auf dem Weg ins tiefe Tal der Desillusionierung. Hinter dem Begriff Web 2.0 verbirgt sich eine Kombination von Technologien, die bereits seit mehreren Jahren bekannt sind, aber erst durch breitbandige lnternetzugänge angeboten werden können. Hierzu gehören zum Beispiel Anwendungen und Techniken wie Web Service APIs, Ajax und RSS. Blogs und Wikis (Social Software) werden ebenfalls dem Web 2.0 zugeordnet. Sind wir in Deutschland bei diesem - und auch anderen - Themen schon zu spät dran? Haben wir bei einer weiteren wichtigen Entwicklung zu lange der anderen Seite des Atlantiks zugeschaut und sie verschlafen? Dann sollten wir uns spuren, denn Web 3.0 steht bereits vor der Tür!
Alexander Linden wies in seinem Vortrag darauf hin, dass durch die voranschreitende Konzentration der Medien- und Informationstechnologie in den USA, Deutschland wie auch andere europäische Staaten ins Abseits gedrängt worden sind und dass sie den Wissens- und Entwicklungsvorsprung nur mit immensen Anstrengungen in frühestens fünf, eher aber zehn Jahren einholen könnten. Und das auch nur dann, wenn die Entwicklung in den Vereinigten Staaten solange stagniere. Kooperationen notwendig In Zeiten immer knapper werdender finanzieller und personeller Ressourcen, bei gleichzeitig steigender Zahl von Aufgaben und Tätigkeiten, die von übergeordneten Behörden an die öffentlichen Einrichtungen (hier sind nicht nur Hochschulen betroffen) abgegeben werden, werden Kooperationen und die Zentralisierung geeigneter Angebote immer wichtiger. Die Potenziale in vielen Bereichen sind groß, die Synergieeffekte wären enorm. Als Beispiel für eine Zusammenarbeit steht das von den vier großen Münsteraner Bibliotheken (Universität, Fachhochschule, Stadt und Bistum) für das Jahr 2007 geplante gemeinsame Informationsportal, das für die Menschen in und um Münster einen schnellen und einfachen Zugang zu Informationen und Literatur anbieten soll.
Ein weiterer wichtiger Punkt war die von der Politik durchgepeitschte Änderung des Urheberrechts. Im Koalitionsvertrag der Bundesregierung sind einige Ziele festgehalten, die auf ein »bildungs- und wissenschaftsfreundliches Urheberrecht« hinweisen. Dennoch beeinträchtigen drei der geplanten Neuregelungen im »Zweiten Korb zur Reform des Urheberrechts« das Bibliothekswesen besonders stark. Es handelt sich hierbei um Entwürfe für die Paragrafen 52b zur Wiedergabe von Werken an elektronischen Leseplätzen in Bibliotheken, Archiven und Museen und 53a zum Versand von digitalen Kopien. Es betrifft außerdem die Änderung des Paragrafen 53 Abs. 5 UrhG zur Erweiterung des Rechts der elektronischen Archivkopie (Paragraf 53 Abs. 2 Nr. 2 UrhG) auf elektronische Datenbankwerke. Die Auswirkungen dieses Gesetzentwurfes auf die Nutzer des subito-Dokumentenlieferdienstes werden im Folgenden beispielhaft aufgezeigt: Eine Dokumentenlieferung auf konventionellem Weg per Post und Fax wäre auch weiterhin möglich. Ebenso wäre ein Faxversand in elektronischer Form von PC zu PC zulässig. Aber jetzt käme schon der erste Fallstrick: Die Lieferung von pdf-Dateien als Attachement mit dem Dokument als Inhalt per E-Mail wäre nur dann erlaubt, wenn dem Besteller der Zugang zu dem gewünschten Artikel »nicht zu jeder Zeit, von jedem Ort und in gewünschtem Umfang« möglich ist.
Hohe Marktpreise Mit anderen Worten bedeutet dies: Sollte ein Verlag den gewünschten Artikel online anbieten, wäre über subito nur noch die Lieferung des Artikels aus der gedruckten Zeitschrift per Fax oder Post erlaubt, die Lieferung der pdf-Datei per E-Mail wäre nicht mehr möglich, denn der Verlag bietet den Artikel ja selbst an - allerdings zu den Marktpreisen der kommerziellen Anbieter. Und die sind bekanntlich um einiges höher. Das interessante Rahmenprogramm mit Stadt- und Bibliotheksführungen sowie einer viel besuchten Abendveranstaltung ergänzte das fachliche Themenangebot (siehe dazu ausführlich unter www.ub.uni-dortmund.de/inetbib2006) und trug so zu einer rundum gelungenen Veranstaltung bei. Aus diesem Grund noch eine kurze Anmerkung: Die Olympischen Winterspiele in Lillehammer 1994 waren stimmungsvoll und klasse organisiert, ebenso die Olympiade im Sommer 2000 in Sydney - von der Fußballweltmeisterschaft 2006 in Deutschland gar nicht zu reden. Im Anschluss an jede der Veranstaltungen wurde darüber nachgedacht, die Wettkämpfe für immer an diese Orte zu vergeben. Sollte man dieselbe Überlegung in Sachen InetBib und der lebens- und liebenswerten Stadt Münster nicht auch anstellen?"
-
Geyer, S.: ¬Die Macht der Ein-Mann-Shows : Weblogs sind zu einer festen Größe im US-Wahlkampf geworden (2008)
0.07
0.074587256 = product of:
0.14917451 = sum of:
0.115006894 = weight(_text_:jede in 2798) [ClassicSimilarity], result of:
0.115006894 = score(doc=2798,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.2689081 = fieldWeight in 2798, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.03125 = fieldNorm(doc=2798)
0.034167614 = weight(_text_:und in 2798) [ClassicSimilarity], result of:
0.034167614 = score(doc=2798,freq=10.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.2191754 = fieldWeight in 2798, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2798)
0.5 = coord(2/4)
- Content
- "Soso, dafür interessiert sich also die US-Jugend: Fast 88.000 Mal wurde gestern auf der Internet-Plattform YouTube ein Video der Schauspielerin Demi Moore abgerufen, die neue Modefotos vorstellt, 178.000 Mal Britney Spears' Auftritt in einer Sitcom - und 1,28 Millionen Mal ein TV-Beitrag, der Hillary Clinton der Wahlkampflüge über ihren Bosnien-Besuch überführt. Zu den meistgesehenen Videos des Monats zählt gar eine 37-Minuten-Polit-Ansprache: Barack Obamas Grundsatzrede zur Rassenfrage. Rund vier Millionen sahen das Web-Video seit vorigem Dienstag, Tausende debattieren das Thema im Netz. Zuvor hatte sich zuvor eine zum Rap aufgemotzte Obama-Rede wie ein Virus verbreitet. Es ist nicht mehr zu leugnen: Gerade die einst als Tagebücher von Hobby-Journalisten belächelten Blogs sind in den USA zur Macht geworden, die kein Politiker mehr ignorieren kann. Was 1998 damit begann, dass Klatschreporter Matt Drudge die von Newsweek zurückgehaltene Meldung über Bill Clintons Sexaffäre ins Netz stellte, gipfelt im Wahlkampf 2008: Tausende Ein-Mann-Magazine recherchieren - meist aus reiner Politbegeisterung -, wo Politiker lügen und verbreiten blitzschnell jede Meldung über Fehltritte, aber auch haltlose Schmähungen. Harmlos sind da Videos, auf denen Republikaner McCain "Bomb, Bomb, Iran" singt. Doch auch Clintons Lüge, sie sei 1996 in Bosnien von Heckenschützen beschossen worden, wäre ohne die Blogosphäre kaum überprüft worden. Obama hätte sich nicht zur Rassen-Rede gedrängt gefühlt, wären nicht die Hasspredigten seines Ex-Pastors Jeremiah Wright "in Endlosschleife im TV und auf YouTube gelaufen", wie er sagt. Schon sehen Wissenschaftler eine basisnähere Demokratie dämmern. "Das ist der erste Wahlkampf, der von Technik definiert wird", schwärmt Medienexperte Garrett Graff im Washingtonian. Jeder könne als Blogger selbst in die Politik eingreifen. Zwar fand jetzt das Washingtoner Pew Research Center heraus, dass die Mehrheit der Amerikaner sich vor allem aus "alten" Medien informiert. Aber: "Mundpropaganda und Spendenakquise übers Web werden immer wichtiger", sagt Igor Schwarzmann, Internet-Stratege der Düsseldorfer Kommunikationsagentur Pleon. Obama erkannte das früh, sammelte mehr Spenden per Mausklick und hat mehr Fan-Blogs als die Konkurrenz. Seine Kampagne gewann also ihren überraschenden Schwung nur scheinbar aus dem Nichts." Bezugnahme auf die Videos: - http://youtube.com/watch?v=MxK7JGUqtBE (Demi Moore on late show) - http://youtube.com/watch?v=8BfNqhV5hg4 (Hillary Clintons Bosnia trip) - http://youtube.com/watch?v=pWe7wTVbLUU (Obama Speech: A more perfect union)
-
Kleinz, T.: Beute im Netz : Das Web 2.0 hilft, Freunde mit gleichen Interessen zu finden - doch auch Geheimdienste und Betrüger lesen mit (2006)
0.07
0.07441897 = product of:
0.14883794 = sum of:
0.10063103 = weight(_text_:jede in 1) [ClassicSimilarity], result of:
0.10063103 = score(doc=1,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.2352946 = fieldWeight in 1, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.02734375 = fieldNorm(doc=1)
0.048206914 = weight(_text_:und in 1) [ClassicSimilarity], result of:
0.048206914 = score(doc=1,freq=26.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.3092335 = fieldWeight in 1, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1)
0.5 = coord(2/4)
- Content
- "Knapp zwei Jahre ist es her, seitdem der USVerleger Tim O'Reilly das "Web 2.0" ausgerufen hat - das soziale Internet. Seitdem hat sich das Angebot im weltumspannenden Datennetz gewandelt. Nicht Redaktionen oder Firmen gestalten zunehmend Angebote, sondern die Nutzer selbst. Sie schreiben in Weblogs über ihren Alltag, tragen ihre Freunde in Kontaktbörsen ein, stellen Fotos, Videos und Musik ins Netz. Doch nicht nur Freunde nutzen die Vorteile des neuen Netzes - auch Betrüger, Geheimdienste und Firmen sind dabei. "Die Weisheit der Massen kann viel zu leicht in den Wahnsinn der Massen umschlagen", warnt Web-2.0-Vordenker O'Reilly. Er spricht von der "dunklen Seite" des Web 2.0. "Kollektive Intelligenz erfordert das Speichern gewaltiger Datenmengen. Diese können genutzt werden, um innovative Dienste zur Verfügung zu stellen. Die gleichen Daten können aber auch unsere Privatsphäre bedrohen." So tobt in einer Mailingliste der Online-Enzyklopädie Wikipedia eine Debatte über ein Auswertungswerkzeug. Eine Webseite trug zahlreiche Details über alle WikipediaNutzer zusammen. Sie zeigte, wer wie lange und in welchen Feldern der Wikipedia tätig war. Übersichtliche Wochengrafiken veranschaulichten, zu welchen Tageszeiten welche Nutzer gerne aktiv sind. Einem ehemaligen Mitwirkenden gefällt das nicht. Uli Fuchs beklagte, solche Auswertungen verstießen gegen sein Recht auf informationelle Selbstbestimmung und wahrscheinlich gegen mehrere Gesetze. Die Wikipedia-Verantwortlichen knickten ein: Bis zu einer rechtlichen Klärung schalteten sie das Auswertungswerkzeug ab. Fuchs spricht einen brisanten Punkt an. Penibel verzeichnet die Online-Enzyklopädie jede kleinste Änderung, die ein User an den Artikeln vornimmt. Die Daten sind bis auf den letzten Kommafehler auch nach Jahren noch einsehbar. In den falschen Händen können solche Informationen brisant sein. Sind etwa Arbeitnehmer krank gemeldet, geraten sie vielleicht in Erklärungsnöte, wenn sie zur gleichen Zeit an Wikipedia-Artikeln arbeiten. Ein Großteil der Nutzer versteckt sich daher hinter Pseudonymen.
Auch "My Space" verdeutlicht die Schattenseite des Web 2.0: In mehreren hundert Fällen ermittelt die US-Bundespolizei FBI wegen sexueller Belästigungen von Kindern und Jugendlichen. Die Plattform hat reagiert und wirbt seit dieser Woche in Fernsehspots für den verantwortungsvollen Umgang mit den eigenen Daten. Durchschlagender Erfolg ist nicht zu erwarten: So lautet ein Ratschlag an die Jugendlichen, das eigene Zugangs-Passwort den Eltern mitzuteilen - was der Empfehlung gleichkommt, das eigene Tagebuch bei den Eltern zu hinterlegen. Eine weitere Bedrohung für die Privatsphäre geht von den Konzernen aus, die diese Dienste anbieten. Die meisten sind kostenlos, sie sollen über Werbung und Partnerschaften Geld bringen. So hat der Internet-Riese Yahoo eine ganze Reihe von Web2.0-Firmen gekauft, darunter das Bilderportal "Flickr" und den Bookmark-Dienst "Del.icio.us". "My Space" gehört mittlerweile zum Imperium des Medien-Moguls Rupert Murdoch. O'Reilly warnt: "Diese Firmen werden einen enormen Einfluss auf unser aller Leben haben - und sie können ihn zum Guten wie zum Schlechten nutzen." Der Identitätsdiebstahl im Internet ist mittlerweile zu einem ernsthaften Problem geworden. Kriminelle gehen mit Daten wie Namen und Kreditkartenummern auf Betrugstour. Sie verursachten laut amtlicher Statistik allein im Jahr 2004 Schäden in Höhe von sechs Milliarden Dollar - aktuelle Schätzungen gehen von bis zu 50 Milliarden Dollar Schaden pro Jahr aus. Aber nicht nur Betrüger beuten den Datenschatz im Netz aus, auch Geheimdienste zeigen Interesse. So berichtet das Wissenschaftsmagazin New Scientist, der US-Geheimdienst National Security Agency erforsche intensiv Techniken, mit deren Hilfe die Agenten soziale Netzwerke überwachen und systematisch auswerten können. Das Interesse kommt nicht von ungefähr: Web-2.0-Dienste erfreuen sich einer großen Beliebtheit. So verzeichnet das erst vor zwei Jahren gegründete Portal "My Space" schon fast 100 Millionen Nutzer, die sich über Musik- und andere Konsumvorlieben austauschen. Besonders bei Musikern ist die Plattform beliebt: Mittlerweile sollen sich dort 400 000 Bands tummeln, die ihre Arbeit auf der Plattform vorstellen."
-
cis: Nationalbibliothek will das deutsche Internet kopieren (2008)
0.07
0.07347337 = product of:
0.14694674 = sum of:
0.10063103 = weight(_text_:jede in 609) [ClassicSimilarity], result of:
0.10063103 = score(doc=609,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.2352946 = fieldWeight in 609, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.02734375 = fieldNorm(doc=609)
0.04631571 = weight(_text_:und in 609) [ClassicSimilarity], result of:
0.04631571 = score(doc=609,freq=24.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.29710194 = fieldWeight in 609, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=609)
0.5 = coord(2/4)
- Abstract
- Diese Regel wird noch für viel Ärger sorgen: Eine neue Verordnung der Bundesregierung verpflichtet Betreiber von Webseiten, Kopien ihres Angebotes bei der Deutschen Nationalbibliothek abzuliefern. Ob auch Blogger kopieren und einreichen müssen, ist noch unklar.
- Content
- "Ab heute müsste kopiert und abgespeichert werden - eigentlich. Fast jede Webseite, samt Bildern, Texten und sogar Audiodateien soll die Deutsche Nationalbibliothek archivieren, im Auftrag der Bundesregierung. Das Kopieren und Abspeichern sollen die Bundes-Bibliothekare aber nicht übernehmen. Das sollen die Seitenbetreiber machen. Am Donnerstag wurde die Verordnung über die Pflichtablieferung von Medienwerken an die Deutsche Nationalbibliothek im Bundesgesetzblatt veröffentlicht - damit ist sie rechtskräftig. Auf den Seiten der Deutschen Nationalbibliothek ist auch nachzulesen, was da von nun an alles gesammelt werden soll: "Alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden." Mit anderen Worten: Die Nationalbibliothek möchte in regelmäßigen Abständen vollständige Kopien des deutschen Internets bekommen, einschließlich multimedialer Elemente. Ausgenommen sind lediglich "zeitlich begrenzte Vorabveröffentlichungen, reine Software- oder Anwendungstools und auch Fernseh- und Hörfunkproduktionen" Der Branchenverband Bitkom hatte schon im vergangenen Jahr gegen das Gesetz protestiert, der Widerstand verpuffte jedoch ohne Konsequenz. Deutsche Firmen werde die tatsächliche Umsetzung der Regelung 115 Millionen Euro jährlich kosten, schätzte der Verband damals. Was an Kosten auf den Steuerzahler zukommt, ist noch vollkommen unklar. Die Regelung ist das Ergebnis eines Gesetzes, das schon aus dem Jahr 2006 stammt: Dem Gesetz über die Deutsche Nationalbibliothek ( DNBG). Jetzt ist das Gesetz samt erklärender Verordnung da - aber wie das alles genau funktionieren soll, wer die riesigen Mengen Speicherplatz zur Verfügung stehen wird, das scheint noch niemand so recht zu wissen.
Ablieferung als PDF oder Zip-Archiv Geschehen soll die Ablieferung am liebsten in PDF-Form, über ein Webformular. Bei Bedarf, nämlich "wenn Ihre Netzpublikation aus mehreren Dateien besteht, z. B. einer oder mehreren HTML-Seiten mit Bildern", darf man sie auch auch als Zip-Archiv abgeben. Wie es sich mit privaten Webseiten genau verhält, ist derzeit nicht ganz klar. "Lediglich privaten Zwecken dienende Websites" sind beispielsweise freigestellt - aber was genau ist im Netz lediglich privat? Ein Blog? Auch, wenn darin das Weltgeschehen oder die deutsche Politik kommentiert wird? Auch dann, wenn neben den Blog-Einträgen Google-Anzeigen erscheinen? Da es sich um eine Pflichtabgabe handelt, ist sie, zumindest theoretisch, auch strafbewehrt. Nach einer Abmahnung kann es heise.de zufolge bis zu 10.000 Euro Strafe kosten, wenn man seine Netz-Inhalte nicht bei der DNB abliefert. Eine Erklärseite der DNB schränkt allerdings ein: "Die Entwicklung geeigneter Verfahren für den Massenbetrieb der Sammlung, Erschließung und Archivierung von Netzpublikationen erfolgt stufenweise." Im Klartext: Man weiß bei der DNB selbst noch nicht so genau, wie das alles funktionieren und organisiert werden soll. So lange das nicht abschließend geklärt ist, wird die Bibliothek "keine Ordnungswidrigkeitsverfahren anstrengen". Außerdem werde man "abzuliefernde Netzpublikationen gegebenenfalls nicht gleich übernehmen, sondern vormerken und erst anfordern, wenn der Stand der Technik und der Absprachen dies zulässt." Zudem hat die Bibliothek das Recht, von der Übernahme von Inhalten abzusehen, unter anderem dann, wenn "technische Verfahren die Sammlung und Archivierung nicht oder nur mit beträchtlichem Aufwand erlauben". Bleibt abzuwarten, wie weit die Nationalbibliothek diese Ausnahmen ausdehnen wird - sonst kommt ein Speicherplatzbedarf auf die Einrichtung zu, der den Steuerzahler beträchtliche Summen kosten dürfte."
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.07
0.07248747 = product of:
0.14497495 = sum of:
0.10063103 = weight(_text_:jede in 6206) [ClassicSimilarity], result of:
0.10063103 = score(doc=6206,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.2352946 = fieldWeight in 6206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.044343915 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.044343915 = score(doc=6206,freq=22.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.5 = coord(2/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
-
Moll, S.: ¬Der Urknall des Internets : 20 Jahre WWW (2011)
0.07
0.07248747 = product of:
0.14497495 = sum of:
0.10063103 = weight(_text_:jede in 4720) [ClassicSimilarity], result of:
0.10063103 = score(doc=4720,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.2352946 = fieldWeight in 4720, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.02734375 = fieldNorm(doc=4720)
0.044343915 = weight(_text_:und in 4720) [ClassicSimilarity], result of:
0.044343915 = score(doc=4720,freq=22.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.28445345 = fieldWeight in 4720, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4720)
0.5 = coord(2/4)
- Abstract
- Am 6. August 1991 wurde die Welt vernetzt - und damit drastisch verändert.
- Content
- "Alle großen Erfindungen der Menschheitsgeschichte haben einen Entstehungsmythos. Einsteins Trambahnfahrt durch Zürich beispielsweise oder der berühmte Apfel, der Newton angeblich auf den Kopf gefallen ist. Als Tim Berners-Lee, damals Physikstudent in Manchester, Mitte der 70er Jahre mit seinem Vater in einem Stadtpark unter einem Baum saß, unterhielten sich die beiden darüber, dass sie doch in ihrem Garten auch einen solchen Baum gebrauchen könnten. Der Vater, ein Mathematiker, der an einem der ersten kommerziell genutzten Computer der Welt arbeitete, bemerkte, dass die Fähigkeit, die abstrakte Idee eines schattigen Baumes auf einen anderen Ort zu übertragen, doch eine einmalig menschliche sei. Computer könnten so etwas nicht. Das Problem ließ Berners-Lee nicht los. Deshalb suchte er, während er in den 80er Jahren als Berater am europäischen Labor für Quantenphysik (CERN) in der Schweiz arbeitete, noch immer nach einem Weg, seinem Computer beizubringen, Verbindungen zwischen den disparaten Dokumenten und Notizen auf seiner Festplatte herzustellen. Er entwarf deshalb ein System, das heute so alltäglich ist, wie Kleingeld. Lee stellte eine direkte Verknüpfung her zwischen Wörtern und Begriffen in Dokumenten und den gleichen Begriffen in anderen Dokumenten: Der Link war geboren.
Aus dieser Erfindung ergaben sich ganz unmittelbar schier unbegrenzte Möglichkeiten. Wie wäre es, wenn er seine Daten mit denen der anderen Wissenschaftler am CERN würde vernetzen können, ohne die mühsame Arbeit, zentrale Datenbanken anzulegen? Und wie wäre es, wenn die CERN-Wissenschaftler sich auf diese Art mit Wissenschaftlern auf der ganzen Welt verlinken könnten? Lee machte sich ans Werk und entwickelte ein Code System, mit dessen Hilfe verschiedenartige Datensätze kompatibel gemacht werden konnten. Daraus entstand die Lingua Franca des Internet, HTML: Er schrieb eine Art Regelwerk, nach dem Dokumente quer durch das Internet verlinkt werden konnten - jene Prinzipien, die wir heute als HTTP kennen. Und schließlich baute er auch noch den ersten Browser der Geschichte. Am 6. August 1991 stellte Lee in einem bemerkenswert unbemerkenswerten Akt seine Erfindung der Welt vor. Er stellte eine kurze Notiz in die newsgroup alt.hypertext, wo man Browser und Server herunterladen konnte. Das Internet explodierte praktisch sofort. Innerhalb von fünf Jahren wuchs die Benutzerzahl von 600 000 auf 40 Millionen.
Lee hätte mit der Idee vermutlich Milliarden verdienen können. Doch das widersprach von Anfang an seiner Philosophie des Internets. Für Lee war das Internet stets Mittel zur Demokratisierung von Information und zur Beschleunigung des Fortschritts. Der Erfinder des Netzes war auch der erste Open Source-Radikale: Jede Form der Zugangsbeschränkung, ob zu kommerziellen oder zu irgendwelchen anderen Zwecken, lehnte er strikt ab. Heute arbeitet Lee an der Bostoner Eliteuniversität MIT daran, die Protokolle von Netscape und Microsoft zu standardisieren, damit Patentstreitigkeiten den Fortschritt ins Web 3.0 nicht aufhalten. Nebenbei berät er die britische Regierung dabei, Regierungsdaten zu veröffentlichen, um ein öffentliches Mitwirken an der Lösung von Verwaltungsproblemen zu ermöglichen. Das Freisetzen von Daten, davon ist Lee überzeugt, wird von ganz alleine das Gemeinwohl voranbringen. Das Netz ist für ihn ein reiner Segen der Menschheit. "Innovation ist Zufall. Man weiß nie, was Leute mit Informationen machen", sagte er jüngst. Wichtig sei alleine, dass man die Gelegenheit schafft, neue und originelle Verbindungen zu ziehen. Etwa so, wie einen Baum dorthin zu pflanzen, wo er gebraucht wird. Oder das Internet zu erfinden."
-
Hehl, H.: ¬Die elektronische Bibliothek : Literatursuche und Literaturbeschaffung im Internet (2001)
0.07
0.07248747 = product of:
0.14497495 = sum of:
0.10063103 = weight(_text_:jede in 718) [ClassicSimilarity], result of:
0.10063103 = score(doc=718,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.2352946 = fieldWeight in 718, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.02734375 = fieldNorm(doc=718)
0.044343915 = weight(_text_:und in 718) [ClassicSimilarity], result of:
0.044343915 = score(doc=718,freq=22.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.28445345 = fieldWeight in 718, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=718)
0.5 = coord(2/4)
- Footnote
- Rez. in: ABI-Technik 21(2002) H.3, S.293 (I. Hort): "Schon zwei Jahre nach dem ersten Erscheinen konnte Hans Hehl 2001 sein Werk über die "Elektronische Bibliothek" in einer neuen Auflage vorlegen. Das Hauptgewicht der Darstellung bilden die Möglichkeiten der Literatursuche und -beschaffung im Internet. Daneben wird jedoch - und dies stellt eine Erweiterung gegenüber der ersten Ausgabe dar - auch auf das Auffinden sonstiger Fachinformationen im "Netz der Netze" eingegangen. Der Blickwinkel, den Hehl bei seiner Darstellung einnimmt, ist stets derjenige des Suchenden. Für ihn stellt er eine Vielzahl von Strategien dar, mit deren Hilfe die gewünschten Informationen aufgespürt werden können. Die empfohlenen Vorgehensweisen werden dabei oft durch ausführliche Beispiele illustriert. Knapp gehalten sind hingegen die Hinweise zur Funktionsweise der besprochenen Instrumente. Etwas umfangreichere Basisinformationen könnten hier sicher das Problembewusstsein der InternetNutzer/innen schärfen und es erleichtern, eine qualifizierte Entscheidung für eine bestimmte Vorgehensweise zu treffen. So wäre beispielsweise eine Darstellung der Ranking-Verfahren, die die gängigen Suchmaschinen bei der Präsentation der Treffer einsetzen, wünschenswert gewesen. Ein grundsätzliches Problem, mit dem jede Buchveröffentlichung zum Thema Internet konfrontiert wird, ist der durch die raschen Wandlungen des Mediums hervorgerufene Aktualitätsverlust der in gedruckter Form dargebotenen Informationen. So trifft man, wenn man die präsentierten Beispiel nachvollziehen will, u. U. eine veränderte Oberfläche mit neuen Funktionen an. Für die in seiner Monographie erwähnten Internet-Adressen versucht Hehl den "Informationsverfall" durch eine unter der URL http://www.kulturserver.de/home/hhehl/connect/ links.htm bereitgehaltenen Liste auszugleichen. Breiten Raum nimmt die Darstellung von Suchmaschinen und thematischen Verzeichnissen sowie der hier möglichen Recherchestrategien ein. Ein anderes Kapitel dient der Besprechung wichtiger Bibliothekskataloge, ergänzt durch eine tabellarische Auflistung weiterer interessanter Adressen. Beziehen die Ausführungen von Hehl sich ansonsten auf Angebote im WWW, so fügt er an dieser Stelle ein Kapitel über Telnetverbindungen und Telnetrecherchen ein. Dies trägt der Tatsache Rechnung, dass es immer noch einige Bibliotheken gibt, die ihre Kataloge nur über einen Telnetzugang präsentieren. Ihre Zahl verringert sich allerdings, und viele der von Hehl aufgeführten Verbindungen sind inzwischen obsolet. Bei der Erörterung von Datenbanken liegt das Schwergewicht auf frei verfügbaren Quellen, aber auch wichtige kommerzielle Angebote werden vorgestellt. Im Kapitel über Elektronische Publikationen wird deren ganze Vielfalt angesprochen. So reicht der Bogen von Büchern über Zeitschriften, Reports und Preprints bis zu Dissertationen und Gesetzestexten. Aber auch Veröffentlichungen, die im weiteren Sinne dem Gebiet der elektronischen Publikationen zuzuordnen sind wie Statistiken, landeskundliche Übersichten und Online-Vorlesungen, werden angesprochen. Die abschließende Darstellung der Literaturbeschaffung über das Internet setzt den Schwerpunkt auf "Subito". Ein in dieser Auflage neuer Anhang ist der Darstellung des von Hehl selbst entwickelten Multisuchsystems EConnect gewidmet. Dieses bietet die Option über ein einheitliches Eingabefeld eine einfache Suche in verschiedenen Datenbanken durchzuführen. Über Linksysteme besteht ferner die Möglichkeit, die erhaltenen Nachweise ggf. direkt mit dem elektronischen Volltext oder Bestandsnachweisen der zitierten Journale in einem Verbundkatalog zu verbinden. Zusammenfassend lässt sich sagen, dass das vorliegende Werk Anfänger, die sich in die Möglichkeiten der bibliothekarischen Informationsbeschaffung mit Hilfe des Internets einarbeiten wollen, dabei unterstützen kann, sich das ein oder andere Gebiet zu erschließen. Erfahrene können hier Impulse erhalten, ihre eingeschliffenen Routinen zu überprüfen und ggf. zu optimieren."
-
Charlier, M.: ¬Die Austreibung des Mittelalters : Von der Wissensgemeinde zum geistigen Eigentum und zurück: Forscher wehren sich gegen die Macht der Verlage (2002)
0.07
0.072181106 = product of:
0.14436221 = sum of:
0.1016527 = weight(_text_:jede in 1623) [ClassicSimilarity], result of:
0.1016527 = score(doc=1623,freq=4.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.23768345 = fieldWeight in 1623, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.01953125 = fieldNorm(doc=1623)
0.042709514 = weight(_text_:und in 1623) [ClassicSimilarity], result of:
0.042709514 = score(doc=1623,freq=40.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.27396923 = fieldWeight in 1623, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1623)
0.5 = coord(2/4)
- Content
- "Das finstere Mittelalter überliefert uns befremdliche Bilder von Bibliotheken: Da sind die Folianten an den Pulten angekettet, damit niemand eines der wertvollen Stücke davonträgt. Wohl auch, damit keiner sich mit dem gefährlichen Gut Wissen außerhalb von Aufsicht und Disziplin der Fakultäten zu schaffen machte. Heute findet das Mittelalter in der Deutschen Bibliothek in Frankfurt am Main und Leipzig statt. Wer die als Belegexemplare eingelieferten digitalen Publikationen einsehen will, kann das weder vom privaten Internetanschluss aus noch von dem eines Instituts oder einer Universitätsbibliothek. Forscher müssen nach Frankfurt reisen und einen Leihschein ausfüllen, um dann dort am Terminal die digital angeketteten Veröffentlichungen einsehen zu können. Die Bibliothek ist dafür am wenigsten zu schelten. Da der Gesetzgeber es versäumt hat, die rechtlichen Vorschriften der technischen Entwicklung des Buchwesens anzupassen, sind die Verlage nicht verpflichtet, digitale Publikationen abzuliefern. Die Bibliothekare haben in langwierigen Verhandlungen wenigstens erreicht, dass die Verlage die Bücher freiwillig einreichen - zu ihren Bedingungen. Nicht nur digitale Publikationen hängen an der Kette der Verlage. Spektakulär ist die Entwicklung bei den wissenschaftlichen Zeitschriften. Teuer waren sie schon immer. Nicht ohne Grund, denn ihre Herstellung verlangt hohen Aufwand: Fachlich kompetente redaktionelle Betreuung, aufwendiger Druck (Sonderschriften, IIlustrationen) in oft kleinen Auflagen, Versand in viele Länder der Erde und dann auch noch Lagerhaltung für lange Zeit. In den vergangenen zehn Jahren haben sich die Preise für solche Spezialzeitschriften im Durchschnitt verdreifacht - sie liegen heute zwischen 5.000 und 20.000 USDollar für das Jahresabonnement. Gleichzeitig hat sich die Zahl der relevanten Publikationen etwa verdreifacht. Für eine solide geführte Bibliothek lässt sich daraus eine Verzehnfachung des für die Anschaffung erforderlichen Budgets errechnen. Doch die Etats stagnieren, und in den Regalen breiten sich Lücken aus. Bibliothekare sprechen von einer "Journal-Crisis". Viele Wissenschaftler hat die Entwicklung kalt erwischt. Sie betrachten wissenschaftliche Ergebnisse oft nicht als Waren mit einem Preisschild, sondern als Tauschobjekte in einer Geschenkökonomie: Alle können verwenden, was andere als Baustein zum gemeinsamen Werk beitragen, solange die Anstandsregeln des sauberen Zitierens und der Anerkennung von Prioritäten eingehalten werden. Damit ist es vorbei, seit man weniger von der Wissen- schaftsgemeinschaft, der "Scientific Community" spricht - und mehr von "Intellectual Property", dem geistigen Eigentum: Erkenntnisse sollen unmittelbar is die Produktion übergeführt und zur konsequenten Verwertung patentiert werden.
Wissenschaftliche Zeitschriften waren früher oft Herzensangelegenheit oder zumindest Prestigeobjekte engagierter Verleger, die zur Not auch mal eine Zeit lang draufzahlten, um einen Titel über die Runden zu bringen. Nach einem mehrjährigen Konzentrationsprozess werden nun fast alle diese Zeitschriften von wenigen international agierenden Großverlagen herausgebracht, die mit ihnen Profitmaximierungsstrategien verfolgen. Das Geschäftsmodell ist simpel: Die Produktion des Wissens erfolgt an Universitäten und Instituten mit staatlichen oder aus der Wirtschaft eingeworbenen Mitteln - also für die Verlage kostenlos. Viele Wissenschaftler sind sogar bereit, "Druckkostenzuschüsse" aufzutreiben, nur damit ihre Arbeitsergebnisse aufs Papier kommen. Die Eigenleistung der Verlage ist da, wo die Autoren ihre Texte auf Diskette einliefern und der Druck aus dem Computer kommt, kaum der Rede wert. Der Gewinn, der sich so erzielen lässt, umso mehr. Margen von 40 Prozent seien nicht selten, sagen Branchenkenner. So wären die wissenschaftlichen Zeitschriften ein perfektes Instrument zum Abgreifen von Staatsknete - gäbe es nicht das Internet. Vielen Wissenschaftlern dauert es zu lange, bis die Verlage ihre Texte in einer vielleicht nur quartalsweise erscheinenden Publikation an die Kollegen bringen. Sie laden daher ihre Manuskripte auf so genannte Preprint-Server, um sie unmittelbar in die wissenschaftliche Diskussion einzubringen: Einer der größeren davon, der Los Alamos Physics Information Service mit der schönen Adresse xxx.lanl.gov, erhält täglich um die hundert Preprints, während seine Datenbank - ebenfalls täglich - mehr als 50.000 Zugriffe verzeichnet. Inzwischen hat sich ein - stellenweise noch etwas chaotisches - Netz solcher Server etabliert, das nahezu alle naturwissenschaftlichen Bereiche abdeckt. Die Gesellschaftswissenschaften ziehen, wenn auch etwas zögerlich, nach. Viele Wissenschaftler veröffentlichen ihre Texte inzwischen auf eigenen Homepages. Seit einigen Jahren schließlich entstehen echte Netzpublikationen: "Electronic Journals" legen Texte in abgeschlossener Form und auf Dauer ab; eine Veröffentlichung auf Papier ist nicht vorgesehen. Damit stehen die Wissenschaftsverlage, die sich bis eben noch im Besitz einer Gelddruckmaschine geglaubt hatten, plötzlich da wie die Heizer auf der E-Lok unseligen Angedenkens: Keiner braucht sie mehr. Die in die Defensive geratenen Verlage verweisen darauf; ihre Redaktionen organisierten in einem teils tatsächlich aufwendigen Verfahren Peer-Reviews: In den guten Blättern erscheint kein Beitrag, der nicht von mehreren anerkannten Fachkennern gegengelesen und oft auch auf Grund ihrer Hinweise umgearbeitet worden ist. Das überzeugt nur begrenzt. Auch den anerkannten Fachleuten sind in den vergangenen Jahren ziemlich viele bewusste Fälschungen durch die Lappen gegangen. Außerdem halten sich hartnäckig Gerüchte, dass um einige Zeitschriften Zitierkartelle und fragwürdige Strukturen entstanden sind, die ganz andere als Gesichtspunkte der Qualität zur Geltung bringen. Viel überzeugender ist: Was im Internet steht, setzt sich von Anfang an der Kritik sämtlicher Fachleute aus. Wenn jemand starke Thesen mit schwacher Begründung vorträgt, wird das im Netz schneller entdeckt und korrigiert als in der Welt periodischer Papier-Veröffentlichungen. Peer-Reviews und Versionsverwaltung lassen sich im Internet genauso gut organisieren wie mit Zeitschriften - und billiger zudem.
Darum haben einige Verlage jetzt harte Bandagen aufgelegt. Das nahezu übereinstimmende Grundmuster: Sie verlangen die Übertragung aller Rechte auf den Verlag und den Verzicht auf Vorabveröffentli-chung auf Preprint-Servern. Möglichst jede Veröffentlichung und jede Verwertung soll über ihre Abrechnungsstellen laufen. Freier Austausch der Wissenschaft? Hat im Zeichen von "Intellectual Property" wenig zu besagen. Da ist sie wieder, die Kette aus dem Mittelalter. Einige Zeitschriften können diese Forderung anscheinend durchsetzen. Sie haben eine so überragende Stellung, dass die Wissenschaftlergemeinde alles, was dort fehlt, nicht für voll nimmt. Die allgemeine Entwicklung geht in eine andere Richtung. Auf einer Veranstaltung der HeinrichBöll-Stiftung in Berlin wurde deutlich, immer mehr Wissenschaftler wollen diese Zustände nicht mehr hinnehmen, dass ihr Wissen eingekerkert wird, wie der Berliner Mathematiker Martin Grötschel formuliert. In den USA hat die "Public Library of Science' 30.000 Unterschriften von Wissenschaftlern gesammelt: Alle Veröffentlichungen sollen spätestens sechs Monate nach Erscheinen im Internet kostenlos zugänglich sein. Andere Forderungen gehen noch weiter: Mit öffentlichen oder gemeinnützigen Mitteln geförderte Forschungsprojekte müssten ihre Ergebnisse sofort über das Netz zugänglich machen. Die Weltvereinigung der Mathematiker (IMU) hat jetzt Nägel mit Köpfen gemacht: Mitte April hat sie ihr Kommunikationssystem Math-Net gestartet. Es soll allen Mathematikern eine einheitliche Plattform für ihre Web-Publikationen bereitstellen. Das Ziel: eine Digital Mathematical Library, die die gesamte mathematische Literatur im Internet bereitstellt - ohne Ketten aus Eisen, Geld oder andere Zugangsbeschränkungen.
-
Schmidt, M.: Versteckte Quellen im Netz : Downloads per FTP, IRC oder Newsreader (2003)
0.07
0.071879305 = product of:
0.28751722 = sum of:
0.28751722 = weight(_text_:jede in 2981) [ClassicSimilarity], result of:
0.28751722 = score(doc=2981,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.6722703 = fieldWeight in 2981, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.078125 = fieldNorm(doc=2981)
0.25 = coord(1/4)
- Abstract
- Manchmal verzweifeln auch abgebrühte Surfer: Downloads brechen ab, Video-Streams ruckeln, Dateien lassen sich einfach nicht finden. CHIP zeigt Ihnen das Gegenprogramm: Schelle Datei-Quellen per FTP, IRC oder Newsserver, die jede Tauschbörse deklassieren
-
Sixtus, M.: ¬Das Gemeinschaftsnetz : Im Wiki-Web können alle Surfer Seiten umschreiben und hinzufügen - so entstehen ganze Enzyklopädien (2003)
0.07
0.071778 = product of:
0.143556 = sum of:
0.08625516 = weight(_text_:jede in 2739) [ClassicSimilarity], result of:
0.08625516 = score(doc=2739,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.20168108 = fieldWeight in 2739, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.0234375 = fieldNorm(doc=2739)
0.05730083 = weight(_text_:und in 2739) [ClassicSimilarity], result of:
0.05730083 = score(doc=2739,freq=50.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.3675683 = fieldWeight in 2739, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2739)
0.5 = coord(2/4)
- Content
- "Wissen ist in. Allerorten wird es zum Rohstoffdes 21. Jahrhunderts ausgerufen. Doch je mehr man weiß, desto wichtiger ist es, die Informationen professionell zu verwalten, zu organisieren und zu pflegen. Manche Unternehmen bauen dazu teure, komplexe Knowledge-Management-Systeme ins Firmennetz ein. Doch das Wissensmanagement geht einfacher - mit Wikis. Ein Wiki ist eine Sammlung dynamischer Webseiten, die über Verweise verbunden sind und alle über eine Besonderheit verfügen: Ganz unten fordert ein Button alle Surfer dazu auf, die aktuelle Seite zu verändern. Prinzipiell kann jeder jede Seite ändern, ergänzen, verbessern oder sogar löschen. Rechte-Hierarchien existieren schlicht nicht. Jeder User ist gleichzeitig Leser, Lektor, Redakteur und Autor. Seiten anlegen und verlinken geschieht in einem Arbeitsgang. Einige rudimentäre Möglichkeiten zur Textformatierung und zur Einbindung von Grafiken sowie eine Volltextsuche runden den bescheidenen Funktionsumfang eines Standard-Wikis ab - und machen es verblüffenderweise doch zu einem mächtigen Werkzeug. Geübte User erzeugen mit dem virtuellen Zettelkasten in Windeseile Strukturen, die Hunderte oder Tausende von Einzelseiten umfassen. Die Einsatzmöglichkeiten sind vielfältig: Wikis fungieren als Wissensspeicher, als Basis für gemeinsame Projektdokumentationen, als Materialanforderungsformular oder als Brainstorminghilfe in Kreativberufen. Und selbst bei der Planung von Betriebsfeiern oder als Datenbank für Kochrezepte sollen sie schon zum Einsatz kommen. Wenn jeder Nutzer jedes einzelne Dokument ändern oder löschen kann, herrscht dann nicht das Chaos? Was passiert, wenn Fehler sich einschleichen oder wichtige Passagen verschwinden? Dagegen sind die Wikis gewappnet: Mit der HistoryFunktion und über Differenzberechnungen lässt sich überblicken, wer wann was geändert hat. Bei Bedarf lassen sich alle Anderungen rückgängig machen. Jeder historische Zustand ist so mit wenigen Mausklicks wiederhergestellt. Seit 1999 setzen Teams des Mobilfunkherstellers Motorola auf Wikis als Werkzeuge für das kollaborative Arbeiten, die Lufthansa verwendet sie zur Verwaltung technischer Dokumentationen, und die Konzerne SAP und Disney experimentieren mit den wenigen hundert Kilobyte kleinen Systemen in ihren Firmennetzen. Das erste Wiki hat der Software-Entwickler Ward Cunningham im Jahr 1995 unter der Adresse c2.com/cgi/wiki ins Netz gestellt - und dort steht es heute noch. Der Begriff "Wiki" ist das hawaiianische Wort für "schnell", und genau darum ging es Cunningham: flottes, unkompliziertes Arbeiten, ohne von einem unübersichtlichen Funktionsumfang gebremst zu werden. Mittlerweile existieren etliche Klons und Weiterentwicklungen des UrWikis, in mehreren Programmiersprachen und für fast alle Computerplattformen. Die meisten stehen gratis und unter der Open-Source-Lizenz im Netz.
Die Idee des editierbaren Internets geht zurück auf den Erfinder des World Wide Web, Tim Berners-Lee, der in seinem Buch Weaving the Web die Grundideen der Wiki-Philosophie aussprach: "Das Web editieren zu können ist genauso wichtig, wie durch es zu browsen." Aber haben Sites, an denen jeder zufällig Vorbeisurfende herumdoktern kann, überhaupt eine Überlebenschance? Wer schon einmal beobachtet hat, wie schnell offene Systeme wie Gästebücher oder Foren im Chaos versinken können, mag berechtigte Zweifel anmelden. Erstaunlicherweise funktionieren offene Wikis aber hervorragend. Beispielsweise Wikipedia: Das seit 2001 laufende Enzyklopädie-Projekt umfasst in der englischsprachigen Variante mehr als 144 000 Artikel. Das Mammutvorhaben, das Wissen der Welt in einem Wiki festzuhalten, wird nicht von einer Hand voll Autoren und Redakteuren angegangen. Vielmehr kann jeder Surfer sein persönliches Know-how dazu beisteuern. Dank der globalen Teamarbeit haben die Wikipedia-Artikel eine beachtliche Qualität erreicht - und können sich bisweilen durchaus mit professionellen und kostspieligen Nachschlagewerken messen. Der Journalist und Bestseller-Autor Sheldon Rampton verfolgt mit seinem Wiki-Projekt Disinfopedia.org speziellere Ziele: Die Enzyklopädie der Propaganda soll dokumentieren, wie PR-Unternehmen, Lobbyisten und Thinktanks die öffentliche Meinung in den USA mit Hilfe von fragwürdigen wissenschaftlichen Studien, fingierten Graswurzelbewegungen oder schlichter Verbreitung von Falschinformationen beeinflussen. Auch Disinfopedia wächst und gedeiht unter Mitarbeit der Netzbewohner, und obwohl man annehmen müsste, dass gerade ein solches politisches Projekt besonders unter Störern und Angreifern leidet, hat sich die Wiki-Technologie bisher als resistent erwiesen. Wer sich mit dem Thema Wissensmanagement beschäftigt, sollte auf jeden Fall ernsthaft prüfen, ob die kleine Wiki-Teeküche für seine Belange ausreicht. Und für manche Netzphilosophen sind die erfolgreichen Experimente mit den offenen Websites dann auch mehr als nur ein gelungenes Beispiel für gemeinschaftliches Arbeiten: Sie seien auch Beweis dafür, dass die menschliche Konstruktivität größer ist als ihre zerstörerischen Kräfte. Ein digitaler Hoffnungsschimmer."
-
Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003)
0.07
0.07164039 = product of:
0.14328077 = sum of:
0.1016527 = weight(_text_:jede in 2418) [ClassicSimilarity], result of:
0.1016527 = score(doc=2418,freq=4.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.23768345 = fieldWeight in 2418, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.01953125 = fieldNorm(doc=2418)
0.041628085 = weight(_text_:und in 2418) [ClassicSimilarity], result of:
0.041628085 = score(doc=2418,freq=38.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.26703218 = fieldWeight in 2418, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2418)
0.5 = coord(2/4)
- Abstract
- Selbst wenn es nach heutigem Ermessen nicht wertvoll wäre, müsste man Onlinematerial zumindest teilweise archivieren. Denn die Bedeutung von Quellen wandelt sich minder Zeit. Heutige Forschergenerationen würden viel für einen Blick auf jene Kurzfilme geben, die man Anfang des vergangenen Jahrhunderts nach einigen Durchläufen als Unterhaltungsmaterial achtlos zur Seite warf. Schon heute ist absehbar, dass lnternetseiten von 1998 Kommunikationswissenschaftler viel über die Beschleunigung und Aufheizung des Mediengeschäfts erzählen können. Wie schnell zogen kommerzielle Medien im Netz im Vergleich zur gedruckten Version der Skandalberichterstattung Matt Drudges über Bill Clintons Affaire nach? Welche Funktion hatten dabei öffentliche Nachrichtenforen? Historiker dürften vom frühen E-Mail-Verkehr in Regierungen und großen Unternehmen einst weit weniger finden als von den früher so geheimen Depeschen.
- Content
- "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."
-
Opaschowski, H.W.: ¬Die digitale Revolution fällt aus (2001)
0.07
0.070608094 = product of:
0.14121619 = sum of:
0.08625516 = weight(_text_:jede in 6745) [ClassicSimilarity], result of:
0.08625516 = score(doc=6745,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.20168108 = fieldWeight in 6745, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.0234375 = fieldNorm(doc=6745)
0.054961026 = weight(_text_:und in 6745) [ClassicSimilarity], result of:
0.054961026 = score(doc=6745,freq=46.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.35255915 = fieldWeight in 6745, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=6745)
0.5 = coord(2/4)
- Content
- "Für Optimisten wie den amerikanischen Computerwissenschaftler Nicholas Negroponte bricht das kommende Digitalzeitalter wie eine Naturgewalt über uns herein. Als Zukunftsforscher kann ich jedoch nicht in den Tenor der üblichen kühnen Prophezeiungen der Medienbranche einstimmen. In Deutschland und den USA wird zwar viel über E-Commerce spekuliert. In Wirklichkeit nutzen aber die privaten Verbraucher dort Shopping, Reisebuchung und Bücherkauf per PC kaum (je unter 3 %), Hornebanking nur 5 % der Amerikaner und 3 % der Deutschen. Obwohl immer mehr Firmen online gehen, halten die Verbraucher weitgehend an ihren außerhäuslichen Konsumgewohnheiten fest. Bisher bietet das Netz gefühls- und erlebnismäßig einfach zu wenig. Auch 2010 werden über 90 % des privaten Verbrauchs nicht über OnlineGeschäfte getätigt. Selbst wenn sich der E-Commerce-Umsatz der privaten Verbraucher jährlich verdoppeln sollte, werden die Online-Geschäfte in Deutschland auch 2002 keine 3 % des Einzelhandelsumsatzes ausmachen (derzeit: 22 Milliarden Mark Einzelhandelsumsatz zu 2,5 Milliarden aus Online-Geschäften). Die Frage, warum Online-Shopping so wenig Resonanz findet, lässt sich auf folgende Ursachen zurückführen: Erlebniskonsum in den Shopping-Centern ist attraktiver; wachsende Ungeduld bei langem Laden der Website, Unzufriedenheit über verwirrend gestaltete Online-Shops, Enttäuschung über nicht verfügbare Produkte sowie Abbruch der Kaufabsicht, wenn das Shop-System abstürzt. Leider findet die digitale Revolution in Deutschland bisher fast nur auf Unternehmensseite statt, die Fragen nach den Bedürfnissen der Konsumenten bleiben weitgehend unbeantwortet.
E-Commerce bleibt für den Verbraucher nur ein ergänzendes Vehikel auf dem Weg zu einem schöneren Leben zwischen Spaß, Bequemlichkeit und Unterhaltung. - E-Communication wird persönliche Begegnungen ersetzen - Im 21. Jahrhundert wird E-Communication bedeutender als E-Commerce. Die junge Generation kommuniziert schon heute mehr über Medien als direkt mit Gleichaltrigen. Telekommunikation total ist angesagt: Mailen, Chatten, Telefonieren zu jeder Zeit, an jedem Ort - diese Art von Spaß wird zum Volkssport der jungen Leute. Die permanente Erreichbarkeit mit der Gewissheit, keine Mitteilung zu verpassen, übt einen besonderen Reiz auf sie aus. Das Leben mit dem großen "E" sorgt für Tempo, Spaß und Mobilität. Doch die Mobilität hat ihren Preis: Die junge Generation wird bald mehr Geld für ihr Handy ausgeben als für Kino und Kneipe. Das Handy wird für sie zur Grundausstattung gehören, Telefonieren ein Grundbedürfnis sein: eben eine der bestimmenden Alltagsbeschäftigungen. Schon heute ziehen es Jugendliche vor, zu telefonieren (66 %) als mit Freunden etwas zu unternehmen (60 %). Letzte Hoffnungen für das Internet richten sich deshalb auf die MobilfunkGeneration, die nächste Stufe der OnlineRevolution. Das Internet soll mobil werden und der Handybesitzer rund um die Uhr und überall kaufen und konsumieren. Doch die meisten jungen Handybesitzer werden Mühe haben, überhaupt ihre Telefongebühren zu bezahlen. - Die Informations-oder Wissensgesellschaft ist nur eine Vision - Auch für den privaten Gebrauch ist der Computer in erster Linie ein Kommunikations- und Unterhaltungsmedium und nur gelegentlich eine Informations- oder Einkaufsbörse. Die meisten Konsumenten nutzen ihren PC als Schreibmaschine zum Text- und E-Mail-Schreiben oder vergnügen sich bei Spielprogrammen. Die USA und Deutschland werden wie bisher mehr eine Leistungs- und Konsumgesellschaft als eine Informationsund Wissensgesellschaft sein. Die meisten konsumieren doch noch lieber als sich zu informieren. Das Internet wird das private Leben nicht revolutionieren, sondern nur helfen, es zu optimieren.
Wer sich ernsthaft um die eigene Zukunft Gedanken macht, wird die Altersvorsorge nicht nur als materielle, sondern auch als körperliche, soziale und mentale Daseinsvorsorge begreifen. Denn bessere Lebensbedingungen und medizinischer Fortschritt haben nicht nur die Lebenserwartung, sondern auch die durchschnittliche Rentenbezugsdauer verlängert (zum Beispiel 1960: 10 Jahre, 2000: 20 Jahre). Die meisten werden zukünftig ein Vierteljahrhundert im Ruhestand leben "müssen". Daher werden in der immer älter werdenden Gesellschaft Pharmaforschung, Bio- und Gentechnologien im Kampf gegen Krebs, Alzheimer oder Demenz boomen sowie gesundheitsnahe Branchen, die Care und Wellness, Vitalität und Revitalisierung anbieten. - Frauen bevorzugen weiterhin KKK und nicht WWW - Eine andere optimistische Prognose zum digitalen Zeitalter hält auch nicht stand. So verkündet eine aktuelle Werbekampagne der deutschen Bundesregierung den Slogan "Drei K sind out, WWW ist in. Kinder, Küche, Kirche sind für Frauen nicht mehr das Ein und Alles ..." Diese Behauptung geht weit an der Wirklichkeit des Jahres 2001 vorbei. Die Frauenpower von heute findet noch immer mehr in der Kirche als im World Wide Web statt. Nur 4 % der Frauen in Deutschland (Männer: 13 %) nutzen wenigstens einmal in der Woche privat Online-Dienste. Der Anteil der Frauen, die regelmäßig jede Woche in die Kirche gehen, ist fast fünfmal so hoch (19 %) - von den Besuchen in der Küche ganz zu schweigen; auch Kinder sind noch lange nicht abgeschrieben. Die Zuneigung der Deutschen zum Computer hält sich in Grenzen. Repräsentative Studien belegen, dass derzeit über 80 % der Bevölkerung in der Regel keinen PC zu Hause nutzen, dafür lieber an ihren alten TV-Gewohnheiten zwischen Tagesschau und Sportsendung festhalten, zwischendurch Handy-Kontakte aufnehmen oder den Anrufbeantworter "abarbeiten". Laut Verband der Elektrotechnik hat der Anteil der so genannten Computer-Muffel seit 1998 sogar zugenommen. Das PC-Zeitalter beziehungsweise Online-Jahrhundert ist offenbar schon zu Ende, bevor es überhaupt begonnen hat."
-
Becht, S.: ¬Das Linux des Wissens : Richard Stallmann plant eine frei zugängliche Enzyklopädie (2001)
0.07
0.069386125 = product of:
0.13877225 = sum of:
0.08625516 = weight(_text_:jede in 6635) [ClassicSimilarity], result of:
0.08625516 = score(doc=6635,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.20168108 = fieldWeight in 6635, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.0234375 = fieldNorm(doc=6635)
0.05251708 = weight(_text_:und in 6635) [ClassicSimilarity], result of:
0.05251708 = score(doc=6635,freq=42.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.33688194 = fieldWeight in 6635, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=6635)
0.5 = coord(2/4)
- Abstract
- Er gilt als Gründungsvater der OpenSource-Bewegung: Der Programmierer Richard Stallmann kündigte 1984 seinen Angestellten-Vertrag und widmete sich frei verfügbarer Software. Damit legte er auch die Grundlage für das Erfolgsprojekt Linux. Nun startet Stallman ein weiteres ProJekt: eine Internet-basierte Enzyklopädie. GNUPedia ist die Bezeichnung für das elektronische Lexikon, das das Wissen der Welt im Internet zusammentragen möchte. Zur schreibenden Hilfe aufgerufen sind alle, die einen Beitrag leisten möchten besonders Akademiker, Lehrer, Studenten und Schüler. Was nicht heißt, jeder könnte beliebigen Unfug veröffentlichen: Die Artikel werden gegenseitig begutachtet oder von Zertifizierungsstellen beglaubigt. Unterschiedliche Beiträge oder Meinungen zu einem Thema stehen aber unzensiert nebeneinander. Die in Englisch verfassten Artikel sollen nach und nach in andere Sprachen übersetzt werden. In seiner Grundphilosophie ähnelt das GNUPedia-Projekt der Open-Source-Bewegung für Software. So unterliegt die Enzyklopädie keinerlei Zugangsbeschränkungen, auch nicht finanzieller Art. Sie wird dezentral verwaltet. Beiträge dürfenjederzeit zitiert und sogar ohne Einschränkung komplett kopiert werden - jedoch stets mit einem Herkunftsnachweis versehen. Und natürlich soll die freie Enzyklopädie eine Alternative zu den eingeschränkten Werken anbieten, die von Medien-Unternehmen geschrieben beziehungsweise herausgebracht werden", erklärt Stallman. Natürlich ist das Ganze ein Mammutprojekt. Doch der Initiator hat es nicht besonders eilig. ,Small steps will do the job", kleine Schritte tun es auch, sagt er. Und wenn es 20 Jahre dauere, sei das auch in Ordnung. Stallman weiß, was er tut. Denn zwei wesentliche Dinge könnten seine freie, universelle Enzyklopädie zum Linux des Wissens werden lassen. Erstens gibt er dem Weh zurück, was das Web in seinem Wesen ist. Denn die funktionale InternetOberfläche ist nicht nur geeignet, um Inhalte zu offerieren, wie es die meisten Anbieter mehr oder minder gut auf ihren Sites probieren. Das WWW ist auch ein idealer Marktplatz für Ideen, Inhalte und Beiträge. So entstanden nach und nach Communities. Die haben im Internet Tradition, etwa in Form der Diskussionsforen des Usenets, und werden derzeit mit so genannten Web-Logs wiederbelebt. Zweitens hat Stallman seit Jahrzehnten Erfahrung im vernetzten, weltweiten Arbeiten. Ähnlich einem Redakteur für Lexika oder Dokumentationen beim Schreiben und Prüfen eines Artikels, ist der Mann bei der Programmier-Arbeit zu korrektem, verifizierbarem und zertifizierbarem Handeln geradezu gezwungen. Noch dazu, wenn, wie bei ihm, nach der Methode der offenen Quellen gearbeitet wird. Wie so etwas praktisch zu handhaben ist, lässt sich auf www.nupedia.com von Lawrence M. Sanger und Jimmy Wales schon bewundern. Bei Nupedia sind 150 Artikel von etwa hundert Wissenschaftlern in Arbeit. Auch dort wird penibel auf Qualität geachtet: Die Autoren müssen ausgewiesene Fachleute auf ihrem Gebiet sein. Jede Geschichte lesen mindestens drei andere Koryphäen gegen, und dann begutachten die 3000 kostenlos registrierten Nupedia-Mitglieder die Einträge. Erste Texte lassen sich schon nachlesen - siehe da: Das Wir-helfen-und-achten-uns-gegenseitig-Prinzip funktioniert. Nach anfänglichen Ressentiments sieht es nun so aus, als würden GNU Pedia und Nupedia im Web zusammenwachsen. Die Abkürzung GNU steht für GNU's Not Unix". Sie stammt aus dem Jahre 1984, als Stallman, nach langer Arbeit mit freier Software, die meisten Kollegen an die langsam boomende PC-Industrie verlor. Der Programmierer begann, ohne zu wissen, ob es überhaupt möglich sein würde, ein neues, freies Betriebssystern für Computer zu programmieren: GNU. Alle Codes für das Unix-kompatible System lagen und liegen offen und werden von einer nun weltweit vernetzten Community ständig benutzt, verändert und verbessert. GNU umfasst heute eine Reihe von freier Software, die meist mit der Offene-Quellen-Methode entstanden ist. Das bekannteste Beispiel ist Linux von Linus Torvald - der Kern des alternativen Betriebssystems. Die im Web populärste GNU-Anwendung dürfte wohl Gnutella (www.gnutella.co.uk, www.gnutellanews.com) sein, die nach dem Peer-to-peer-Prinzip organisierte Musiktauschbörse. Im Gegensatz zu dem bekannteren und vereinnahmenden Napster ist Gnutella auf keinen zentralen Rechner angewiesen, der (Musik-) Dateien bereitstellt. Im Gnutella-Netz ist jeder eingeloggte Rechner Teil des Netzwerks, Geber und Nehmer in einem, und damit nicht mehr zentral, wie beim proprietären Napster, zu kontrollieren oder abzuschalten
-
Weilenmann, A.-K.: Fachspezifische Internetrecherche : für Bibliothekare, Informationsspezialisten und Wissenschaftler (2001)
0.07
0.06743826 = product of:
0.13487652 = sum of:
0.08625516 = weight(_text_:jede in 1507) [ClassicSimilarity], result of:
0.08625516 = score(doc=1507,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.20168108 = fieldWeight in 1507, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.0234375 = fieldNorm(doc=1507)
0.04862136 = weight(_text_:und in 1507) [ClassicSimilarity], result of:
0.04862136 = score(doc=1507,freq=36.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.31189203 = fieldWeight in 1507, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1507)
0.5 = coord(2/4)
- Classification
- AN 95000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Informationspraxis # Bibliographische Erfassung, Suchpraxis]
AN 97000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Fachliche Information und Dokumentation # Allgemeines, Wissenschaft, Hochschulwesen]
- Footnote
- Rez. in: Online-Mitteilungen 2006, H.88 [=Mitteilungen VÖB 2006, H.4], S.16-18 (M. Buzinkay): "Dass das Internet ein Heuhaufen sein kann, in dem die berühmt-berüchtigte Nadel nicht einmal annähernd gefunden werden kann, hat sich herumgesprochen. Orientierungshilfen und Wegweiser gibt es also viele, sowohl online als auch über traditionellere Medien wie dem Buch. Auch das vorliegende Werk von Anna-Katharina Weilenmann ordnet sich in diese Kategorie von Internet-Führern ein. Auf rund 200 Seiten werden Einstiege in verschiedenste Themen der Wissenschaft angeboten. Über so genannte Subject Gateways - nennen wir sie schlicht Themen-Portale - werden Wissenschaftsdisziplinen erschlossen, meist in einer kurzen, aber präzisen Beschreibung der online-Ressource. Jedes Sachgebiet wird zudem um Lexika, Enzyklopädien, Bibliographien und Datenbanken ergänzt. Die Ordnung der Sachgebiete orientiert sich an der Dewey Dezimalklassifikation. Die Bandbreite der Sachgebiete ist dementsprechend groß und orientiert sich an der Wissenschaft: - Bibliotheks- und Informationswissenschaft - Philosophie und Psychologie, Religion / Theologie - Sozialwissenschaften, Soziologie, Politik - Wirtschaft, Recht - Erziehung, Ethnologie, Sprache, Literaturwissenschaft - Mathematik, Physik, Chemie, Biologie - Technik - Medizin - Landwirtschaft, Informatik - Kunst, Architektur, Musik, Theater, Film - Sport - Geschichte Geographie, Reisen Bei der Auswahl der einzelnen Web-Quellen ließ sich die Autorin von Qualitätskriterien wie Alter der Webseite, der Zuverlässigkeit der Inhalte, der Aktualität aber auch von der Art der Trägerschaft leiten. Webseiten mit einem akademischen Hintergrund standen daher im Vordergrund, waren aber nicht ausschließlich vertreten. So finden sich auch Webseiten kommerzieller Anbieter (z.B. Scopus von Elsevier) oder auch anderer öffentlicher, nicht-akademischer Institutionen (wie der Österreichischen Nationalbibliothek mit Ariadne) im Webseiten-Verzeichnis. Rund 200 deutsch- und englischsprachige Einträge werden im Buch genauer beschrieben, mit Informationen zum Inhalt des Angebots, der Urheberschaft und Angabe möglicher Kosten. Auch weiterführende Links werden häufig angeführt. Ein einführendes Kapitel zur Informationsrecherche rundet dieses gelungene Buch ab.
Empfehlung: Das Buch eignet sich meiner Meinung nach gut als Ausgangspunkt für die Recherche in einem noch unbekannten Sachgebiet. Zum einen, weil ein Sachgebiet von recht wenigen, dafür von der Autorin gut ausgesuchten Web-Quellen eingerahmt wird. Zum anderen, weil hier von vertrauenswürdigen Webseiten ausgegangen werden kann. Man kann es auch anders sagen: dieses Buch gehört möglichst nahe an jede InternetArbeitsstation. Aufgrund der Dynamik des Themas - Links und Webseiten können recht rasch "altern" - hat dieses Buch natürlich eine fast schon natürliche Lebensdauer. Hier wäre es interessant, und das ist weniger ein Hinweis an die Autorin als vielmehr ein Wink an den Verlag, die so detailreich beschriebenen Quellen auch online zugänglich zu machen, nämlich in der Form von Bookmarks, die von den Leserlnnen auf eigene Bookmarking-Tools übernommen werden könnten. Entweder ganz einfach als Favoriten im eigenen Browser oder zu elaborierten Werkzeugen wie Rollyo, wo individuelle Suchdienste basierend auf selbst erstellten Searchrolls bedient werden könnten. Damit würde man sich die mehr als lästige Tipp-Arbeit ersparen. Mehr zu Rollyo können Sie unter http://www.buzinkay.net/blog-de/2006/11/rollyo/ nachlesen."
Weitere Rez: Information - Wissenschaft und Praxis 58(2007) H.5, S.317-318 (M. Katzmayr): "Fazit: Mit diesem Band ist eine interessante und relevante Zusammenstellung wichtiger Ausgangspunkte für thematische Webrecherchen geglückt, aufgrund seiner praktischen Relevanz ist ihm eine weite Verbreitung zu wünschen. Insbesondere Bibliothekare im fachlichen Auskunftsdienst in wissenschaftlichen oder größeren öffentlichen Bibliotheken können aus dieser gut sortierten Fundgrube hochwertiger Internetquellen einen großen Nutzen ziehen."
- RVK
- AN 95000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Informationspraxis # Bibliographische Erfassung, Suchpraxis]
AN 97000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Informationswissenschaft # Fachliche Information und Dokumentation # Allgemeines, Wissenschaft, Hochschulwesen]
-
Deussen, N.: Sogar der Mars könnte bald eine virutelle Heimat bekommen : Gut 4,2 Milliarden sind nicht genug: Die sechste Version des Internet-Protokolls schafft viele zusätzliche Online-Adressen (2001)
0.07
0.06666346 = product of:
0.13332692 = sum of:
0.1016527 = weight(_text_:jede in 6729) [ClassicSimilarity], result of:
0.1016527 = score(doc=6729,freq=4.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.23768345 = fieldWeight in 6729, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.01953125 = fieldNorm(doc=6729)
0.031674225 = weight(_text_:und in 6729) [ClassicSimilarity], result of:
0.031674225 = score(doc=6729,freq=22.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.20318104 = fieldWeight in 6729, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=6729)
0.5 = coord(2/4)
- Abstract
- In der Virtualität wird's eng. Die Möglichkeiten des Scheinbaren sind anscheinend ausgereizt. Es mangelt bald an InternetAdressen. Wenn WhirIpools und Wasclunaschinen ihren eigenen Zugang zum Internet brauchen, wird der Vorrat an Kennzahlen knapp. Um dem drohenden Mangel zu begegnen, wird seit Jahren an einer überarbeiteten Fassung des Internet-Protokolls (IP) gebastelt. Doch die Neuauflage hat bis auf ein paar Testläufe - bisher ihren Weg ins Netz noch nicht gefunden. Für Aufregung sorgte sie dennoch bereits: wegen Datenschutzproblemen. Für die Kommunikation zwischen Computern im Internet gibt es eine Art Knigge. Die protokollarische Vorschrift legt fest; wie die Rechner Daten untereinander austauschen. Doch zuvor brauchen die Maschinen Namen (wie www.fr-aktuell.de) und Anschriften (hier: 194.175.173.20), damit sie sich einander vorstellen (Shake Hands) und später Daten schicken können. Vergeben werden die Bezeichnungen von der Internet Corporation for Assigned Names and Numbers Icann). Den ersten Vorschlag für eine einheitliche Übergaberegelung machten Bob Kahn und Vint Cerf im Jahr 1974. Damals versuchten im inzwischen legendären, militärisch genutzten Arpanet kaum tausend Großrechner an etwa 250 Standorten miteinander zu kommunizieren. Um Ordnung in das Sprachengewirr der verschiedenen Bautypen zu bringen, mussten Regeln her. Die Idee entwickelte sich zum Protokoll, das nach Informatik-Manier mit dem Kürzel TCP/IP belegt wurde. Mit etwa 100000 angeschlossenen Computern wurde das Netz 1983 zivil - und TCP/IP zum offiziellen Standard. Derzeit regelt die vierte Version des Internet-Protokolls (IPv4) den Bit-Transport. Die Adresse wird jedem Datenpaket vorangestellt. Sie besteht aus Ziffern und ist exakt 32 Bit lang. Daraus ergeben sich mehr als 4,2 Milliarden Zahlenkombinationen. Genug für einen Globus, auf dem erst kürzlich der sechsmilliardste Erdenbürger das Licht der realen Welt erblickte - dachten die Computer-Operateure damals. Dann kam das World Wide Web.
Der Geniestreich aus dem Europäischen Labor für Teilchenphysik (Cern) in Genf machte aus dem Wissenschaftsnetz ein Massenmedium. Zudem erfuhr die elektronische Post einen Aufschwung. Das Wachstum der Netze sprengt alle Erwartungen", resümiert Klaus Birkenbihl vom InformatikForschungszentrum GMI). Jede Web-Site, jede E-Mail-Box, jeder Computer, der per Standleitung online ist, braucht eine eindeutige Identifizierung. Die Schätzungen, wie viele IPv4-Adressen noch frei sind, schwanken zwischen 40 und zehn Prozent. Der Verbrauch jedenfalls steigt rasant: Die Anzahl der WebSites steuert derzeit auf eine Milliarde zu, weit mehr Netznummern gehen bereits für E-Mail-Anschriften drauf. Den Adressraum weiter ausschöpfen werden demnächst die intelligenten Haushaltsgeräte. Der Laden an der Ecke will wissen, welcher Kühlschrank die Milch bestellt hat, die Videozentrale braucht für das Überspielen des Films die Kennung des PC-Recorders, der Computer des Installateurs benötigt die IP-Anschrift der Heizungsanlage für die Fernwartung. Handys, die später Nachrichten übers Internet schicken, und Internet-Telefonie gehen möglicherweise leer aus. Doch bevor Internet-Adressen zur heiß begehrten Schieberware werden, soll ein neues Adresssystern mit mehr Möglichkeiten her. Schon 1990 hatte sich die Internet Engineering Task Force (IETF) Gedanken über einen neues Internet-Protokoll mit einem größeren Adressangebot gemacht. Im IETF kümmern sich Forscher, Soft- und HardwareIngenieure um die fortlaufende Verbesserung von Architektur und Arbeit des Netz werks. Eine ihrer Arbeitsgruppen prognostizierte, der IPv4-Vorrat gehe 2005 zu Ende. Fünf Jahre dauerte es, dann waren sich alle Internet-Gremien einig: Eine neue Protokollversion, IPv6, muss her. Dann passierte weiter nichts. Endlich verkündete 1999 Josh Elliot von der Icann, ab sofort würden neue Anschriften verteilt. Ein historischer Moment", freute er sich.
Der neue 128-Bit-Header treibt die Möglichkeiten ins Astronomische: 3,4 mal zehn hoch 38 Adressen, eine 3,4 mit 38 Nullen. -Das IPv6-Forum zerhackte den Zahlentrumm in anschauliche Stücke: Pro Quadratmillimeter Erdoberfläche stehen nun zirka 667 Billiarden, pro Mensch 6,5 mal zehn hoch 28 Adressen, bereit." Eine Billiarde bringt es immerhin auf respektable 15 Nullen. Schon kurz darauf ging ein Aufschrei durch die Netzgemeinde. Das neue Protokoll schrieb die weltweit eindeutigen Seriennummern bestimmter Netzwerkkarten auf den virtuellen Adressaufkleber. Die Ethernet-Adapter bewerkstelligen den Datentransport bei Computern, die über eine Standleitung, ein Koaxialkabel, dauernd online sind. Die Spur von Ethernet-Usern wäre damit leicht zu verfolgen gewesen, ihre Nutzerprofile, ihre Surfgewohnheiten einsehbar wie offene Bücher. Das Problem, ließ Icann nun wissen, sei behoben: Es gebe keine festen Kennzahlen mehr in den Adressköpfen. Bei jedem Hochfahren eines Rechners oder sogar noch öfter werden die Nummern neu durchgemischt", erläutert Hans Petter Dittler, stellvertretender Vorsitzender der deutschen Sektion der Internet Society. Das Betriebssystem Linux kann bereits mit dem IPv6 arbeiten. Microsoft will den Standard in das nächste Windows-Betriebssystem einbauen: "Wir denken, der vorgeschlagene Standard ist wichtig zum Schutz der Privatsphäre der Internet-Nutzer", sagt Jawad Khaki, Vizepräsident für Netzwerke. Seit einigen Tagen steht auf der Microsoft-Homepage eine Vorab-Version von lPv6 für Windows 2000 zum Herunterladen bereit. Geradezu euphorisch gibt sich Protokoll-Chef Vint Cerf. Mit IPv6 haben wir die Grundlage dafür", philosophierte der Internet-Daddy auf dem ersten lPv6-Kongress 1999 in Berlin, "das Internet von unserem Planeten über den Mars und die Asteroiden bis in den Weltraum hinaus auszudehnen." Doch im Internet-Alltag wird das alte Protokoll noch lange Vorrang haben. Grund sind handfeste Programmier-Probleme. Denn Software, die sich explizit auf die vierte IP-Version bezieht, muss umgeschrieben werden - etwa um mit den längeren Adressfeldern umgehen zu können. Hubert Martens vom Münchner Multinet Services befürchtet gar einen InternetCrash: "Das Jahr-2000-Problem war harmlos gegen das, was uns mit lPv6 droht."
-
Berberich, C.: Wie das Netz zwitschert : Zuerst wollten sich nur Freunde über Twitter austauschen - heute nutzen es Politiker und Firmen (2009)
0.07
0.06604791 = product of:
0.13209581 = sum of:
0.08625516 = weight(_text_:jede in 191) [ClassicSimilarity], result of:
0.08625516 = score(doc=191,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.20168108 = fieldWeight in 191, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.0234375 = fieldNorm(doc=191)
0.04584066 = weight(_text_:und in 191) [ClassicSimilarity], result of:
0.04584066 = score(doc=191,freq=32.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.29405463 = fieldWeight in 191, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=191)
0.5 = coord(2/4)
- Content
- "Was ist Twitter? - Twitter ist ein sogenannter Mikroblogging-Dienst. Bloggen bedeutet, im Internet selbst geschriebene Texte zu veröffentlichen. Beim Mikroblogging sind diese Texte sehr kurz - bei Twitter maximal 140 Zeichen. Ein solcher Eintrag heißt "Tweet", wer den Dienst nutzt, der "twittert" - er zwitschert. Twitter wurde 2006 von dem Software-Entwickler Jack Dorsey gegründet und hat seinen Sitz in San Francisco. Heute gilt twitter.com als eine der 50 populärsten Internetseiten weltweit und hat nach eigenen Angaben etwa 24 Millionen Nutzer. Wie funktioniert Twitter? - Jeder Nutzer richtet sich ein Profil ein und schreibt darin seine 140-Zeilen lange Texte. Zentrales Prinzip von Twitter: Jeder kann die Texte anderer Nutzer abonnieren, die er gleich nach Veröffentlichung in seinem Twitter-Postfach findet. So kann man sich über eine bestimmte Person ständig auf dem Laufenden halten. In der Twitter-Sprache ist man dann ein "Follower" - man folgt einem anderen Nutzer, man beobachtet seine Meldungen. Weil sich die Nutzer kreuz und quer verfolgen und es viele Follower-Ketten gibt, ist Twitter ein riesiges Netzwerk, über das sich Informationen blitzschnell verbreiten. Was ist die Idee dahinter? - Der Twitter-Gründer Dorsey wollte einfach immer wissen, was seine Freunde gerade so machen. Mit Twitter schuf er die Möglichkeit dazu und gab ihr einen technischen Rahmen. Jetzt können sich alle, die das möchten, gegenseitig auf dem Laufenden halten. Das produziert natürlich auch viele Null-Informationen ("Ich koche gerade Kaffee"), oft aber auch ernsthafte Diskussionen. Wer interessanten Menschen folgt, kann wertvolle Anregungen bekommen. Wer twittert? - Interessanterweise sind die meisten Twitterer keine Jugendlichen. Einer Umfrage unter deutschen Twitter-Nutzern zufolge ist der typische Zwitscherer 32 Jahre alt, männlich, hat Abitur und arbeitet in der Medien- oder Marketingbranche. Nach einer nicht repräsentativen Studie des Jugendreiseveranstalters RUF kennen 90 Prozent aller 11- bis 21-Jährigen in Deutschland Twitter überhaupt nicht.
Twitter im Wandel - Anfangs war Twitter noch etwas für Internet-Junkies. Seit aber Barack Obama den Dienst im US-Präsidentschaftswahlkampf 2008 intensiv nutze, ist Twitter auch einer breiteren Öffentlichkeit bekannt. Heute twittern sogar deutsche Politiker, Hubertus Heil (SPD) und Volker Beck (Grüne). Sie hoffen, damit vor allem junge Wähler für die Politik zu interessieren. Firmen nutzen Twitter zunehmend, um über Produkte zu informieren und sich mit Kunden auszutauschen. Die australischen Behörden versendeten Twitter-Warnungen über die Buschbrände in diesem Februar. Und während der Unruhen im Iran bekam Twitter eine wichtige politische Bedeutung als ungefilterter Nachrichtenkanal. Wer profitiert von Twitter? - Die Firma selbst bislang nicht - jedenfalls nicht finanziell. Twitter ist nach wie vor ein gewaltiges Zuschuss-Geschäft, in das risikifreudige US-Investoren ihr Geld stecken. Die Firma selbst zeigt eher wenig Interesse am Geldverdienen. Auf der Twitter-Internetseite heißt es: "Wir haben viele interessante Möglichkeiten, Geld einzunehmen. Aber wir wollen uns nicht von wichtigeren Arbeiten ablenken lassen." Und weiter: "Wir geben mehr Geld aus, als wir verdienen. Durch die Koopereation mit Google und Microsoft könnte sich das ändern: Die beiden IT-Riesen zahlen für den Deal. Twitter hat auch schon öfter angekündigt, Werbung auf seinen Seiten zu schalten. Wie steht es um den Datenschutz? - Im Gegensatz zu Konkurrenten wie StudiVZ ist Twitter bislang nicht durch einen Datenskandal aufgefallen. Allerdings sammelt die Firma Namen und E-Mail-Adressen ihrer Nutzer und behält sich das Recht vor, diese Daten zu vermarkten. Twitter-Anwender könnten also einmal viel Werbung in ihrem E-Mail-Postfach finden. Sollte Twitter aufgekauft werden, gehören auch die Nutzer-Daten zur Verkaufsmasse. Twitter in kritischer Diskussion - Wie fast jede neue Technik steht auch Twitter immer wieder in der Kritik. Nach einer Studie der englischen Psychologin Tracy Alloway macht zu viel Twittern dumm: Die kurzen 140-Zeichen-Meldungen unterforderten das Gedächtnis. Andere Forscher sehen einen positiven Effekt, da das ständige Schreiben und Kommunizieren die Kreativität fördere."
-
Majica, M.: ¬Eine ganz große Nummer : dem User eröffnet die Umstellung viele ungekannte Möglicchkeiten - zumindest in Zukunft (2012)
0.07
0.06604791 = product of:
0.13209581 = sum of:
0.08625516 = weight(_text_:jede in 1224) [ClassicSimilarity], result of:
0.08625516 = score(doc=1224,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.20168108 = fieldWeight in 1224, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.0234375 = fieldNorm(doc=1224)
0.04584066 = weight(_text_:und in 1224) [ClassicSimilarity], result of:
0.04584066 = score(doc=1224,freq=32.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.29405463 = fieldWeight in 1224, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1224)
0.5 = coord(2/4)
- Abstract
- An diesem Mittwoch ändert sich die Architektur des World Wide Web: Provider, Betreiber von Webseiten und Hersteller von Computern und Smartphones stellen auf den neuen Adressstandard IPv6 um.
- Content
- "Nun beginnt für das Internet eine neue Zeitrechnung. Die Organisation Internet Society spricht von einem Meilenstein auf dem Weg in die Zukunft: Am 6. Juni wird das neue Internet Protocol Version 6 eingeführt, Insidern besser bekannt unter der Abkürzung IPv6. Für diese technische Neuerung wurde es nach Ansicht von Experten höchste Zeit. Wir dokumentieren die wichtigsten Fragen zum Start, dem IPv6 Launch Day. IPv6 kommt - wird alles anders? In den Maschinenräumen des Internets schon. Doch so groß die Veränderungen im Inneren auch sind: Äußerlich wird sich erst mal nichts ändern. Auf den ersten, zweiten und auch dritten Blick wird das Internet nach diesem 6. Juni genauso funktionieren wie sonst. Warum wird diese Umstellung überhaupt gemacht? Weil die bisherigen IP-Adressen knapp geworden sind. Mit dem bisher üblichen System können rund vier Milliarden Adressen ausgeben werden. Da die Zahl der weltweiten PC, Tablet-Computer, Smartphone, Spiele-Konsolen und ähnlichen Geräten rasant gestiegen ist, gibt es längst zu wenige Adressen. Bisher funktioniert das Internet nur deshalb meist reibungslos, weil all diese Geräte nicht gleichzeitig online sind.
Wie viel mehr neue IP-Adressen sind denn nun möglich? Mit dem neuen IPv6 stehen 340 Sextillionen Adressen zur Verfügung - das ist eine 34 mit 37 Nullen. Das reicht zumindest fürs Erste. Was sind IP-Adressen überhaupt? Sie sind quasi die Adresse von Computern, an die Daten oder Anfragen geschickt werden. Jede Homepage hat eine eine solche Adresse, und jeder Internetnutzer auch. IP-Adressen in der bisher gängigen Version 4 bestehen aus vier Blöcken maximal dreistelliger Zahlen mit Werten zwischen 0 und 255. So hat etwa die Webseite des Chaos Computer Clubs die IP-Adresse 213.73.89.122. Da sich aber www.ccc.de leichter merken lässt, übersetzen sogenannte DNS-Server zwischen den Wort- und den Zahl-Adressen. Und was ist anders an IPv6? Die Adressen sehen zum einen anders aus: Der Wikipedia-Eintrag zu IPv6 findet sich etwa unter 2001:0db8:85a3:08d3:1319:8a2e:0370:7344. Zum anderen enthalten sie 128 Bit Information statt bisher 32 Bit. Dadurch vergrößert sich die Anzahl möglicher Adressen, der sogenannte Adressraum. Außerdem wird durch den neuartigen Aufbau auch die Verwaltung in den Innereien des Internets vereinfacht. Deshalb haben zahllose Unternehmen und Initiativen seit Jahren an der Einführung des neuen Protokolls gearbeitet. Große Software-Firmen wie Microsoft, Apple oder Google haben die meisten aktuellen Programme längst so überarbeitet, dass sie IPv6 "sprechen". Sind die alten Adressen damit überholt? Für einige Jahre werden beide Protokoll-Versionen parallel laufen, auch um einen reibungslosen Übergang zu gewährleisten. Die Netzbetreiber müssen sich bei der Umstellung auf IPv6 ohnehin erst vom Skelett des Internets zum einzelnen Kunden vorarbeiten. Während die zentrale Infrastruktur etwa bei der Telekom bereits IPv6 beherrsche, wie deren Sprecher Ralf Sauerzapf erläutert, soll es bis Ende dieses Jahres immerhin bei bis zu 800.000 Endkunden angekommen sein. Dies gelte aber nur für Kunden, die auf neue "IP-Anschlüsse" umstellen.
Ist durch IPv6 mit Ausfällen und Problemen zu rechnen? Da die Umstellung seit längerem vorbereitet wurde und schrittweise umgesetzt wird, rechnen Experten nicht damit. An der Einführung beteiligen sich nun alleine in den USA eine ganze Reihe großer Netzbetreiber wie AT&T, aber auch Hardware-Hersteller wie Cisco und D-Link und große Internet-Konzerne wie Google, Facebook, Microsoft und Yahoo. Verändert sich für den Internet-Nutzer etwas im Alltag? Zunächst eher nicht, perspektiv aber schon. Durch die nahezu unendliche Zahl an Adressen entstehen neue Anwendungs-Möglichkeiten. Bisher werden in den meisten Netzwerken, etwa im heimischen W-Lan, regelmäßig neue IP-Adressen vergeben, um die beschränkten Ressourcen flexibel zu nutzen. In Zukunft könnte jedem einzelnen Gerät eine einzige IP-Adresse für seine gesamte Lebenszeit zugewiesen werden. Damit könnten auch Geräte wie ein Kühlschrank, die Heizungsanlage oder Stromzähler eine Adresse bekommen (siehe Text nebenan) und ansteuerbar sein. Jedoch wäre dann jedes Internet-Gerät eindeutig identifizierbar. Datenschützer haben deshalb bereits Protest angemeldet. Lassen sich IPv6-Adressen nicht anonymisieren, wie bei der Rufnummernunterdrückung? So etwas planen Netzbetreiber. Die Telekom hat etwa angekündigt, den Netzwerk-Teil am Anfang der Adresse alle 24 Stunden neu zu codieren, auf Wunsch des Nutzers auch häufiger. Der Betreiber 1&1 hat in einem Firmenblog angekündigt, auch mit IPv6 die Adressen dynamisch zu vergeben, also immer wieder neu. Zudem wird auf der Internetseite 1und1.de erläutert, wie man die Kennung des Endgerätes verschlüsselt, die in die zweite Hälfte der Adresse einfließt."
- Footnote
- Beispiel einer IPv6-Adresse: 2001:08e0:72d3:7d88:1122:33ff:fe44:5566 (1122:33ff:fe44:5566 ist dabei die Endgeräte-Adresse und entspricht der alten MAC-Adresse) Vgl.: http://www.fr-online.de/digital/internet-protocol-version-6-ipv6-ist-eine-ganz-grosse-nummer,1472406,16307336.html: "IPv6 ist eine ganz große Nummer".
-
Charlier, M.: ¬Das Netz wartet auf neue Zeichen : Viele Web-Adressen sind vergeben - selbst weitere Top-Level-Domains und fremde Schriften helfen nicht unbedingt (2001)
0.06
0.063787684 = product of:
0.12757537 = sum of:
0.08625516 = weight(_text_:jede in 6783) [ClassicSimilarity], result of:
0.08625516 = score(doc=6783,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.20168108 = fieldWeight in 6783, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.0234375 = fieldNorm(doc=6783)
0.041320212 = weight(_text_:und in 6783) [ClassicSimilarity], result of:
0.041320212 = score(doc=6783,freq=26.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.26505727 = fieldWeight in 6783, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=6783)
0.5 = coord(2/4)
- Abstract
- Kurz bevor es mit den Dotcoms bergab ging, wurde aus den USA gemeldet, die letzten Internet-Domains mit drei Buchstaben vor dem com seien verkauft. Inzwischen sind auch die letzten .de-Domains mit drei Zeichen weg; Restbestände werden von einem Spekulanten unter sedo.de zum Preis von 700 Mark angeboten. Im April waren 4 300 000 Adressen für de registriert. Personennamen sind fast alle vergeben - auch viele Zusammensetzungen Vorname-Familienname. Wer mit einem neuen Angebot ins Netz will, muss sich schon einen Fantasienamen wie alando oder belana einfallen lassen - und auch die sind oft schon besetzt. Während die Zahl der numerischen IP-Adressen nicht unbegrenzt erhöht werden kann - erst die geplante sechste Version des IP-Protokolls wird hier größeren Spielraum bieten -, ist die Menge der Domainnamen prinzipiell unbegrenzt. Theoretisch kann man beliebig viele Top-Level-Domains (TLD) einrichten - und mit allen bekannten und unbekannten Wörtern daraus Netzanschriften machen. Als die Internet-Verwaltung Icann im vergangenen Herbst über eine Erweiterung des Adressraums beriet, lagen denn auch mehr als 200 Vorschläge für TLDs auf dem Tisch, die der gegenwärtigen Knappheit abhelfen sollten. Die Liste reichte vom auf amerikanisch durchaus seriös für Unternehmen bis zum lockeren sucks (nervt), wo unzufriedene Kunden der BizUnternehmen unter dem Firmennamen ihre Kritik ins Netz stellen könnten: citroen.sucks, volkswagen.sucks, opel.sucks. Das Icann hat allerdings zunächst nur sieben neue TLDs zugelassen: biz, (nicht jedoch sucks), name für Privatpersonen, .museum (für eben diese), aero (für Luftverkehrsunternehmen), coop für genossenschaftliche Unternehmen und .info für allgemeine Verwendungen. Dazu kommt eine streng reglementierte pro-Domain, unter der mit law.pro Rechtsanwälte, med.pro Ärzte und cpa.pro Steuerberater online gehen sollen.
Dass das Icann nur sieben TLDs einrichten möchte, hat wenig mit Technik zu tun, aber viel mit Geschäftsinteressen und mit Politik. Sowohl die Vermarktung als auch die letzte Kontrolle über die Domains sollen möglichst da bleiben, wo sie sind: in den USA. So hat zwar jedes kleine Pazifikatoll seine eigene Länderdomain, nicht aber die Europäische Union, die gerne unter eu registrieren möchte, das aber bislang nicht kann. Und deshalb lässt sich das Icann viel Zeit damit, seinen Beschluss vom vergangenen Herbst in die Realität umsetzen zu lassen. Nach ernsthaften Schätzungen ist nicht vor dem dritten Quartal mit der Verfügbarkeit der neuen Domains zu rechnen. Pessimisten nennen eher das erste Quartal 2002. Seit Monaten werben nun Unternehmen mit Angeboten zur Reservierung einer der neuen Top-Level-Domains, damit man dann, wenn diese endlich funktionieren, auch mit seiner Wunschdoniain" zum Zug kommt. Im Prinzip ist gegen eine solche Reservierung nichts zu sagen - man muss sich nur anschauen, bei wem man die Buchung vornehmen lässt. Es ist wenig darüber bekannt, inwieweit die Reservierungsanbieter sicherstellen, dass jede Adresse tatsächlich nur einmal versprochen wird, und man kann auch nicht ausschließen, dass es da schwarze Schafe gibt, denen es herzlich egal ist, ob ein Konkurrent die gleiche Adresse schon vergeben hat. Das Gleiche gilt für die vom ehemaligen Registrierungs-Monopolisten Network Solutions vorangetriebenen Bemühungen, in Domain-Namen die Verwendung nationaler Sonderzeichen und nichtlateinischer Schriften zu ermöglichen. Der Zeitpunkt der Umsetzung ist ungewiss, und ob vorsorgliche Reservierungen wirklich zum Zuge kommen, wird sich erst dann zeigen, wenn die zusätzlichen Domainnamen wie müller.de mit echtem ü tatsächlich in die DNS-Datenbanken eingetragen werden. Die Knappheit bei Domainnamen lässt sich mit beiden Ansätzen kaum überwinden - dafür ist die Ausweitung viel zu bescheiden.
Findige Unternehmer sind deshalb auf den Ausweg verfallen, eigene DNS-Server einzurichten, über die sie Hunderte von neuen TLDs selbst ans Netz bringen. Technisch ist das kein Problem. Aber solange die dezentralen Nameserver des offiziellen DNS diese unautorisierten Nameserver nicht berücksichtigen, sind die unter den dort vergebenen Domains eingerichteten Websites für alle praktischen Zwecke unsichtbar. Um sie zu finden, muss man sich über besondere Zugänge ins etz einwählen oder eine Zusatzsoftware installieren - keine guten Voraussetzungen für eine massenhafte Nutzung. Auch Juristen könnten die Versuche, den Namensraum zu vergrößern, scheitern lassen. Unternehmen und Organisationen, die das Internet zunächst verschlafen hatten, versuchen, alle Adressen, in denen Teile ihres Firmennamens oder ihrer Markenzeichen vorkommen, nachträglich für sich zu reklamieren. So macht der Süßwarenhersteller Ferrero ("Kinder-Schokolade") dem Inhaber von www.kinder.at seine Domain streitig. Der Westdeutsche Rundfunk hat die amerikanische Bank Warburg-Dillon-Reed gerichtlich gezwungen, wdr.com abzutreten, und dem Journalisten Wolf Dieter Roth wdr.org weggeklagt. Nach der Freigabe waren die Funker wohl zu lahm - ein Schweizer schnappte sich die Adresse für seine höchst informative World-Domain-Rights-Homepage. Die Weiterentwicklung des Namensraumes liegt längst nicht mehr allein bei den Institutionen des Netzes. Setzen sich die Juristen durch, lässt sich der Namensraum kaum mehr erweitern - wenn zu viele Wörter, quer durch alle TLDs nur einem Inhaber zugesprochen werden.
-
Baumgärtel, T.: "Mosaic" der Datenwelt : Vor zehn Jahren erschien der erste einfache Webbrowser - und damit die Grundlage für den Erfolg des Internets (2003)
0.06
0.06378285 = product of:
0.1275657 = sum of:
0.071879305 = weight(_text_:jede in 5700) [ClassicSimilarity], result of:
0.071879305 = score(doc=5700,freq=2.0), product of:
0.427681 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.07028798 = queryNorm
0.16806757 = fieldWeight in 5700, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.01953125 = fieldNorm(doc=5700)
0.055686396 = weight(_text_:und in 5700) [ClassicSimilarity], result of:
0.055686396 = score(doc=5700,freq=68.0), product of:
0.15589164 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.07028798 = queryNorm
0.3572122 = fieldWeight in 5700, product of:
8.246211 = tf(freq=68.0), with freq of:
68.0 = termFreq=68.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=5700)
0.5 = coord(2/4)
- Content
- "Kornfelder. Nichts als Kornfelder, so weit das Auge reichte. Das sah Tim Berners-Lee aus dem Autofenster, als er auf dem Weg zum National Center of Supercomputing Applications (NCSA) in Urbana-Champaign zum ersten Mal in seinem Leben durch Illinois fuhr. Ein Elite-Informatik-Institut ist so ziemlich das Letzte, was man indem landwirtschaftlich geprägten amerikanischen Bundesstaat im mittleren Westen erwarten würde. Doch das NCSA spielt in der kurzen Geschichte des Internets eine entscheidende Rolle. An dem kaum bekannten Forschungsinstitut wurde vor zehn Jahren ein Computerprogramm entwickelt, dessen Bedeutung Technikhistoriker schon jetzt mit der der Dampfmaschine; oder des Telefons vergleichen: Am 22. April 1993 veröffentlichten Studenten und Mitarbeiter im Internet den Webbrowser "Mosaic" - eine Software, mit der man durch das Netz surfen kann. Auch wenn das Programm einer Öffentlichkeit jenseits von Informatikern und Netzfreaks unbekannt sein dürfte, ist seine Bedeutung gar nicht zu überschätzen: Vor "Mosaic" gab es auf der ganzen Welt einige hundert Websites, Ende 1993 waren es bereits einige tausend, und in den nächsten Jahren sollte sich ihre Zahl manchmal im Wochenrhythmus verdoppeln. Der Siegeszug des Internets begann mit "Mosaic". Das Programm hat das Internet zu einem Massenmedium gemacht. Ohne "Mosaic" gäbe es heute keine Online-Publizistik und keinen E-Commerce, kein Amazon und kein E-Bay. Nach einem halben Jahr hatten eine Million Internet-Surfer das Programm heruntergeladen. Heute finden sich Nachfolgerprogramme wie der "Netscape Navigator" oder der "Internet Explorer" auf so gut wie jedem Computer mit Internet-Anschluss. Schöpfer der historischen Software waren der Student Marc Andreessen und der wissenschaftliche Mitarbeiter Eric Bina: In einem Keller des NCSA hatte sie mit einigen Kommilitonen in nächtelangen Programmier-Sessions die erste Version von "Mosaic" geschrieben. Diese Leute wollte Tim Berners-Lee im März 1993 treffen, denn er war selbst der Schöpfer des World Wide Web (WWW): 1990 hatte der britische Physiker am Kernforschungszentrum Cern in Genf einige technische Regeln definiert, die es leichter machen sollten, im Internet, einem damals noch weitgehend unbekannten akademischen Computernetzwerk, Informationen zu veröffentlichen und zu lokalisieren. Das Web erfreute sich unter Wissenschaftlern schnell einer gewissen Beliebtheit, aber die Programme, mit denen man sich im WWW bewegte, waren für Laien zu schwierig und konnten nur Text anzeigen. "Mosaic" dagegen wurde per Mouse-Klick bedient und zeigte Bilder und Grafiken. Darauf hatte Berners-Lee schon seit einiger Zeit gewartet. Denn der Wissenschaftler mit dem bescheidenen, ja fast schüchternen Auftreten hatte eine große Vision: Er wollte aus dem Internet "ein einzigartiges, universelles und leicht zu bedienendes Hypertext-Medium machen, mit dem man jede Art von Information teilen kann, wie er später in Vorträgen und Interviews immer wieder betonte. Darum hatte er in der Anfang der 90er Jahre noch kleinen und unüberschaubaren InternetSzene geduldig und mit viel Diplomatie darauf hingearbeitet, dass sein Internet-Code namens Hypertext Markup Language (HTML) als Quasi-Standard für Daten im Web akzeptiert wurde. Nachdem ihm das gelungen war, musste nun ein Programm her, das die Daten lesen konnte. Berners-Lee unterstützte die Programmierer der ersten viel versprechenden Browser -"Cello", "Arena" oder "Lynx" - per E-Mail. Die Gruppe aus dem NSCA dagegen hatte es Anfang 1993 ganz unabhängig von ihm geschafft: ein Programm für das Internet, das nicht nur Informatiker bedienen konnten! Wie ein Besessener schrieb Andreessen, der sich zeitweise von Milch und Keksen ernährte, mit seinen Kommilitonen an immer neuen und verbesserten Versionen von "Mosaic".
Das Treffen mit Andreessen, Bina und den anderen verlief weit weniger herzlich, als Berners-Lee es erwartet hatte. In seinen Memoiren Weaving the Web vergleicht er das Meeting mit einer Pokerpartie: Die NCSA-Gruppe, so sein Eindruck, wollte seine Idee an sich reißen und versuchte, den Eindruck zu erwecken, das Web und "Mosaic" seien ein und dasselbe. Der bullige Andreessen erschien Berners-Lee wie ein Geschäftsmann, der vor allem Kundenwünsche befriedigen wollte. Berners-Lee empfahl bei dem Treffen, "Mosaic" einen Editor hinzuzufügen, mit dem man selbst Webseiten gestalten konnte. Denn Teil seiner Hoffnungen für das Internet war, dass man nicht nur passiv durch Informationen surfen, sondern auch selbst produzieren und mit anderen Internet-Usern kooperieren konnte. Andreessen lehnte das schlicht ab; Berners-Lee war enttäuscht. Besonders verärgert hat es ihn aber offenbar, dass Andreessen sich weigerte, sich bei einer Konferenz für ein Erinnerungsbild fotografieren zu lassen. Der Eindruck, dass es Andreessen vor allem ums Geschäft ging, hat Berners-Lee nicht getrogen. Ein knappes Jahr später gründete der junge Programmierer mit dem Silicon-Valley-Veteranen Jim Clark eine Firma namens Netscape, und zusammen mit den meisten seiner ehemaligen NCSA-Kollegen entwickelten sie in Kalifornien den ersten kommerziellen Browser. 1995 legte die Firma den erfolgreichsten Börsengang hin, den die Wall Street bis dahin gesehen hatte, und der Internet-Goldrausch der 90er Jahre begann. Der US-Softwarekonzern Microsoft hatte den Netz-Boom zunächst ignoriert, entwickelte dann aber mit dem "Internet Explorer" einen eigenen Browser und nutzte seine Herrschaft über die Betriebssysteme dazu aus, um schnell eine marktbeherrschende Position zu erreichen. Netscape wurde vom Markt verdrängt; AOL kaufte das Unternehmen - und Andreessen verließ die Firma kurz danach. Heute ist er Chef eines kalifornischen Unternehmens namens Oopsware, das Server-Software anbietet. Wahrscheinlich war es das Zusammenspiel von zwei so unterschiedlichen Charakteren wie Berners-Lee und Andreessen, das zum Erfolg des Web beigetragen hat. Während der Wissenschaftler Berners-Lee auf Offenheit und Zugänglichkeit bedacht war und sich dafür einsetzte, dass das Web nicht von einer bestimmten Nutzergruppe übernommen wurde, ging es dem Programmierer-Geschäftsmann Andreessen um Benutzerfreundlichkeit und kommerziellen Erfolg. Der US-Journalist Steven Levy hat "Mosaic" das "wahrscheinlich wichtigste Programm, das es jemals gab", genannt. Er hat Recht. Der Browser und die anderen, die folgten, haben unser Bild vom Computer verändert: Aus der Maschine für Textverarbeitung und Spiele wurde ein Kommunikationsinstrument, das den Zugang zu ständig neuen Informationen brachte. Andreessen ist darüber bis heute begeistert: "Das Beste an der ganzen Sache war zu sehen, wie wir ein paar Bausteine zusammenfügten, die sich andere Leute nahmen und daraus Dinge entwickelten, die wir nie erwartet hätten. Der Prozess, der sich schnell vollkommen unserer Kontrolle entzog, war sehr befriedigend." Marc Andreessen hat dabei gut verdient. Auf dem Höhepunkt der Dot-com Euphorie besaß er Netscape-Aktien im Wert von 80 Millionen Dollar und gilt noch heute als Multimillionär. Tim Berners-Lee hat vom Netz-Boom weniger profitiert. Er leitet heute das World Wide Web Consortium in Boston, das für die Einhaltung von Programmierstandards für das Web eintritt. Was er machen würde, wenn er plötzlich doch Millionär würde? Wahrscheinlich würde er ein Stück Land kaufen, das von Umweltzerstörung bedroht sei, vertraute er dem britischen Guardian nach einigem Nachdenken an. Vielleicht sehnt er sich ja nach Kornfeldern."