-
Digital libraries : policy, planning and practice (2004)
0.13
0.13226931 = product of:
0.26453862 = sum of:
0.20123832 = weight(_text_:jene in 4587) [ClassicSimilarity], result of:
0.20123832 = score(doc=4587,freq=4.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.42808983 = fieldWeight in 4587, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.03125 = fieldNorm(doc=4587)
0.0633003 = weight(_text_:und in 4587) [ClassicSimilarity], result of:
0.0633003 = score(doc=4587,freq=36.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.41585606 = fieldWeight in 4587, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4587)
0.5 = coord(2/4)
- Footnote
- Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Der Aufbau digitaler Bibliotheken gilt manchen Unkundigen immer noch als Ei des Kolumbus, um mittels einer Digitalisierung umfangreicher Bestände Stellplatz und Finanzmittel zu sparen. Mittlerweile ist aber offenbar, dass auch die Digitalisierung einen nicht zu vernachlässigenden Aufwand bedeutet und das Problem der zukunftssicheren Aufbewahrung auch auf dieser Ebene immer noch nicht gelöst ist. Es ist somit weder einfach noch billig, entsprechende Vorhaben zu verwirklichen und nicht wenige Projekte sind zu einem Investitionsgrab verkommen. Um so erfreulicher, dass dieser Band nun einen Überblick über die Erfahrungen von koordinierten Forschungsprogrammen in den USA und Großbritannien von 1994 bis ca. 2002 gibt und Einblicke in Politik, Planung, Einrichtung und Handhabung der von diesen Programmen gesponserten Projekten erlaubt und dies aus unterschiedlichen Perspektiven. Im einleitenden Teil wird in zwei Kapiteln zunächst eine Übersicht über die Entwicklung der Forschungsprogramme in den USA und GB gegeben. Bei der Lektüre wird offenbar, wie viel im angelsächsischen Bereich in diesem Bereich investiert wurde und dass viele bekannte aktuelle Dienste, kostenlose als auch kommerzielle, in ihnen ihre Wurzeln haben. Insbesondere die Abhandlung über die USA sollte deutsche Bibliothekspolitiker interessieren, handelt es sich doch dabei um eine umfangreiche Finanzierung eines föderalen politischen Systems. Im darauf folgenden ersten Teil werden dann die Themenbereiche Ökonomie und Finanzierung, Inhaltsarten, Open Access, digitale Präservation und Evaluation von elektronischen Informationsdiensten eingehend behandelt. Es werden jeweils die Probleme und "Handlungsfelder" in allen Facetten dargestellt, welche sich beim Aufbau jeder digitalen Bibliothek stellen und gelöst werden müssen.
Teil zwei bietet dann Fallbeispiele für Implementation und Aufbau verschiedener digitaler Bibliotheken, u.a. von städtischen, universitären digitalen Bibliotheken und von solchen, die per Netzwerk erstellt werden. Auch eine digitale Bibliothek, welche Musik beinhaltet und jene der Library of Congress werden vorgestellt. Im dritten Teil werden dann Aspekte der Zukunft digitaler Bibliotheken am Beispiel der Tilburg University Library vorgestellt. Entwicklungslinien und einige Sackgassen seit 1992 werden herausgearbeitet und die Zukunft als eine Implementation der digitalen Bibliothek in eLearning-Strategien der Trägerorganisation dargestellt. Ein Stichwortregister rundet den Band ab. Der Band, geschrieben von kompetenten, aus der Praxis kommenden Beiträgern, sollte Pflichtlektüre sein nicht nur für jene, welche Projekte im Bereich der Digitalisierung planen oder durchführen, sondern für alle, welche sich für die Weiterentwicklung des Bibliothekswesens interessieren. Insbesondere der Teil zu den einzelnen Handlungsfeldern bietet gute Zusammenfassungen von Problemstellungen, an denen sich früher oder später jede Bibliothek abmühen muss. Die Vielfalt der aufgeführten Praxisbeispiele ist ebenfalls sehr anregend. Lektüre empfohlen!"
-
Krämer, S.: Vom Mythos »Künstliche Intelligenz« zum Mythos »Künstliche Kommunikation« oder: : Ist eine nicht-anthropomorphe Beschreibung von Internet-Interaktionen möglich? (1997)
0.13
0.12910278 = product of:
0.25820556 = sum of:
0.21344548 = weight(_text_:jene in 171) [ClassicSimilarity], result of:
0.21344548 = score(doc=171,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.45405784 = fieldWeight in 171, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.046875 = fieldNorm(doc=171)
0.044760067 = weight(_text_:und in 171) [ClassicSimilarity], result of:
0.044760067 = score(doc=171,freq=8.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.29405463 = fieldWeight in 171, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=171)
0.5 = coord(2/4)
- Abstract
- Die suggestive Kraft der Vision »Künstlicher Intelligenz« verblaßt. Zwar wirken Impulse dieser Idee in der Neuroinformatik und in der Biorobotik fort; doch wer heute Grundlagenforschung und erst recht technische Konstruktionsarbeit mit Blick auf zukünftige Computernutzung betreibt, wird das Schlagwort »Künstliche Intelligenz« eher zu vermeiden suchen. Doch die utopische Lücke, die dieses Abflauen hinterläßt, bleibt nicht leer. Eine kaum weniger euphorisch besetzte Vision zeichnet sich ab, in deren Zentrum nicht mehr der Computer als künstliche Intelligenz, sondern der Computer als künstliches Kommunikationsnetz steht. Es geht um das Versprechen einer Interaktion zwischen körperlich Abwesenden, die hervorgeht aus der Verbindung von Telekommunikation und Datenverarbeitung. Jene dialogische Beziehung, die bisher nur der mündlichen Kommunikation zwischen Personen vorbehalten blieb, die einen gemeinsamen Wahrnehmungs- und Handlungsraum teilen, könne nun für Situationen textgebundener Fernkommunikation technisch restituiert werden. Mehr noch: Die Ein-Weg-Kommunikation vom Sender zum Empfänger, deren Modell die Massenmedien vom Buch bis zum Fernsehen verpflichtet blieben, werde nun transformierbar in reziproke Kommunikationsbeziehungen.
-
Meißner, B.; Lipsz, A.: Art-Guide: Wie baut man einen Katalog für Internetquellen? : Ein Arbeitsbericht der Virtuellen Fachbibliothek Gegenwartskunst (ViFaArt) (2003)
0.12
0.12254782 = product of:
0.24509564 = sum of:
0.21344548 = weight(_text_:jene in 2492) [ClassicSimilarity], result of:
0.21344548 = score(doc=2492,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.45405784 = fieldWeight in 2492, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.046875 = fieldNorm(doc=2492)
0.03165015 = weight(_text_:und in 2492) [ClassicSimilarity], result of:
0.03165015 = score(doc=2492,freq=4.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.20792803 = fieldWeight in 2492, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2492)
0.5 = coord(2/4)
- Abstract
- Wer sich dieser Frage stellt, hat zumeist jene konkrete Aufgabe innerhalb einer bestimmten Zeit zu lösen und in ein übergeordnetes Umfeld zu integrieren. Dies trifft für die von der Deutschen Forschungsgemeinschaft (DFG) geförderten Virtuellen Fachbibliotheken zu. Ein Katalog für Internetquellen ist Bestandteil vieler dieser Projekte, verschiedene Lösungen wurden gefunden, immer mit der Zieldefinition, alle Lösungen später zusammenzuführen. Wie löst ViFaArt diese Aufgabe? Wie arbeitet man hier am Aufbau des ArtGuide, des Katalogs für Internetquellen? Fünf Fragen gilt es hierfür zu beantworten: - Warum wird ein solcher Katalog benötigt? Unter welchem "Dach" soll das Produkt Art-Guide gepflegt werden? - Welche Inhalte sollen im Art-Guide nachgewiesen werden (sowohl formal als auch thematisch)? - Weiches formale System kann diese Inhalte beschreiben? - Mit welchen Funktionalitäten soll der neue Katalog ausgestattet werden? - Weiche Technik kann all dies zusammenführen und darstellen?
-
Pasquinelli, M.: Die Regierung des digitalen Mehrwerts : Von der Netz-Gesellschaft zur Gesellschaft der Metadaten (2010)
0.12
0.1198632 = product of:
0.2397264 = sum of:
0.17787124 = weight(_text_:jene in 192) [ClassicSimilarity], result of:
0.17787124 = score(doc=192,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.37838155 = fieldWeight in 192, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.0390625 = fieldNorm(doc=192)
0.061855152 = weight(_text_:und in 192) [ClassicSimilarity], result of:
0.061855152 = score(doc=192,freq=22.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.4063621 = fieldWeight in 192, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=192)
0.5 = coord(2/4)
- Abstract
- In einer Zukunftsvision der kalifornischen Technokultur wird die Singularitätmärchenhaft als der Moment verklärt, in dem die Fortschritte der Vernetzung und Rechenleistung darin gipfeln werden, dass Computer "Bewusstsein" und Unabhängigkeit vom Menschen erlangen.2 Der Mythos, dass die Maschinen eines Tages die Kontrolle über genau jene Menschheit übernehmen werden, der sie ihre Existenz verdanken, ist nach einem Jahrhundert Science-Fiction, von Samuel Butlers Roman Erewhon aus dem Jahr 1872 (der unter anderem Gilles Deleuze und Felix Guattari zu ihrem Begriff der Maschine angeregt hat) bis zum Film Matrix von 1999, zum Volks-Aberglauben geworden. Derartige dystopische und eindeutig reaktionäre Visionen bilden nicht nur den gegenwärtigen Konflikt zwischen kollektivem Körper und maschineller Ausbeutung ab, sondern stützen sich auch unverkennbar auf die techno-deterministische Annahme einer Autonomie der Maschinen von der politischen Macht des Sozialen. Am Begriff der Singularität lässt sich beispielhaft zeigen, wo das Netz seine Grenzen findet, wo Momente des Bruchs auftreten, und wo Transformationen zu neuen technologischen und sozialen Konfiguration stattfinden. Die Geschichte der Medien ist eine Geschichte der kontinuierlichen Akkumulation von Energie, eine Geschichte von Paradigmen-Brüchen und von Übergängen durch Momente der Singularität. Dabei reproduziert sich ein und dieselbe Ökonomie über alle Abfolgen von Krisen und Brüchen hinweg, von einer Produktionsform zur anderen, so dass man beinahe den Moment der Singularität selbst als das bestimmende Modell der Ökonomie betrachten könnte, die sich ja aus den Effekten der Akkumulation und der Verwandlung von einfachem Geld in Finanzkapital speist.
-
Schelske, A.; Wippermann, P.: Trendforschung im Netz der Zeichen (2005)
0.12
0.11531074 = product of:
0.23062149 = sum of:
0.17787124 = weight(_text_:jene in 4523) [ClassicSimilarity], result of:
0.17787124 = score(doc=4523,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.37838155 = fieldWeight in 4523, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.0390625 = fieldNorm(doc=4523)
0.05275025 = weight(_text_:und in 4523) [ClassicSimilarity], result of:
0.05275025 = score(doc=4523,freq=16.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.34654674 = fieldWeight in 4523, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4523)
0.5 = coord(2/4)
- Abstract
- Trends der (Welt-)Gesellschaft zu ergoogeln ist ungefähr so erfolgsversprechend, wie Trends im städtischen Telefonbuch einer Stadt zu suchen. Die vielen Meiers und Schulzes sowie die weniger häufigen Hammadis oder Prezylebskas geben zwar vage Hinweise auf die Einwohner, aber wie die Benannten zukünftig handeln und miteinander kommunizieren werden, gibt das Telefonbuch niemals preis. Dafür ruft man am besten an, um sich über ihr geplantes Handeln zu erkundigen. Aber selbst die größte Zahl an Interviews lässt keinen Trend erkennen, wenn Trendforscher ohne Idee in den Daten nach einer Struktur suchen. Trendforschung beginnt mit der Wahrnehmung soziokultureller Strömungen: Diese »bezeichnen Veränderungen im Denken, Fühlen und Handeln, Veränderungen der Lebensziele und Werte, sie [artikulieren] [...] neue Bedürfnisse, Wünsche nach Veränderung oder sind Ausdruck von Anpassungsleistungen an veränderte Rahmenbedingungen« (Appel 2003: 393). Solche soziokulturellen Anpassungsleistungen beginnen mit schwachen Signalen - so genannten Weak Signals - und entwickeln sich zu kollektiven Handlungsmustern. Für Weak Signals im soziokulturellen Bereich ist das Internet ein viel versprechender Multiplikator - so wäre beispielsweise ohne das Internet nie das japanische Verkleidungsrollenspiel www.cosplay.com in Europa bekannt geworden. Im Cosplay verkleiden sich junge Erwachsene nach dem Vorbild japanischer Zeichentrickfiguren (Mangas, Anime), fotografieren sich und veröffentlichen diese Fotos auf einschlägigen Websites. Abseits des Mainstreams leben jene jungen Erwachsenen im Cosplay unterschiedliche Optionen gesellschaftlich möglicher Rollen aus. Vergleichbare Rollenoptionen haben die Musikerin Madonna und die Künstlerin Cindy Sherman im Musik- und Kunstmarkt umgesetzt. Solche »Signale« sind vielfach noch zu schwach, um einen Massenmarkt zu etablieren oder in einer repräsentativen Gesellschaftsstudie einen Trend zu begründen. Trotzdem ist in den global zugänglichen Nischenmärkten des Internet zu erkennen, wie Individuen sich zunehmend ihre Identitäten aus Optionen multimedialer Zeichenwelten zusammenstellen.
-
Mythos Internet (1997)
0.10
0.098045945 = product of:
0.19609189 = sum of:
0.14229698 = weight(_text_:jene in 162) [ClassicSimilarity], result of:
0.14229698 = score(doc=162,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.30270523 = fieldWeight in 162, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.03125 = fieldNorm(doc=162)
0.05379491 = weight(_text_:und in 162) [ClassicSimilarity], result of:
0.05379491 = score(doc=162,freq=26.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.3534097 = fieldWeight in 162, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=162)
0.5 = coord(2/4)
- Abstract
- Internet heißt das derzeit wichtigste Symbol der technologischen Entwicklung des ausgehenden 20. Jahrhunderts. Wer bereits connected ist, ahnt, wie wenig Geheimis sich tatsächlich hinter dem Schleier verbirgt. Der erste Rausch ist dahin, und es ist an der Zeit, einen unverstellten Blick auf die Chancen und Risiken der Netzwelten zu werfen. Der Band versammelt Beiträge von Autoren, die sich aus verschiedenen Perspektiven philosophischer, ökonomischer, politischer und kultureller Fragen dem Phänomen der neuen Netzwelt nähern. Gedacht als kritische Ein- und Weitertührung, richten sich die Beiträge an all jene, welche die Gegenwart besser verstehen wollen.
- BK
- 54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
- Classification
- 54.08 / Informatik in Beziehung zu Mensch und Gesellschaft
- Content
- Inhalt: William J. Mitchell - Die neue Ökonomie der Präsenz - Bausteine der Netztheorie Jay D. Bolter: Das Internet in der Geschichte der Technologien des Schreibens - Mike Sandbothe: Interaktivität - Hypertextualität - Transversalität. Eine medienphilosophische Analyse des Internet - Sybille Krämer: Vom Mythos »Künstliche Intelligenz« zum Mythos »Künstliche Kommunikation« oder: Ist eine nicht-anthropomorphe Beschreibung von Internet-Interaktionen möglich? - Stefan Münker: Was heißt eigentlich: »virtuelle Realität«? Ein philosophischer Kommentar zum neuesten Versuch der Verdopplung der Welt - Die Idee virtueller Gemeinschaften Steven Jones: Kommunikation, das Internet und Elektromagnetismus - Mark Poster: Elektronische Identitäten und Demokratie - Alexander Roesler: Bequeme Einmischung. Internet und Öffentlichkeit - Rudolf Maresch: Öffentlichkeit im Netz. Ein Phantasma schreibt sich fort - Digitale Märkte Saskia Sassen: Cyber-Segmentierungen. Elektronischer Raum und Macht - Alexandra Vitt: Zukunftsvision Cybergeld: Finanzdienste und ihre Netzerfahrung - Gerhard Schub von Bossiazky: Perspektiven für die neuen Online-Vertriebswege - Günter Müller - Das Internet als Experimentierfeld für moderne Telekommunikationsinfrastrukturen - Netzkultur Eduardo Kac: Das Internet und die Zukunft der Kunst - Uwe Wirth - Literatur im Internet. Oder: Wen kümmert's, wer liest? - Geert Lovink und Pit Schultz: Anmerkungen zur Netzkritik - Florian Rötzer - Virtueller Raum oder Weltraum? Raumutopien des digitalen Zeitalters
-
¬Das IFLA Internet Manifest (2002)
0.09
0.09485507 = product of:
0.18971014 = sum of:
0.10672274 = weight(_text_:jene in 1865) [ClassicSimilarity], result of:
0.10672274 = score(doc=1865,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.22702892 = fieldWeight in 1865, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.0234375 = fieldNorm(doc=1865)
0.08298739 = weight(_text_:und in 1865) [ClassicSimilarity], result of:
0.08298739 = score(doc=1865,freq=110.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.54519194 = fieldWeight in 1865, product of:
10.488089 = tf(freq=110.0), with freq of:
110.0 = termFreq=110.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1865)
0.5 = coord(2/4)
- Content
- "Der ungehinderte Zugang zu Informationen ist unabdingbar für Freiheit, Gleichheit, weltweite Verständigung und Frieden. Deshalb betont der Internationale Verband der Bibliothekarischen Vereine und Institutionen (IFLA) dass: - Geistige Freiheit das Recht jedes Menschen bedeutet, eigene Meinungen zu haben und sie zum Ausdruck zu bringen und nach Informationen zu suchen und sie zu erhalten; sie bildet die Grundlage für die Demokratie, und sie gehört zu den Fundamenten des Bibliothekswesens. - Freier Zugang zu Informationen, unabhängig von Medium und Grenzen, stellt eine zentrale Aufgabe der Bibliothekare und Informationsfachleute dar. - Die Schaffung eines ungehinderten Zugangs zum Internet durch Bibliotheken und Informationsdienste unterstützt Gemeinschaften und das Individuum beim Streben nach Freiheit, Wohlstand und Entwicklung. - Hindernisse für den Informationsfluss sollten beseitigt werden, besonders jene, die Ungleichheit, Armut und Hoffnungslosigkeit fördern.
Freier Zugang zu Informationen, das Internet und Bibliotheken und Informationsdienste - Bibliotheken und Informationsdienste sind dynamische Einrichtungen, die Menschen mit weltweiten Informationsmaterialien und den Ideen und schöpferischen Werken verbinden, nach denen sie suchen. Bibliotheken und Informationsdienste machen in allen Medien den Reichtum menschlicher Ausdrucksformen und kultureller Vielfalt verfügbar. Das weltumspannende Internet ermöglicht Individuen wie Gemeinschaften auf der ganzen Welt, ob in den kleinsten und entlegensten Dörfern oder den größten Städten, gleichermaßen Zugang zu Informationen für die persönliche Entwicklung, Bildung, Anregung, kulturelle Bereicherung, wirtschaftliche Aktivität und Beteiligung an der Demokratie. Jeder kann seine Interessen, sein Wissen und seine Kultur darstellen, damit sie die Welt aufsuchen kann. Bibliotheken und Informationsdienste schaffen wichtige Zugänge zum Internet. Für einige bieten sie Komfort, Orientierung und Hilfe, während sie für andere die einzigen verfügbaren Zugriffspunkte darstellen. Sie schaffen einen Mechanismus, um die Hindernisse zu überwinden, die durch Unterschiede bei den Ressourcen, der Technik und der Ausbildung entstanden sind.
Grundsätze des freien Zugangs zu Informationen im Internet Der Zugang zum Internet und allen seinen Ressourcen sollte in Übereinstimmung mit der Allgemeinen Erklärung der Menschenrechte der Vereinten Nationen und insbesondere mit Artikel 19 geschehen: Jeder hat das Recht auf freie Meinung und ihre Äußerung; dieses Recht umfasst auch die Freiheit, eigene Meinungen ohne Einmischung von außen zu besitzen und nach Informationen und Gedanken in jedem Medium unabhängig von Grenzen zu suchen, sie zu erhalten und sie mitzuteilen. Die weltweite Vernetzung durch das Internet schafft ein Medium, mit dessen Hilfe alle in den Genuss dieses Rechts kommen können. Deshalb sollte der Zugang weder irgendeiner Form von ideologischer, politischer oder religiöser Zensur noch wirtschaftlichen Hindernissen unterworfen sein. Bibliotheken und Informationsdienste haben auch die Aufgabe, für alle Mitglieder ihrer Gemeinschaft da zu sein, unabhängig von Alter, Rasse, Nationalität, Religion, Kultur, politischer Orientierung, physischen oder anderen Behinderungen und Geschlecht oder sexueller Ausrichtung. Bibliotheken und Informationsdienste sollten für das Recht ihrer Benutzer eintreten, nach Informationen ihrer Wahl zu suchen. Bibliotheken und Informationsdienste sollten die Privatsphäre ihrer Benutzer respektieren und anerkennen, dass die von ihnen benutzten Materialien vertraulich bleiben sollten. Bibliotheken und Informationsdienste tragen Verantwortung dafür, den öffentlichen Zugang zu hochqualitativen Informationen und zur Kommunikation zu erleichtern und zu fördern. Die Benutzer sollten mit der nötigen Kompetenz und einem geeigneten Umfeld unterstützt werden, in dem sie die gewünschten Informationsmittel und -dienste frei und vertrauensvoll nutzen können.
Außer den vielen wertvollen Materialien im Internet gibt es einige, die fehlerhaft, irreführend und anstößig sind. Die Bibliothekare sollten die Informationen und Hilfsmittel für die Benutzer bereithalten, damit diese das Internet und elektronische Informationen effizient und effektiv nutzen lernen. Sie sollten den verantwortungsbewussten Zugang zur qualitativen vernetzten Information für alle Benutzer einschließlich Kindern und Jugendlichen proaktiv fördern und erleichtern. Wie auch andere zentrale Dienstleistungen sollte der Internet-Zugang in Bibliotheken und Informationsdiensten kostenlos sein.
Umsetzung des Manifests Die IFLA fordert die internationale Gemeinschaft auf, die Entwicklung des Internet-Zugangs weltweit und insbesondere in den Entwicklungsländern zu unterstützen, um so den globalen Nutzen der Information, den das Internet bietet, für alle Menschen zu ermöglichen. Die IFLA fordert die nationalen Regierungen auf, eine landesweite Informationsstruktur aufzubauen, die allen Einwohnern des Landes den Zugang zum Internet bietet. Die IFLA fordert alle Regierungen auf, den ungehinderten Informationsfluss über das Internet mit Hilfe der Bibliotheken und Informationsdienste zu unterstützen und sich allen Versuchen zu widersetzen, den Zugang zu zensieren oder zu verhindern. Die IFLA bittet deshalb die Bibliothekare und die Entscheidungsträger auf nationaler und kommunaler Ebene, Strategien, Grundsätze und Pläne zu entwickeln, um die in diesem Manifest zum Ausdruck gebrachten Prinzipien umzusetzen.
-
Ostermann, D.: ¬Ein Kampf um die Freiheit des Internet (2005)
0.09
0.094739124 = product of:
0.18947825 = sum of:
0.14229698 = weight(_text_:jene in 5324) [ClassicSimilarity], result of:
0.14229698 = score(doc=5324,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.30270523 = fieldWeight in 5324, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.03125 = fieldNorm(doc=5324)
0.047181256 = weight(_text_:und in 5324) [ClassicSimilarity], result of:
0.047181256 = score(doc=5324,freq=20.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.3099608 = fieldWeight in 5324, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5324)
0.5 = coord(2/4)
- Abstract
- Vor einem UN-Gipfel in Tunis eskaliert der Streit ums Internet: Die USA wollen die Kontrolle behalten und wehren sich gegen eine internationale Verwaltung.
- Content
- "Für den gemeinen Nutzer ist das Internet ein wundersamer Ort der unbegrenzten Möglichkeiten. Er kann mit einem Mausklick Mails verschicken, sein Bankkonto verwalten oder Reisen buchen. Das virtuelle Datennetz aber funktioniert nur, wenn Standards beachtet, Adressengeordnet und Verbindungen hergestellt werden. Der zentrale Ort dafür ist durchaus real und wunderschön an der kalifornischen Küste gelegen: Marina del Rey, ein Vorort von Los Angeles. Hier sitzt die Internet Corporation for Assigned Names and Numbers (ICANN). Die von der US-Regierung geschaffene gemeinnützige Organisation übernahm 1998 jene technische Verwaltung, die in den anarchischen Anfangsjahren der legendäre Internet-Pionier Jon Postel nahezu alleine gestemmt hatte. Geht es nach dem Willen der USA, soll das so bleiben. Im Juni erklärte das US-Wirtschaftsministerium, Washington beabsichtige nicht mehr, die Aufsicht über die Internetverwaltung wie geplant 2006 abzutreten. Damit stellte sich die Bush-Regierung gegen wachsendem Druck, ICANN durch ein internationales Gremium unter dem Dach der UN zu ersetzen. Diese Forderung war bereits beim ersten Weltgipfel zur Informationsgesellschaft 2003, . in Genf erhoben worden. Befürworter sind unter anderen China, Brasilien, Südafrika und Indien. Vor dem für Mitte November in Tunis geplanten weiten InformationsGipfel sprach sich auch die EU für eine Neuordnung der Kompetenzen aus. Als Eingriff in ihre Souveränität betrachten diese Staaten es etwa, wenn nicht die jeweiligen Regierungen, sondern ICANN die Verwaltung der Länder-Domänen - etwa ".de" für Deutschland - vergibt. Die Befürchtung, die USA könnten in Extremfällen LänderDomänen wie die Irans aus dem Netz werfen, gilt zwar als praktisch kaum durchführbar. Immerhin aber hat die Bush-Regierung unlängst nach Protesten konservativer US-Christen die geplante Einrichtung einer neuen Porno-Domäne ( ".xxx") gestoppt - und so bewiesen, dass ICANN keineswegs unabhängig von politischer Kontrolle agiert. Eine internationale Verwaltungsinstanz wiederum wird in den USA einhellig abgelehnt. Mehrere Abgeordnete im Kongress haben vorige Woche einen Resolutionsentwurf eingebracht, der die US-Kontrolle festschreiben soll. Das Internet sei in den USA geschaffen worden und habe unter der Aufsicht und Kontrolle der USA floriert, heißt es darin. Tatsächlich kommt zu den politisch-strategischen Erwägungen auch die Sorge, das Internet könne seine Stärken als freies, weitgehend unreguliertes Medium durch eine überbordende UN-Bürokratie verlieren. Zudem macht es Verteidiger des US-Monopols skeptisch, wenn Länder wie China, Iran und Kuba an vorderster Front eine internationale Kontrolle fordern."
- Footnote
- ICANN - Die Organisation entscheidet über die Grundlagen der Verwaltung von Namen und Adressen im Internet und beschließt technische sowie Verfahrensstandards. Die Internet Corporation for Assigned Names and Numbers (ICANN) ist eine privatrechtliche Organisation; sie agiert ohne die Absicht, Gewinn zu erzielen.
-
Weber, K.: Aufgaben für eine (globale) Wissensgesellschaft oder "Welcome to the new IT"? (2004)
0.09
0.093528524 = product of:
0.18705705 = sum of:
0.14229698 = weight(_text_:jene in 4136) [ClassicSimilarity], result of:
0.14229698 = score(doc=4136,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.30270523 = fieldWeight in 4136, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.03125 = fieldNorm(doc=4136)
0.044760067 = weight(_text_:und in 4136) [ClassicSimilarity], result of:
0.044760067 = score(doc=4136,freq=18.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.29405463 = fieldWeight in 4136, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4136)
0.5 = coord(2/4)
- Abstract
- Nicht nur in der wissenschaftlichen, sondern auch oder gerade in der öffentlichen Diskussion wird viel von der "Wissensgesellchaft" gesprochen. Einmal davon abgesehen, dass dieser Ausdruck oftmals mit ganz verschiedenen Intentionen benutzt wird - so im Hinblick auf die Notwendigkeit, in der Arbeitswelt lebenslang zu lernen, auf die Wissensgeladenheit vieler neuer Produkte oder auf die Verlagerung von Bildungsprozessen von Schulen und Universitäten ins Internet -, ist bei genauerer Betrachtung nicht klar, wo Wissensgesellschaften existieren, im Entstehen begriffen sind oder entstehen könnten, d. h. welche Gesellschaften den Transformationsprozess von der XYZ- zur Wissensgesellschaft in der Vergangenheit schon vollzogen haben, gerade vollziehen oder in Zukunft vollziehen werden. Es ist auch nicht klar, ob es nur eine oder viele Wissensgesellschaften gibt, geben soll oder geben wird. Schon aus diesen wenigen Bemerkungen wird ersichtlich, dass die Rede von der (globalen) Wissensgesellschaft ähnlich wie jene von der Globalisierung alles andere als klar ist. In einem Überblick soll im Folgenden deshalb versucht werden, diese Unklarheiten zumindest ein wenig zu beseitigen. Es wird dabei deutlich, dass sich selbst nur lokale Wissensgesellschaften im Grunde allenfalls in statu nascendi befinden und eine globale Wissensgesellschaft noch in weiter Ferne liegt oder gar eine nicht zu realisierende Utopie darstellt. Zunächst wird der status quo beschrieben, also die große Ungleichheit in der Möglichkeit der Internetnutzung, global und auf das geografische Europa bezogen. Danach wird versucht, anzudeuten, welche Probleme gelöst werden müssten, damit diese Ungleichgewichtung abgebaut werden kann oder doch zumindest nicht noch größer wird. Zuletzt soll der Entwurf einiger Grundsätze aufgezeigt werden, die für die Gestaltung lokaler Wissensgesellschaften handlungsleitend sein sollten und meines Erachtens notwendige Bedingungen der Möglichkeit sowohl lokaler als auch globaler Wissensgesellschaften darstellen. Der damit verbundene nornative Anspruch wird dabei mit der Annahme begründet, dass sich Informationen, Wissen und Bildung in der immer komplexer werdenden Welt zu Grundgütern entwickelt haben, ohne die auf der personalen Ebene ein gelungenes Leben kaum noch zu führen ist und ohne die auf der Ebene der Gemeinwesen eine Entwicklung ökonomisch benachteiligter Länder und Regionen beeinträchtigt oder gar verunmöglicht wird bzw. die schon hochindusthalisierten Staaten den bisher erreichten Lebensstandard nicht halten werden können.
- Source
- Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
-
Moll, S.: ¬Der Urknall des Internets : 20 Jahre WWW (2011)
0.08
0.08390424 = product of:
0.16780847 = sum of:
0.12450986 = weight(_text_:jene in 4720) [ClassicSimilarity], result of:
0.12450986 = score(doc=4720,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.26486707 = fieldWeight in 4720, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.02734375 = fieldNorm(doc=4720)
0.043298606 = weight(_text_:und in 4720) [ClassicSimilarity], result of:
0.043298606 = score(doc=4720,freq=22.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.28445345 = fieldWeight in 4720, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4720)
0.5 = coord(2/4)
- Abstract
- Am 6. August 1991 wurde die Welt vernetzt - und damit drastisch verändert.
- Content
- "Alle großen Erfindungen der Menschheitsgeschichte haben einen Entstehungsmythos. Einsteins Trambahnfahrt durch Zürich beispielsweise oder der berühmte Apfel, der Newton angeblich auf den Kopf gefallen ist. Als Tim Berners-Lee, damals Physikstudent in Manchester, Mitte der 70er Jahre mit seinem Vater in einem Stadtpark unter einem Baum saß, unterhielten sich die beiden darüber, dass sie doch in ihrem Garten auch einen solchen Baum gebrauchen könnten. Der Vater, ein Mathematiker, der an einem der ersten kommerziell genutzten Computer der Welt arbeitete, bemerkte, dass die Fähigkeit, die abstrakte Idee eines schattigen Baumes auf einen anderen Ort zu übertragen, doch eine einmalig menschliche sei. Computer könnten so etwas nicht. Das Problem ließ Berners-Lee nicht los. Deshalb suchte er, während er in den 80er Jahren als Berater am europäischen Labor für Quantenphysik (CERN) in der Schweiz arbeitete, noch immer nach einem Weg, seinem Computer beizubringen, Verbindungen zwischen den disparaten Dokumenten und Notizen auf seiner Festplatte herzustellen. Er entwarf deshalb ein System, das heute so alltäglich ist, wie Kleingeld. Lee stellte eine direkte Verknüpfung her zwischen Wörtern und Begriffen in Dokumenten und den gleichen Begriffen in anderen Dokumenten: Der Link war geboren.
Aus dieser Erfindung ergaben sich ganz unmittelbar schier unbegrenzte Möglichkeiten. Wie wäre es, wenn er seine Daten mit denen der anderen Wissenschaftler am CERN würde vernetzen können, ohne die mühsame Arbeit, zentrale Datenbanken anzulegen? Und wie wäre es, wenn die CERN-Wissenschaftler sich auf diese Art mit Wissenschaftlern auf der ganzen Welt verlinken könnten? Lee machte sich ans Werk und entwickelte ein Code System, mit dessen Hilfe verschiedenartige Datensätze kompatibel gemacht werden konnten. Daraus entstand die Lingua Franca des Internet, HTML: Er schrieb eine Art Regelwerk, nach dem Dokumente quer durch das Internet verlinkt werden konnten - jene Prinzipien, die wir heute als HTTP kennen. Und schließlich baute er auch noch den ersten Browser der Geschichte. Am 6. August 1991 stellte Lee in einem bemerkenswert unbemerkenswerten Akt seine Erfindung der Welt vor. Er stellte eine kurze Notiz in die newsgroup alt.hypertext, wo man Browser und Server herunterladen konnte. Das Internet explodierte praktisch sofort. Innerhalb von fünf Jahren wuchs die Benutzerzahl von 600 000 auf 40 Millionen.
Lee hätte mit der Idee vermutlich Milliarden verdienen können. Doch das widersprach von Anfang an seiner Philosophie des Internets. Für Lee war das Internet stets Mittel zur Demokratisierung von Information und zur Beschleunigung des Fortschritts. Der Erfinder des Netzes war auch der erste Open Source-Radikale: Jede Form der Zugangsbeschränkung, ob zu kommerziellen oder zu irgendwelchen anderen Zwecken, lehnte er strikt ab. Heute arbeitet Lee an der Bostoner Eliteuniversität MIT daran, die Protokolle von Netscape und Microsoft zu standardisieren, damit Patentstreitigkeiten den Fortschritt ins Web 3.0 nicht aufhalten. Nebenbei berät er die britische Regierung dabei, Regierungsdaten zu veröffentlichen, um ein öffentliches Mitwirken an der Lösung von Verwaltungsproblemen zu ermöglichen. Das Freisetzen von Daten, davon ist Lee überzeugt, wird von ganz alleine das Gemeinwohl voranbringen. Das Netz ist für ihn ein reiner Segen der Menschheit. "Innovation ist Zufall. Man weiß nie, was Leute mit Informationen machen", sagte er jüngst. Wichtig sei alleine, dass man die Gelegenheit schafft, neue und originelle Verbindungen zu ziehen. Etwa so, wie einen Baum dorthin zu pflanzen, wo er gebraucht wird. Oder das Internet zu erfinden."
-
Glotz, P.: ¬Das World Wide Web hat alles verändert : Professor Peter Glotz über das Internet, Cybersex und den digitalen Kapitalismus (2003)
0.08
0.08077121 = product of:
0.16154242 = sum of:
0.10672274 = weight(_text_:jene in 2520) [ClassicSimilarity], result of:
0.10672274 = score(doc=2520,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.22702892 = fieldWeight in 2520, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.0234375 = fieldNorm(doc=2520)
0.054819666 = weight(_text_:und in 2520) [ClassicSimilarity], result of:
0.054819666 = score(doc=2520,freq=48.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.36014193 = fieldWeight in 2520, product of:
6.928203 = tf(freq=48.0), with freq of:
48.0 = termFreq=48.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2520)
0.5 = coord(2/4)
- Abstract
- Vor gerade einmal 10 Jahren, am 30.4.1993, wurde die am Kernforschungszentrum CERN in Genf entwickelte WWW-Software der Öffentlichkeit zugänglich gemacht, unbeschränkt und kostenlos: Auftakt zu einer Technik-Revolution, die inzwischen kaum einen Lebensbereich unberührt lässt
- Content
- "Frage: Herr Glotz, wissen Sie noch, wann Sie das erste Mal online gegangen sind? Glotz: Das war erst 1996 oder 1997. Ich bin eher ein Spätzünder in solchen Dingen. Frage: An welchem Punkt haben Sie erstmals gedacht, dass sich mit dem World Wide Web Politik, Wirtschaft und Gesellschaft fundamental verändern werden? Glotz. Etwa um diese Zeit, Mitte der 90er Jahre. Man hat ja sehr schnell gesehen, welch große Wirkung das auf die Finanzmärkte hat. Frage: Nun bleibt kaum ein Lebensbereich bis hin zur Freizeitgestaltung und menschlichen Beziehungen, Stichwort: Cybersex, unberührt. Was halten Sie für die herausragende Änderung, die das WWW bewirkt hat? Glotz: Mit Sicherheit die Wirkung, die die Vernetzung von. Hunderttausenden von Computern auf die Wirtschaft hat: also Globalisierung und Deregulierung. Ich nenne das, was wir heute hanen, deshalb nicht mehr Industrie-Kapitalismus, sondern digitalen Kapitalismus. Frage: Sehen Sie die Gefahr einer Zweiteilung der Welt in diejenigen, die einen Zugang zum WWW haben und jene, die davon ausgeschlossen bleiben? Glotz: Das ist der berühmte "digital divide". Den gibt es natürlich. Innerhalb eines Landes wie international. Man, muss nur sehen: Das hat es am Anfang neuer Kommunikations-Technologien immer gegeben. Als Gutenberg die Drucktechnik erfunden hat gab es Millionen Menschen, die nicht lesen konnten. Das hat sich dann mit den Jahrhunderten entwickelt - das wird diesmal schneller gehen. Frage: Die Geburt neuer Medien ist immer schon von Warnern begleitet worden: Der Roman im 18. Jahrhundert, das Fernsehen im 20. - immer fürchten die Mahner eine Verdummung und Ablenkung vom Wesentlichen. Glotz: Das.ist Unsinn. Das entspringt einer kulturkritischen Grundhaltung. Aber Gottseidank haben wir die Zeiten hinter uns, da alle Studenten hysterisch mit dem Kapitel "Kulturindustrie" aus der "Dialektik der Aufklärung" von Adorno und Horkheimer herumgelaufen sind. Natürlich gibt es Menschen, die acht Stunden am Tag vorm Computer sitzen und spielen. Da kann man sagen, das ist abnorm - aber Pathologie gibt es immer und überall. Für die normale Gesellschaft ist das Internet ein sinnvolles und hilfreiches Kommunikationsmittel neben anderen. Frage: Sehen Sie die immer wieder beschworene Gefahr einer Verwechslung von Medium und Realität? Glotz: Das sind auch so Thesen von Baudrillard und Virilio und anderen Daten-Dichtern. Natürlich gibt es heutzutage die Möglichkeit, etwa Fotografien viel leichter und perfekter zu manipulieren. Dasselbe gilt für Filme und Videos und Tonbandaufnahmen zum Beispiel von Osama bin Laden, die Geheimdienste viel leichter fälschen können und das ja auch tun. Aber die Idee, dass alle Leute Wirklichkeit und Schein-Wirklichkeit nicht mehr unterscheiden können, ist schlechtes Feuilleton. Frage: Auf der anderen Seite gab und gibt es die Fraktion der Propheten, die sich vom Internet freien Zugang zu Informationen und mehr Demokratie erhoffen. Der Erfinder des WWW, Tim Berners-Lee, wirbt nach wie vor für die Idee, das Internet könne helfen, Frieden zu schaffen...
Glotz: Das ist in begrenztem Maß ja durchaus richtig: Denken Sie an die Studenten in Belgrad, die ihre Demonstrationen, die der gerade er mordete Zoran Djindjic organisiert hat, blitzschnell in die ganze Welt transportiert haben, während die Demonstration der Charta 77 noch mühsam von einer Telefonzelle am Prager Wenzelsplatz an Radio Free Europe übermittelt werden musste. Nur: Die Vorstellung, dass die Hausfrau morgens ins Internet geht, sich über die neueste Rede von US-Präsident George Bush informiert und anschließend an irgendeiner Volksabstimmung teilnimmt, ist Quatsch. Frage: Werfen wir einen Blick in die Zukunft: Wie werden sich nach Ihrem Dafürhalten das Internet und die Welt durch das Internet künftig entwickeln? Glotz: Das Internet ist eine Plattform, auf der sich gleichzeitig vieles abspielt: das WWW, das Usenet, Email-Verkehr. Die Zahl dieser Funktionen wird sich weiter vergrößern. Aber der entscheidende Effekt dieses Kommunikationsmittels ist eine rasch voranschreitende Internationalisierung. Sie sind eben mit einem Tipp Ihres Fingers von Köln aus in Los Angeles und können mit einem zweiten Tipp Hunderte Kopien Ihrer Äußerungen in die Welt hinausschicken. Die These, der einzelne Mensch werde deshalb bald so mächtig sein wie die FAZ oder Microsoft ist natürlich Unsinn - aber dass das langfristig Emanzipationswirkungen hat, daran habe ich keinen Zweifel."
-
Lischka, K.: Gegengewichte zum Kommerz : Die Folgen der Informationstechnik beschäftigen viele Gruppen (2003)
0.08
0.07838301 = product of:
0.15676603 = sum of:
0.10672274 = weight(_text_:jene in 2247) [ClassicSimilarity], result of:
0.10672274 = score(doc=2247,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.22702892 = fieldWeight in 2247, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.0234375 = fieldNorm(doc=2247)
0.050043277 = weight(_text_:und in 2247) [ClassicSimilarity], result of:
0.050043277 = score(doc=2247,freq=40.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.3287631 = fieldWeight in 2247, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2247)
0.5 = coord(2/4)
- Content
- ""Chipkarten und Überwachung", "Biometrie - Funktionsweise und Sicherheit", "Datenfunk-Übertragungstechniken": Solche Themen beschäftigen den Chaos Computer Club. Das erstaunt, entstand doch der CCC im linksalternativen, oft technikfeindlichen Milieu der achtziger Jahre. Genau wie einige andere Initiativen, die sich mit den gesellschaftlichen Folgen von Informationstechnologie beschäftigen. Eines haben sie alle - auch die im Hightechboom der neunziger Jahre gegründeten Gruppen - gemein: Sie wollen nicht weniger, sondern anders angewandte Technologie. Der CCC ist mit seinen 1400 Mitgliedern die formal größte und zudem älteste deutsche Organisation auf dem Gebiet. Gegründet wurde der Verein am 12. September 1981 in den Berliner Redaktionsräumen der alternativen Zeitung taz am Tisch der Kommune 1. Der im vergangenen Jahr gestorbene Gründervater Wau Holland erinnerte sich an die Widersprüche der Herkunft: "Die Redakteure der taz haben das 1981 überhaupt nicht begriffen, was da irgendwelche Leute, die mit Computern anreisten, wollen." Eine Frau aus der Abonnementabteilung hätte erkannt, 'wie wichtig Computer sind, und das Treffen ermöglicht. Bald danach beriet der CCC Grünen-Politiker in Technikfragen. Als Organisation ein wenig jünger, beim Durchschnittsalter jedoch wohl etwas älter-ist das "Forum Informatikerinnen für Frieden und gesellschaftliche Verantwortung" (FIfF). 250 Computerwissenschaftler, Praktiker und Studenten gründeten den Verein am 2. Juni 1984 bei einem Treffen an der Bonner Universität. Auch hier ist er Hintergrund politisch. Vorstandsmitglied Ralf E. Streibl: "Es gibt einen Zusammenhang mit der Friedensbewegung. Damals haben sich viele berufsständische Initiativen gegründet." Doch das FIfF mit seinen derzeit 900 Mitgliedern hat sie überlebt. Streibl vermutete als Grund daftir: "Wir haben uns eher gegenüber anderen Themen geöffnet:" Die reichen nun von einer bundesweiten Aktion gegen Videoüberwachung über eine lokale Kampagne in Bremen gegen Chipkarten für Asylbewerber bis zum weiten Feld "Technik, Geschlecht, Gesellschaft"; das im Oktober auf der Jahrestagung beackert wurde. Das FIfF ist in erster Linie ein Diskussionsforum für die Fachwelt mit Interesse an der gesellschaftspolitischen Bedeutung von Informationstechnologie. Mit Gutachten und Stellungnahmen bei Anhörungen beeinflusst das FIfF die Politik. Mangels finanzieller Möglichkeiten fehlt aber eine darüber hinausgehende Lobbyarbeit. An die Öffentlichkeit wendet sich das Forum fereit einigen Jahren verstärkt, beispielsweise über die Beteiligung an der Verleihung der deutschen Big-Brother-Awards. Organisiert wird die vom ebenfalls in den achtziger Jahren gegründeten "Verein zur Förderung des öffentlichen bewegten und unbewegten 'Datenverkehrs" (Foebud). Die Bielefelder Initiative startet die Künstler padeluun und Rena Tangens. Ihr Charisma und kreative Aktionen wie die "Privacy Card" gegen das Payback-Rabattsystem brachten den Wahl-Bielefeldern überregionale Bedeutung. Die zweite Welle deutscher Initiativ gruppen an den Schnittstellen von Infor- mationstechnologie und, Gesellschaft entstand in den neunziger Jahren.
Der Unterschied: Hintergrund Kearen weniger als in den achtziger jähren politische Entwicklungen, sondern vielmehr technologische. Computer eroberten als PCs immer mehr Haushalte, und das Internet wurde mit dem World Wide Web populär Vor diesem Hintergrund gründeten 1996 in München sieben Netzaktivisten den "Förderverein Informationstechnik und Gerellschaft" (Fitug). Eigentlich wollten wir nur unsere Aktivitäten bündeln. Damals ging es noch darum, das Medium und seine Benutzung bekannter zu machen - mehr in Richtung Information", erinnert sich Jürgen Plate, Gründungsmitglied und Informatik-Professor an der Münchner Fachhochschule. Seminare und Beratung über Chancen und Risiken der Informationstechtnologie sind heute nicht mehr das wesentliche Tätigkeitsfeld des Fitug. Anfragen werden beantwortet oder an die entsprechenden Experten unter den 80 Mitgliedern weitergeleitet. Die diskutieren vor allem intern. Bei großen Themen wendet sich Fitug auch über Presse und Diskussionsveranstaltungen an die Öffentlichkeit oder mit Briefen an verantwortliche Politiker. Wichtig sind für den Verein derzeit Privacy, Sperrverfügungen, teils das Patentrecht". Fragwürdige Patente sind der Existenzgrund des "Fördervereins für eine Freie Informationelle Infrastruktur" (FFII), der 1999 in München gegründet wurde. Gehörten zuerst vor allem Linux-Freaks dazu, die sich von Münchner Installationsfesten kannten, sind die 187 Mitglieder heute bundesweit verstreut. Sie engagieren sich für offene Schnittstellen und einen fairen Wettbewerb, ohne proprietäre Programme wie Windows per se zu verdammen. Den Mitgliedern schwebt ein Gegengewicht zum Branchenverband Bitkom vor, geführt von Softwarefachleuten statt Juristen, Managern und Werbern. Noch ist der FFII davon weit entfernt - wie alle anderen Initiativen. Zwar gibt es in Deutschland mehr bekannte Organisationen als etwa in den USA, doch ist keine von ihnen groß genug für eine Lobbyarbeit, die sich mit der von Industrieverbänden messen kann. Deshalb waren bisher wohl auch jene Initiativen am erfolgreichsten, bei denen viele der Gruppen sich zu einer Plattform zusammengeschlossen haben: etwa beim Big-Brother-Award oder Privatkopie.net. Vielleicht aber sind die netzartigen Strukturen dem Thema förderlicher als alte Lobbyhierarchien."
-
Siemes, V.: Mittelstand muss die Scheu vorm Internet überwinden : Neue Medien schaffen neue, ungewohnte Berufe und verlangen von Unternehmen und Mitarbeitern neues Denken (2001)
0.08
0.07643018 = product of:
0.15286036 = sum of:
0.10672274 = weight(_text_:jene in 6706) [ClassicSimilarity], result of:
0.10672274 = score(doc=6706,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.22702892 = fieldWeight in 6706, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.0234375 = fieldNorm(doc=6706)
0.04613762 = weight(_text_:und in 6706) [ClassicSimilarity], result of:
0.04613762 = score(doc=6706,freq=34.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.30310458 = fieldWeight in 6706, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=6706)
0.5 = coord(2/4)
- Abstract
- "Bin ich etwa schon drin, oder was?" "Eher nein!" muss die Antwort lauten, wenn es im Mittelstand um den elektronischen Handel im Internet geht. Lange wurde das enorme Potenzial verkannt, dass hier liegt. Wohlgemerkt, es ist nicht die Rede davon, dass jeder Jante-EmmaLaden" jetzt einen Online-Shop anbieten soll. Vielmehr liegen die Chancen im so genannten B2B-Geschäft, dem elektronischen Geschäftsverkehr zwischen den Unternehmen. Noch bis vor kurzem zeigte sich der deutsche Mittelstand bei Themen wie E-Commerce eher verschlossen. Als Ursache sind unzureichende Kenntnisse der geschäftlichen Möglichkeiten zu nennen. Für den typischen Mittelständler war das Internet lange Zeit lediglich eine Modeerscheinung für eine begrenzte Gemeinschaft von Technikgläubigen. Doch mittlerweile hat es größtenteils die Kinderkrankheiten - langsame Ubertragungszeiten, teure Kommunikationskosten, mangelnde Verfügbarkeit, geringe Sicherheit, fehlende Rechtsverbindlichkeit - überstanden. In der Politik entsteht zunehmend ein Bewusstsein dafür, dass das Internetrecht zügig weiter entwickelt werden muss. Gerade das Thema Sicherheit ist bei vielen Mittelständlern noch ein Hemmnis auf dem Weg ins Netz. Die Unternehmer wollen aber in wachsendem Maße das Internet Effizienz bringend für sich zu nutzen. Viele Arbeitsoder Verwaltungsabläufe in den Betrieben werden sich in Zukunft wesentlich einfacher und schneller und damit kostengünstiger abwickeln lassen. Als weiteren Grund für die lange andauernde Abstinenz des deutschen Mittelstandes im Internet wird von vielen Unternehmern der Mangel an qualifizierten Mitarbeitern genannt. Offensichtlich gelingt es in Deutschland kaum, Interesse für Berufe wie "Online-Redakteur" oder "Webdesigner" zu wecken. Vielleicht ist es aber auch jene konservative, väterliche Empfehlung "lieber einen richtigen Beruf auszuüben". Selbstverständlich ist es für den ein oder anderen schwierig, seinen Nachwuchs in dem Wunsch zu unterstützen, einen Beruf zu erlernen den es vor zwei Jahren überhaupt noch nicht gab - ja sogar die bloße Vorstellung, dass eine solche Tätigkeit je mals gebraucht werden könnte, war nicht möglich.
Oder hätten Sie jemals gedacht, dass es einen Beruf geben wird wie Internet-Trend-Scout? Durch die Neuen Medien entstehen völlig andersartige Bedarfsfelder und Anforderungsprofile. Die GenoTec GmbH, deren Kernaufgabe es ist, Volksbanken und Raiffeisenbanken sowie deren mittelständische Firmenkunden bei der Einführung und Optimierung von Internet, E-Commerce, Knowledge-Management oder Workflow zu unterstützen, stellt beispielsweise fest, dass sowohl der Einzelne als auch die Unternehmen in der wachsenden Informationsflut förmlich ertrinken. Die Hilflosigkeit wird verdrängt, indem leider auch die Informationen verdrängt werden. Hier wäre es Aufgabe eines so genannten "Wissens-Brokers" Informationen respektive Wissen zu analysieren, ordnen und zur rechten Zeit am rechten Ort zur Verfügung zu stellen. Gerade der Mittelständler wird verstärkt auf solche Lotsen angewiesen sein, die ihm den Weg durch den Informationsdschungel weisen. Auch die Funktion eines Content-Managers für die jeweiligen E-Commerce-Angebote wird in einer wachsenden Zahl von Unternehmen gebraucht. Denn es ist von größter Bedeutung, ständig interessante und aktuelle Inhalte, die obendrein den neuesten Design-Techniken entsprechen, im Rahmen des Internet-Auftritts bereitzustellen. Häufig ist den Unternehmern noch nicht klar, dass sie für diese neuen Funktionen auch in der Regel "neue Mitarbeiter" benötigen, die ein anderes Anforderungsprofil mitbringen als der klassische EDV-Administrator. Neben sehr guten IT-Kenntnissen, ist auch organisatorisches, betriebswirtschaftliches oder redaktionelles Know-how erforderlich.
Spätestens hier wird klar, dass es sich um einen Teufelskreis handelt: wenn nicht transparent ist, dass anderes Know-how erforderlich ist, wird das auch nicht nachgefragt und zu wenige Berufsstarter interessieren sich für die neuen Berufe haben ihre Wurzeln in einer gewissen Trägheit unseres Bildungssystems. Insbesondere Medienkompetenz muss zu einem zentralen Bildungsziel werden. Medienkompetenz bedeutet, mit Hilfe von neuen Techniken Informationen suchen, selektieren, bewerten, sinnvoll anwenden und mit anderen Menschen elektronisch kommunizieren zu können. Selbstverständlich reicht es nicht aus, nur Jugendliche und Berufsstarter zu qualifizieren. Auch die Mitarbeiter in den Unternehmen müssen weitergebildet werden. Das Wissen der Mitarbeiter entscheidet immer stärker über den Erfolg eines Unternehmens am Markt. Eine der größten Herausforderungen wird es sein, das Wissen, das zumeist nur in den Köpfen der Mitarbeiter besteht - also nicht in-strukturierter oder dokumentierter Form vorliegt irgendwie nutzbar zu machen. Daher heißt das Schlüsselwort hierzu: Knowledge-Management. Zunächst gilt es aber, die Medienkompetenz der Mitarbeiter zu steigern: Es muss nach neuen Formen der Wissensvermittlung gesucht, neue Wege des Lernens müssen entwickelt und Konzepte für lebenslanges Lernen gefunden werden. Hier gilt es, Bewusstsein zu bilden und auch die bereits vorhandenen zukunftsweisenden Ansätze in den Unternehmen zu propagieren. Diese Ziele verfolgte im vergangenen Jahr der Förderpreis Innovativer Mittelstand der Volksbanken und Raiffeisenbanken. Der diesjährige Wettbewerb zum Thema "Qualifiziert für die Wissensgesellschaft" soll zeigen, welche beruflichen Perspektiven neue Medien im Mittelstand eröffnen und eine Plattform für neuartige Berufsbilder und Qualifizierungskonzepte bieten. Dieser Wettbewerb wird von der Hessischen Technologiestiftung GmbH unterstützt
-
Schlüter, C.: Neue Ressourcen : Zeitgenössisches Contentmanagement oder: Was will der Spiegel von Wikipedia? (2007)
0.08
0.075030744 = product of:
0.15006149 = sum of:
0.10672274 = weight(_text_:jene in 1759) [ClassicSimilarity], result of:
0.10672274 = score(doc=1759,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.22702892 = fieldWeight in 1759, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.0234375 = fieldNorm(doc=1759)
0.043338753 = weight(_text_:und in 1759) [ClassicSimilarity], result of:
0.043338753 = score(doc=1759,freq=30.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.2847172 = fieldWeight in 1759, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1759)
0.5 = coord(2/4)
- Content
- "Demokratiefortschritte werden bekanntlich nicht immer freudig begrüßt. Bei Diktatoren und anderen, der Freiheit allenfalls lose verbundenen Zeitgenossen überrascht das nicht. Doch tun sich mitunter auch Demokraten sehr schwer. Sie nämlich befürchten, wo sich neue Möglichkeiten der Partizipation auftun, eine Entgrenzung oder, deutlicher formuliert, Verlotterung der guten Sitten. Die Demokratie, so lautet ihr Lamento, gefährdet sich selbst, indem sie ihre Fundamente, die sie tragenden Prinzipien und Standards preisgibt. Dieser altmodische und mit einigem aristokratischen Aplomb dargebrachte Vorbehalt stößt sich zumeist am Pöbel, dem gemeinen Plebs also, der nun einmal mehr die Bühne des bislang nur dem gelehrten Bürger vorbehaltenen öffentlichen Räsonierens betritt und seinen irgendwie schmuddeligen Geschäften nachgeht. Etwas zeitgemäßer formuliert begegnet uns der Vorbehalt in der aktuellen Debatte um das Internet und seine angeblich desaströsen Folgen für Wissen und Wahrheit. Eine klare Sache: Die natürliche Feindin der - wehrhaften - Demokratie ist die Massendemokratie. Vor allem der "gute Journalismus" scheint in Gefahr. Befürchtet wird ein babylonisches Stimmengewirr, ein Labyrinth des Meinens und Dafürhaltens, Chaos, Entropie. Den Verlust mehr oder weniger bewährter Hierarchien beklagen insbesondere die Vertreter der analogen, an die Papierform gebundenen Printmedien; sie werden dies gewiss auch aus wohlverstandenem Eigeninteresse tun. Die sehr viel interessantere Frage aber lautet, ob es gute inhaltliche Gründe gibt, die digitale Konkurrenz zu fürchten. Was also mag jetzt das Hamburger Nachrichtenmagazin Der Spiegel geritten haben, vom Frühjahr an nicht nur alle seit 1947 in dem Blatt erschienenen Artikel sowie Lexika und Wörterbücher kostenlos ins Netz zu stellen, sondern vor allem auch die Einträge der Internet-Enzyklopädie Wikipedia? Offenbar sollen hier die Erträge eines "guten Journalismus" mit den Inhalten eines diffusen, weitestgehend dezentralen und auf freiwilliger Basis organisierten Mitmachprojekts vermischt, verwässert, wenn nicht gar verhunzt werden.
Oder auch nicht. Zum einen wird man beim Spiegel-Verlag auf so genannte Komplementärgeschäfte hoffen - ein kostenloses Angebot lockt in die Nähe anderer, allerdings kostenpflichtiger Angebote, sprich: Werbung. Zum anderen aber gibt es, was Wikipedia angeht, kaum einen triftigen Beleg für den befürchteten Qualitätsabfall. Trotz aller, wahlweise, demokratie- oder medientheoretischer Bedenken und jenseits allzu durchsichtiger Pro-domo-Expertisen steht vielmehr ein inhaltlicher Gewinn zu erwarten. Dazu gibt es einige Evidenzen. Bereits 2005 gab die wissenschaftliche Zeitschrift Nature einen Vergleich in Auftrag, bei dem sich die Wikipedia mit der renommierten Encyclopedia Britannica messen lassen musste. Das - vielleicht - erstaunliche Resultat: Die Britannica lag in Punkto Korrektheit und Editionsqualität zwar vorn, aber nicht sehr weit; die englische Wikipedia könne sich durchaus mit seriösen Produkten messen (sehr aufschlussreich ist hier die auf www.nature.com abrufbare Liste der in den Vergleichspublikationen gefundenen Fehler). Die Untersuchung führte vor allem von Seiten der Britannica zu dem Vorwurf, es seien in erster Linie naturwissenschaftliche Einträge verglichen worden, bei historischen, politischen und geisteswissenschaftlichen Artikeln würde Wikipedia dagegen deutlich abfallen. Dies kann eine neue, diesmal vom Magazin Stern in Auftrag gegebene Studie allerdings nicht bestätigen. Als Vergleichprodukt wurde hier der Brockhaus gewählt. Das vor zwei Wochen im Stern veröffentlichte Ergebnis präsentierte mit klarem Vorsprung einen Gewinner: die Online-Enzyklopädie Wikipedia.
An Qualität herrscht, sofern sie denn messbar ist, kein Mangel. Woran es allerdings zu mangeln scheint, ist ein näheres Verständnis des mit dem Begriff "Web 2.0." etwas rätselhaft bezeichneten Faktums, dass wir es im Internet längst mit neuen Formen der interaktiven und kollaborativen, zumeist dezentralen und häufig auch unentgeltlichen Wissensproduktion zu tun haben. Mögen nach dem ersten Hype von vor ein paar Jahren viele der damit verbundenen ökonomischen Hoffnungen enttäuscht worden sein: Dieser, wenn man so will, plebejische Aufstand hat sich bislang als überaus widerstandsfähig und ertragreich erwiesen. Von einer neuen politische Ökonomie des Internets, wie sie etwa der niederländische Medientheoretiker Geert Lovink fordert, sind wir indes noch weit entfernt. Dass Wissens-Zugänge anders als über gewissermaßen ständische Privilegien oder entgeltliche Barrieren möglich sind, ist noch nicht angekommen. Wenn der Spiegel nun einen weiteren Versuch unternimmt, aus einer vorkommerziellen Ressource, dem Projekt Wikipedia, Kapital zu schlagen, dann allerdings auch, um trotz seines allemal exquisiten Angebots Kosten zu sparen - eine durchaus mögliche Konsequenz aus der so genannten Medienkrise. Das allerdings beruht auf einem Missverständnis: Denn als Ressource funktioniert Wikipedia nur, solange das Prinzip der Freiwilligkeit gewahrt bleibt. Erst sie generiert jene Qualität, auf die man mittlerweile nicht mehr zu verzichten können glaubt."
-
Lütgert, S.: ¬Der Googlehupf als Quantensprung : Content heißt jetzt Context - Warum man mit Websites noch nie Geld verdienen konnte. Linksverkehr (2001)
0.07
0.06913948 = product of:
0.13827896 = sum of:
0.08893562 = weight(_text_:jene in 2671) [ClassicSimilarity], result of:
0.08893562 = score(doc=2671,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.18919078 = fieldWeight in 2671, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.01953125 = fieldNorm(doc=2671)
0.049343336 = weight(_text_:und in 2671) [ClassicSimilarity], result of:
0.049343336 = score(doc=2671,freq=56.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.32416478 = fieldWeight in 2671, product of:
7.483315 = tf(freq=56.0), with freq of:
56.0 = termFreq=56.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2671)
0.5 = coord(2/4)
- Content
- "Selbst die wenigen Shareholder, die mit ihren Websites tatsächlich Geld machen, bestätigen heute, dass sich mit Websites eigentlich kein Geld verdienen lässt. Warum das aber so ist, bleibt einem Großteil der Betroffenen auch weiterhin ein Rätsel. Niemand habe an den User gedacht, sagen die einen, der User habe gefehlt. Nein, die Bandbreite sei zu knapp gewesen, erwidern die anderen, und jetzt, wo sie vorhanden sei, könne sie niemand bezahlen. Der sogenannte Content aber, da sind sich alle einig, der Content war da. Dieser Content hat millionenteuer auf den Webservern gelegen und terabyteweise' (das belegen alle Studien) auf seine User gewartet. Am Content hat es nicht gelegen, der Content hat gestimmt. Tatsächlich lässt sich das eCommerce-Wissen von 1997 bis 1999 auf die Formel bringen: "Content ist King" - eine Phrase, die zu dieser Zeit auf keinem der einschlägigen Kongresse fehlen durfte und die wie ein Mantra durch die Managementseminare geisterte: Was allerdings Content genau sein sollte - außer eben King - blieb nebulös. Offensichtlich war damit so etwas wie Inhalt gemeint, doch ist die Aura des Content-Begriffs mit der gleichermaßen abstrakten wie banalen Übersetzung in "Inhalt" kaum zu erklären. Jede Tütensuppenfirma verkauft letztlich nichts anderes als "Inhalt", ohne sich gleich als Content-Provider darzustellen. - Über den Gipfeln von AltaVista -
Es musste also noch etwas anderes in dieser Anrufung des Content mitschwingen, eine verborgene und doch umso entschiedenere Abgrenzung vom digitalen Nicht-Content, der bloßen "Form", den inhaltsleeren Hüllen und körperlosen Oberflächen des Internet, deren Scheitern und Ende hier verkündet werden sollte. Der bis' dahin als hohl, flach und uneigentlich geltende Cyberspace, sollte mit einer neuen Substanz gefüllt werden, und zwar nicht mit einer bestimmten, sondern mit Substanz schlechthin. Diese Metaphysik des Content fand ihre perfekte Repräsentation in den Berggipfeln von AltaVista - dem Logo jener Suchmaschine, die 1997-99 beinahe jede und jeder von uns benutzt haben dürfte. Zu sehen waren Berge von Content: zwei am linken oberen Bildrand aufragende, schneebedeckte Gipfel, die über einem im Vordergrund gelegenen Hochplateau thronten, das nach rechts sanft abfiel, in einen blau-weiß gepixelten Nebel überging und sich schließlich in den nur unwesentlich helleren Horizont auflöste. Von rechts nach links wurde, gezeigt: das digitale Rauschen, seine Transformation in' Bedeutung, deren Erhebung zu Inhalt und schließlich der Triumph jenes Prinzips, das über diesen Content stets den Überblick behält: AltaVista (der Blick vom Gipfel, auf spanisch). Dieses Bild unterschied sich nicht nur, radikal von den meist bis zur Unkenntlichkeit abstrahierten Emblemen der Konkurrenz, sondern zeigte zugleich das Internet als Ganzes: in jenem Moment, als Content King war und über ein Königreich herrschte, das keine Grenzen kannte. Natürlich hatten auch die Betreiber von AltaVista darauf gewettet, dass sich mit Websites Geld verdienen ließe. Ihre Idee bestand darin, mehr Inhalte auffindbar zu machen als jede Suchmaschine zuvor, und das mit dem Verkauf von Werbebannern zu finanzieren, die auf noch mehr Inhalte verweisen sollten. Dass sich aber mit Websites kein Geld verdienen lässt - und das zeigt sich gerade an AltaVista - liegt weder an fehlenden Usern noch an fehlender Bandbreite (von beiden hatte die Suchmaschine mehr als genug), sondern eben genau am Content, genauer: an dessen sprichwörtlicher Flüchtigkeit. Content nämlich ist nicht bloß personalintensiv (also teuer) in der Herstellung und nur schwer in eine verkäufliche Form zu bringen, sondern hat zudem die Tendenz, sich sowohl permanent wieder in Rauschen aufzulösen wie am rechten Bildrand des AltaVista-Logos), als auch ständig zu solchen Massen von Bedeutung zusammenzuklumpen (linker Bildrand), dass er ins rein Tautologische umkippt. Die beiden letzgenannten Phänomene wurden schließlich zu einem inhaltlichen Problem der Suchmaschine selbst:
Der gesuchte Content ließ sich zwar finden, war aber entweder so unscharf, dass er sich sofort wieder verlor, oder so massenhaft vorhanden, dass jede Auswahl von vornherein sinnlos wurde. Und so war der Tag, an dem wir den Kopf von König Content haben rollen sehen, keiner der zahlreichen schwarzen Montage bis Freitage, an denen im Jahr 2000 der Neue Markt zusammenbrach, sondern schon jener Tag im November 1999, als AltaVista sein Logo abschaffte. In, der offiziellen Erklärung der Presseabteilung hieß es damals: "Das BlauWeiß des Bergmotivs wird als kalt und abweisend wahrgenommen, woraus sich die Notwendigkeit zusätzlicher Farben ergibt, um eine wärmere Markenpersönlichkeit herzustellen. Mit den Bergen verbindet sieh zwar die positive Assoziation von Stärke, doch werden euch die Berge als kalt; entfernt, bedrohlich und unpersönlich empfunden, was AltaVistas Begehren zuwiderläuft, eine offene und persönliche Beziehung zu seinen Kunden herzustellen. Zudem werden die Berge, häufig mit Mineralwasser assoziiert, was in keiner Weise synonym ist mit einer führenden, globalen Internet-Marke." AltaVista hatte sich von einem auf den anderen Tag in alta:vista verwandelt, ein gleichermaßen freundliches wie sinnloses Newsportal auf gelbem Grund, mit dem sich selbstverständlich genauso wenig Geld verdienen ließ.
Und doch hatten die Marketing-Strategen im Moment ihrer Selbstaufgabe unbewusst das zentrale Dilemma der Content-Regimes benannt: dass Content nämlich noch in seinen wärmsten, direktesten und personalisiertesten Formen als "kalt, entfernt, bedrohlich und unpersönlich empfunden" wird - als eine abstrakte, ungreifbare und wolkige Substanz. In Wirklichkeit verabscheuen die Leute Content sogar, und zwar nicht nur als theoretisches Konzept oder als die überaus geschwätzige Rede, die das eBusiness über sich selbst hält, sondern auch in fast jeder seiner konkreten Ausformungen: sei es als endlos über den Bildschirm scrollende Fließtexte, die sie sowieso nicht lesen, oder als ständig hin und her zu kopierende Musik, die sie ohnehin nicht interessiert. Überall dort, wo sich das herumgesprochen hat, heißt der große Hoffnungsträger heute längst nicht mehr Content, sondern Context. Und so liegt es auf der Hand, dass die Suchmaschine, die AltaVista beerbt hat - nämlich Google -'nicht mehr hauptsächlich Inhalte ausgibt, sondern vor allem Zusammenhänge. Google sortiert die Ergebnisse nicht mehr nach ihrer Treffergenauigkeit, sondern nach der Verlinkungsdichte, was dann zwar keinen Content mehr zum Vorschein bringt, dafür aber wundersamerweise stets genau jene Infopartikel und Fakten, denen die Suche galt. Und sogar das Logo von Google rellektiert diesen Paradigmenwechsel, indem es sich, je nach Trefferzahl, zu einem bunten Goooogle oder Goooooooogle aufbläht, was sowohl eine potentiell endlose Reihe inhaltlicher Nullen darstellt als auch die Serie jener kontextuellen Einkreisungen, aus denen sich das sogenannte Surfen letztlich zusammensetzt."
-
Beuth, P.: Sternzeichen Google (2008)
0.07
0.06913948 = product of:
0.13827896 = sum of:
0.08893562 = weight(_text_:jene in 3298) [ClassicSimilarity], result of:
0.08893562 = score(doc=3298,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.18919078 = fieldWeight in 3298, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.01953125 = fieldNorm(doc=3298)
0.049343336 = weight(_text_:und in 3298) [ClassicSimilarity], result of:
0.049343336 = score(doc=3298,freq=56.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.32416478 = fieldWeight in 3298, product of:
7.483315 = tf(freq=56.0), with freq of:
56.0 = termFreq=56.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3298)
0.5 = coord(2/4)
- Content
- "Basti mag Emails nicht besonders. Sie sind ihm zu langsam, weil man immer so lange warten muss, bis sie beantwortet werden. Mit seinen Freunden tauscht sich der 17-Jährige nur über den Instant Messenger ICQ aus. Was für Mittdreißiger zum zentralen Kommunikationsmittel geworden ist, sehen Jugendliche längst als veraltet an: Schon 2005 hat eine Studie des "Pew Internet & American Life Project" ergeben, dass Jugendliche nur noch Emails schreiben, wenn sie mit Erwachsenen kommunizieren. Urs Gasser, Professor an der Universität St. Gallen, kennt zahllose Jugendliche wie Basti. Er nennt sie Digital Natives. Sie sind hineingeboren in eine Welt mit Internet und Handy, mit MP3 und Flatrate. Ein Leben ohne Google kennen sie nicht. Zusammen mit Professor John Palfrey erforscht Gasser die Digital Natives am Berkman Center for Internet and Society in Harvard. Darüber haben die beiden ein Buch geschrieben, es heißt "Generation Internet". US-Experten preisen es als Grundlagenwerk und Pflichtlektüre für Eltern und Lehrer. Denen will das Buch helfen, die Digital Natives besser zu verstehen. Es soll erklären, wie sie lernen, arbeiten und kommunizieren, und wie sie sich dabei von anderen Generationen unterscheiden. "Es ist der Anfang einer Konversation über die Chancen und Herausforderungen, die mit dieser neuen digitalen Welt verbunden sind", sagt Gasser im Gespräch mit der FR. "Es ist geschrieben für jene Generationen, die nicht den gleichen Einblick haben in die Welt des Internets."
Identität aus dem Netz Es ist eine Welt, in der sich Zwölftklässler wie Basti mit traumwandlerischer Sicherheit bewegen: Etwa vier Stunden lang ist er nach der Schule jeden Tag im Netz, doppelt so lange wie der Durchschnittsdeutsche. Sein Handy ist immer an, er ist rund um die Uhr erreichbar. Er besitzt etwa 30 CDs, aber zehnmal so viele Alben im MP3-Format. Gegen Bezahlung bastelt er in seiner Freizeit Webseiten für andere Leute. Basti hat noch nie einen Computer zur Reparatur geben müssen. Einen neuen Hauptprozessor einzusetzen oder eine passende Grafikkarte zu finden, ist für ihn ein Klacks. Seit er zwölf ist, schraubt er an seinen Rechnern herum und behebt alle technischen Probleme selbst. Er kauft kein Produkt, ohne sich vorher in Foren und Blogs die Meinungen anderer dazu angesehen zu haben. Jedes seiner Referate beginnt mit der Recherche bei Google und Wikipedia, gefolgt von Universitäts-Webseiten. "Für wirklich wichtige Arbeiten gehe ich auch in die Bibliothek", sagt er. Viele Ältere haben solche Verhaltensweisen adaptiert. Gasser und Palfrey nennen sie Digital Immigrants, eingewandert aus der analogen in die digitale Welt. Doch sie werden nie ganz wie die Natives leben, weil sie im Gegensatz zu denen nicht schon mit digitalisierten Fotos, Tagebüchern und Freundschaften aufwachsen, schreiben die Professoren. Nicht nur ihre technische Nutzung, sondern auch der Drang, ihre Identität vor allem im Internet zu entwickeln, unterscheide die Digital Natives von ihren Vorgängern. Wer sich mal durch einige MySpace-Profile klickt und mit atombusigen GoGo-Girl-Avataren in Second Life spricht, weiß, was die Autoren meinen. Auf MySpace wimmelt es nur so von Profilfotos, die auch gut auf ein Plattencover passen würden. Fast alles ist gestellt, und zwar auf maximal cool. Und hinter den aufreizenden Model-Avataren stecken manchmal schüchterne 13-jährige Mädchen. So wie sich die Digital Natives darstellen, so wollen sie wahrgenommen werden. Pseudonyme wie "darkangel" oder "electrogirl" drücken aus, zu welcher Szene sie gehören wollen.
Ihre Tagebücher sind jedermann zugänglich und miteinander verlinkt. Gasser und Palfrey werfen den Digital Natives deshalb auch vor, mitunter wandelnde Datenschleudern zu sein. So zitieren sie etwa aus einer Studie von 2007, nach der 41 Prozent aller Facebook-Nutzer bereit sind, einem völlig Fremden persönliche Informationen mitzuteilen. Nina aus der Nähe von Bonn war auch mal so. Früher konnte jeder sehen, in welchem Ort sie lebte, wie sie aussah und unter welcher ICQ-Nummer sie erreichbar war. "Ich habe dann ständig Nachrichten von irgendwelchen Männern bekommen, die schrieben, wie hübsch ich doch sei." Nach einem Seminar in ihrer Schule änderte sie ihre Einstellung: "Eine Polizistin kam in die Klasse und erklärte uns, wie leicht es ist, jemanden anhand solcher Daten ausfindig zu machen und zu verfolgen." Seitdem ist Nina Datenschützerin in eigener Sache. Zwar ist die 19-Jährige Mitglied sowohl bei Facebook als auch bei SchülerVZ und StudiVZ, aber ihre Profile sind nur für Freunde einsehbar, die sie selbst eingeladen hat. Links auf Blogs oder Fotoalben gibt es bei ihr auch nicht. Wer sie googelt, findet nur Einträge zu einer anderen Person mit dem gleichen Namen. Das kontrolliert sie regelmäßig selbst, indem sie nach ihrem Namen und ihren diversen Email-Adressen sucht. "Ich will nicht, dass irgendeiner sieht, die wohnt da und da, ist Single und so weiter. Ich gebe nirgendwo mein richtiges Geburtsdatum oder meine Telefonnummer an. Wer die Daten kennen soll, kennt sie", erzählt die Abiturientin.
Eltern sollen von Kindern lernen Für Gasser ist das eine gute Nachricht. Denn je mehr das Internet zur wichtigsten Informationsquelle wird, desto wichtiger wird es, mit diesen Informationen umgehen zu können. Dabei machen die Digital Natives insgesamt eine gute Figur, sei es bei der langsam zunehmenden Sensibilisierung für den Datenschutz oder der überraschend gut ausgeprägten Fähigkeit, Informationen auf ihren Wahrheitsgehalt überprüfen zu können: "Je mehr man sich im Netz bewegt, desto größer ist interessanterweise die Kompetenz im Umgang mit dem Medium", fasst Gasser entsprechende Studien zusammen. Wenn es etwa darum geht, die Qualität eines Wikipedia-Artikels zu überprüfen, nutzen diejenigen, die länger im Netz sind, diese Zeit auch, um die Quellen des Artikels zu überprüfen und zu vergleichen. Dass viele Menschen künftig praktisch rund um die Uhr online sein werden, ist Gasser und Palfrey bewusst. Schon jetzt nutzen zehn Millionen Deutsche das mobile Web, in Japan so gut wie jeder. Die Forscher fordern deshalb Eltern und Lehrer auf, "ihre Kenntnis der Digitaltechnik zu verbessern" - dabei könne ihnen niemand so gut helfen wie die Digital Natives selbst. Erwachsene bräuchten unbedingt "ein eigenes Verständnis davon, wie diese Technologie funktioniert, die unsere Kids tagein, tagaus nutzen." Vor allem diejenigen, die immer noch diese rückständigen, langsamen E-Mails schreiben."
- Footnote
- Rezensionsartikel zu: John Palfrey, John und Urs Gasser: Generation Internet: Die Digital Natives: Wie sie leben - Was sie denken - Wie sie arbeiten. München: Hanser Verlag 2008.
-
Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003)
0.06
0.0647912 = product of:
0.1295824 = sum of:
0.08893562 = weight(_text_:jene in 2418) [ClassicSimilarity], result of:
0.08893562 = score(doc=2418,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.18919078 = fieldWeight in 2418, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.01953125 = fieldNorm(doc=2418)
0.04064679 = weight(_text_:und in 2418) [ClassicSimilarity], result of:
0.04064679 = score(doc=2418,freq=38.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.26703218 = fieldWeight in 2418, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2418)
0.5 = coord(2/4)
- Abstract
- Selbst wenn es nach heutigem Ermessen nicht wertvoll wäre, müsste man Onlinematerial zumindest teilweise archivieren. Denn die Bedeutung von Quellen wandelt sich minder Zeit. Heutige Forschergenerationen würden viel für einen Blick auf jene Kurzfilme geben, die man Anfang des vergangenen Jahrhunderts nach einigen Durchläufen als Unterhaltungsmaterial achtlos zur Seite warf. Schon heute ist absehbar, dass lnternetseiten von 1998 Kommunikationswissenschaftler viel über die Beschleunigung und Aufheizung des Mediengeschäfts erzählen können. Wie schnell zogen kommerzielle Medien im Netz im Vergleich zur gedruckten Version der Skandalberichterstattung Matt Drudges über Bill Clintons Affaire nach? Welche Funktion hatten dabei öffentliche Nachrichtenforen? Historiker dürften vom frühen E-Mail-Verkehr in Regierungen und großen Unternehmen einst weit weniger finden als von den früher so geheimen Depeschen.
- Content
- "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."
-
Ulfkotte, U.: "Nackte Ehefrau" schaltet ab : Neues Computervirus löscht die Festplatte (2001)
0.06
0.063691825 = product of:
0.12738365 = sum of:
0.08893562 = weight(_text_:jene in 6644) [ClassicSimilarity], result of:
0.08893562 = score(doc=6644,freq=2.0), product of:
0.47008434 = queryWeight, product of:
6.849437 = idf(docFreq=127, maxDocs=44421)
0.06863109 = queryNorm
0.18919078 = fieldWeight in 6644, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.849437 = idf(docFreq=127, maxDocs=44421)
0.01953125 = fieldNorm(doc=6644)
0.03844802 = weight(_text_:und in 6644) [ClassicSimilarity], result of:
0.03844802 = score(doc=6644,freq=34.0), product of:
0.15221684 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06863109 = queryNorm
0.25258717 = fieldWeight in 6644, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=6644)
0.5 = coord(2/4)
- Abstract
- Es gibt E-Mails, die man auf keinen Fall öffnen sollte. Doch die meisten E-Mail-Nutzer auf der Welt sind männlich. Und bei vielen scheint die angeborene instinktive Vorsicht dem Unbekannten gegenüber mitsamt den grauen Zellen auszusetzen, wenn in der Adreßzeile einer E-Mail Worte wie nackt", "Teens" oder andere eindeutige Angebote auftauchen. So dürfte es das neueste E-Mail-Virus "naked wife" ("nackte Ehefrau") leicht haben, seinen Siegeszug um die Welt anzutreten. Am Mittwoch nachmittag trat "naked wife" auch unter den Namen "W32/Naked@MM" "troj-nakedwife" und "W32.HLLW.JibJab@mm" auf. Im Gegensatz zu dem Mitte Februar erstmals versandten "Anna-Kurnikova-Virus" ist der E-Mail-Anhang "naked wife", der einen virtuellen Pornofilm im Flash-Format ankündigt, für die Festplatte eine Gefahr: Der Trojaner löscht im Windows-Systemverzeichnis alle ".dll", ".ini", ".exe", ".bmp" und ".com"-Dateien. Zudem versendet er über MS-Outlook Massen-E-Mails und verbreitet sich auf diese Weise weiter. Der zerstörerische Internet-Wurm sendet somit von sich aus Kopien an alle E-Mail-Adressen, die sich im Outlook-Systern des infizierten Rechners befinden. Als echtes Programm (".exe-Datei") formatiert "naked wife" nach dem Anklicken unwiderruflich die eigene Festplatte. Die entsprechenden E-Mails kann man leicht an der Angabe "Fw: Naked Wife" im Betreff-Feld erkennen. Zudem erscheint beim Aufrufen der Mail der Satz: "My wife never looks like that! Best Regards" (Name des Absenders) und daneben der Dateianhang "nakedwife.exe", der per Mausklick die Festplatte löscht. Das neue Virus wurde am Dienstag in den Vereinigten Staaten entdeckt. Nach Angaben des auf Anti-Viren-Programme spezialisierten amerikanischen Softwarehauses McAfee ist "naked wife", das amerikanische Militärs zuerst entdeckt haben sollen, seit Dienstag auch schon in mehreren Rechnern der 500 größten Unternehmen der Welt aufgetaucht. McAfee bewertet dasVirus im Gegensatz zu "Anna Kurnikova" als "hochriskant". Seit langem schon warnen Computerfachleute vor dem Öffnen von Dateianhängen in E-Mails, die der Empfänger nicht angefordert hat. Verdächtige E-Mails sollten vielmehr ungelesen gelöscht werden. Gefährliche Programme, die möglicherweise die eigene Festplatte löschen, können vor allem in Dateianhängen mit den Endungen ".src" (Bildschirmschoner)", ".exe", ".shs", ".com" und ".vbs" (visual basic script) versteckt se056 Zu den bekannten rund 50 000 Viren kommen täglich etwa zehn neue hinzu. Die bekanntesten von ihnen "Melissa" und "I love you" haben dazu beigetragen, daß die durch Viren verursachten Schäden an Rechnern weltweit jährlich mehr als zwölf Milliarden Dollar betragen. Mit der Zahl der Nutzer steigen auch die Schäden. Während "Melissa" noch einen Schaden in Höhe von achtzig Millionen Dollar angerichtet haben soll, waren es bei "I love you", das auf der ganzen Welt mehr als 45 Millionen Rechner infizierte, schon mehrere Milliarden Dollar. Eric Chien vom niederländischen Softwarehaus Symantec vergleicht den Kampf zwischen Anbietern von Virenschutzprogrammen und den Entwicklern der Viren mit einem "Wettrüsten". Er hebt hervor: "Dabei wird niemand gewinnen. Wir entwickeln Technik, um das Virus unschädlich zu machen, und "dessen Autor wird dann versuchen, unser Programm auszutricksen. Es ist ein Wettrüsten. Und das wird wohl so weitergehen." Weil Virenschutzprogramme ständig aktualisiert werden müssen und der Entwicklung trotzdem immer hinterherhinken, dürfte "naked wife" bei den meisten Nutzern in diesen Tagen auf fruchtbaren Boden fallen. Eric Chien vergleicht die Anziehungskraft neuer Viren auf die Nutzer mit Bonbons, welche Kindern von Fremden angeboten werden: "Wenn wir uns alle an das erinnern, was unsere Mütter uns gesagt haben, nämlich keine Süßigkeiten von Fremden anzunehmen, dann kann man auch auf diesem Gebiet schon viel Böses verhindern." Wie die Zahl der gefährlichen Viren nimmt jedoch auch die Zahl der nicht ernstzunehmenden Virenwarnungen zu. Sie werden "hoax" genannt. Bekannt wurden etwa die mit "good times ... .. win a holiday" oder "get more money" in der Betreff-Zeile der Mail gekennzeichneten harmlosen elektronischen Briefe. Nur die wenigsten Virenprogrammierer versenden ihre Entwicklungen und infizieren damit fremde Rechner. Die meisten entwickeln sie vielmehr, um ihre technischen Fähigkeiten zu erkunden, und tauschen ihre Erfahrungen, mit anderen Programmierern aus, bei denen sie damit Anerkennung gewinnen.
Kevin Poulsen, der im Alter von siebzehn Jahren in das militärische Netzwerk des Pentagons eindrang und später zu fünf Jahren Freiheitsstrafe verurteilt wurde, betrachtet jene, die heute bösartige Virenprogramme verbreiten, als "von einem übertriebenen Ich-Verständnis" getriebene Autisten. Zugleich äußert er jedoch Verständnis für die meist jugendlichen Virenautoren: "Wenn so ein Jugendlicher vierzig oder fünfzig Zeilen Progranuncode schreibt und damit anschließend weltweit Schlagzeilen macht, dann ist das für so ein Kid manchmal schon verlockend." Nicht immer brauchen Jugendliche Programmierkenntnisse, um gefährliche Viren zu versenden. Wer in einer Suchmaschine etwa das Wort "virus kit" eingibt, erhält neben zahlreichen Angeboten für Virenschutzprogramme auch viele Codes von Viren, die man mit einem Mausklick auf die eigene Festplatte laden und dann beliebig verändern kann. Welche dieser Viren gegenwärtig den größten Schaden anrichten, kann man etwa auf der Internet-Seite "www.messagelabs.com/viruseye/" sehen. Nach Angaben der Betreiber dieser Seite war "naked wife" am Mittwoch nachmittag neben den Vereinigten Staaten auch schon in Großbritannien und den Niederlanden aktiv. "Naked Wife" ist ein sogenannter "Trojaner". Computerfachleute bezeichnen damit Programme, die unmerklich im Hintergrund des Rechners schädliche Funktionen ausüben. Viele Trojaner sind darauf programmiert, Benutzerdaten eines Online-Dienstes auszuspähen, nicht selten nur von einem bestimmten Provider. Trojaner, die ständig im Hintergrund im betroffenen System mitlaufen, zeichnen mitunter auch alle Tastatureingaben auf, etwa beim Online-Banking. Ist ein Rechner unmerklich mit einem solchen Trojaner infiziert, dann nutzt es nichts, wenn der Anwender sein Pass-Wort für einen OnlineDienst nicht abspeichert, sondern erst bei der Anmeldung eingibt. Die gesammelten Daten werden nach der Einwahl unbemerkt an den Autor des Trojanischen Pferdes geschickt. Über solche Funktionen verfügt der Trojaner "naked wife" jedoch offenbar nicht.
-
Devadason, F.J.; Intaraksa, N.; Patamawongjariya, P.; Desai, K.: Faceted indexing application for organizing and accessing internet resources (2003)
0.05
0.047237657 = product of:
0.18895063 = sum of:
0.18895063 = weight(_text_:headings in 4966) [ClassicSimilarity], result of:
0.18895063 = score(doc=4966,freq=14.0), product of:
0.33302557 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06863109 = queryNorm
0.5673757 = fieldWeight in 4966, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.03125 = fieldNorm(doc=4966)
0.25 = coord(1/4)
- Abstract
- Organizing and providing access to the resources an the Internet has been a problem area in spite of the availability of sophisticated search engines and other Software tools. There have been several attempts to organize the resources an the WWW. Some of them have tried to use traditional library classification schemes such as the Library of Congress Classification, the Dewey Decimal Classification and others. However there is a need to assign proper subject headings to them and present them in a logical or hierarchical sequence to cater to the need for browsing. This paper attempts to describe an experimental system designed to organize and provide access to web documents using a faceted pre-coordinate indexing system based an the Deep Structure Indexing System (DSIS) derived from POPSI (Postulate based Permuted Subject Indexing) of Bhattacharyya, and the facet analysis and chain indexing System of Ranganathan. A prototype software system has been designed to create a database of records specifying Web documents according to the Dublin Core and input a faceted subject heading according to DSIS. Synonymous terms are added to the standard terms in the heading using appropriate symbols. Once the data are entered along with a description and URL of the Web document, the record is stored in the system. More than one faceted subject heading can be assigned to a record depending an the content of the original document. The system stores the surrogates and keeps the faceted subject headings separately after establishing a link. Search is carried out an index entries derived from the faceted subject heading using chain indexing technique. If a single term is input, the system searches for its presence in the faceted subject headings and displays the subject headings in a sorted sequence reflecting an organizing sequence. If the number of retrieved headings is too large (running into more than a page) then the user has the option of entering another search term to be searched in combination. The system searches subject headings already retrieved and look for those containing the second term. The retrieved faceted subject headings can be displayed and browsed. When the relevant subject heading is selected the system displays the records with their URLs. Using the URL the original document an the web can be accessed. The prototype system developed under Windows NT environment using ASP and web server is under rigorous testing. The database and indexes management routines need further development.
-
Quick queries (1996)
0.04
0.04463539 = product of:
0.17854156 = sum of:
0.17854156 = weight(_text_:headings in 4735) [ClassicSimilarity], result of:
0.17854156 = score(doc=4735,freq=2.0), product of:
0.33302557 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06863109 = queryNorm
0.53611964 = fieldWeight in 4735, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.078125 = fieldNorm(doc=4735)
0.25 = coord(1/4)
- Abstract
- Provides a list of 19 WWW and gopher sites from which answers to ready reference queries may be obtained. These are arranged under the following headings: ready made collections; date and time; weights and measures; flag wavers; foreign currency; state by state; the elements; and case and tense