-
Flagg, G.: At Senate hearing, librarians seek their place on the information highway (1994)
0.16
0.15886272 = product of:
0.6354509 = sum of:
0.6354509 = weight(_text_:hearing in 72) [ClassicSimilarity], result of:
0.6354509 = score(doc=72,freq=4.0), product of:
0.5609553 = queryWeight, product of:
9.06241 = idf(docFreq=13, maxDocs=44421)
0.06189913 = queryNorm
1.1328013 = fieldWeight in 72, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
9.06241 = idf(docFreq=13, maxDocs=44421)
0.0625 = fieldNorm(doc=72)
0.25 = coord(1/4)
- Abstract
- Reports the hearing on libraries and their role in the information infrastructure held by the Senate Subcommittee on Education, Arts and Humanities on 19 Apr 1994 and timed to coincide with National Library Week and Legislative Day. Contributions highlighted the degree to which library services in libraries throughout the USA are enhanced by electronic data transmission and the urgent need on the part of libraries for support from federal government with funding their policies
-
Nixon, G.; Skinner, H.: Access to information and video services for the deaf community in Cheshire (1995)
0.11
0.1123329 = product of:
0.4493316 = sum of:
0.4493316 = weight(_text_:hearing in 3807) [ClassicSimilarity], result of:
0.4493316 = score(doc=3807,freq=2.0), product of:
0.5609553 = queryWeight, product of:
9.06241 = idf(docFreq=13, maxDocs=44421)
0.06189913 = queryNorm
0.80101144 = fieldWeight in 3807, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.06241 = idf(docFreq=13, maxDocs=44421)
0.0625 = fieldNorm(doc=3807)
0.25 = coord(1/4)
- Abstract
- In April 93 the Cheshire Library Service and the Cheshire Deaf society, UK began collaboration on a project to satisfy the information needs of deaf and hard of hearing people. Describes the aims and objectives of the project, the Carnegie Bulletin Board, the installation of personal computers, the use of videophone technology, deaf awreness trainig, the video lending service for the deaf, the input of the National Captioning Institute, and a survey of user needs
-
Maxwell, T.A.: Mapping information policy frames : the politics of the Digital Millennium Copyright Act (2004)
0.08
0.08424967 = product of:
0.33699867 = sum of:
0.33699867 = weight(_text_:hearing in 3063) [ClassicSimilarity], result of:
0.33699867 = score(doc=3063,freq=2.0), product of:
0.5609553 = queryWeight, product of:
9.06241 = idf(docFreq=13, maxDocs=44421)
0.06189913 = queryNorm
0.60075855 = fieldWeight in 3063, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.06241 = idf(docFreq=13, maxDocs=44421)
0.046875 = fieldNorm(doc=3063)
0.25 = coord(1/4)
- Abstract
- Passage of the Digital Millennium Copyright Act (DMCA) was a significant milestone in congressional information policy legislation. However, the results were widely criticized in some circles as providing too much Power to certain stakeholder groups. This paper uses computerbased content analysis and a theoretical taxonomy of information policy values to analyze congressional hearing testimony. The results of document coding were then analyzed using a variety of statistical tools to map how different stakeholders framed issues in the debate and determine if congressional value statements about the legislation conformed more closely to certain stakeholders. Results of the analysis indicate that significant differences in the use of information policy terms occurred across stakeholders, and showed varying degrees of convergence between congressional or other stakeholders when framing information policy issues.
-
Dubnov, S.; McAdams, S.; Reynolds, R.: Structural and affective aspects of music from statistical audio signal analysis (2006)
0.08
0.08424967 = product of:
0.33699867 = sum of:
0.33699867 = weight(_text_:hearing in 11) [ClassicSimilarity], result of:
0.33699867 = score(doc=11,freq=2.0), product of:
0.5609553 = queryWeight, product of:
9.06241 = idf(docFreq=13, maxDocs=44421)
0.06189913 = queryNorm
0.60075855 = fieldWeight in 11, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.06241 = idf(docFreq=13, maxDocs=44421)
0.046875 = fieldNorm(doc=11)
0.25 = coord(1/4)
- Abstract
- Understanding and modeling human experience and emotional response when listening to music are important for better understanding of the stylistic choices in musical composition. In this work, we explore the relation of audio signal structure to human perceptual and emotional reactions. Memory, repetition, and anticipatory structure have been suggested as some of the major factors in music that might influence and possibly shape these responses. The audio analysis was conducted on two recordings of an extended contemporary musical composition by one of the authors. Signal properties were analyzed using statistical analyses of signal similarities over time and information theoretic measures of signal redundancy. They were then compared to Familiarity Rating and Emotional Force profiles, as recorded continually by listeners hearing the two versions of the piece in a live-concert setting. The analysis shows strong evidence that signal properties and human reactions are related, suggesting applications of these techniques to music understanding and music information-retrieval systems.
-
Sargent, S.: Jurgen Habermas and the ethics of gatekeeping (1993)
0.08
0.08424967 = product of:
0.33699867 = sum of:
0.33699867 = weight(_text_:hearing in 676) [ClassicSimilarity], result of:
0.33699867 = score(doc=676,freq=2.0), product of:
0.5609553 = queryWeight, product of:
9.06241 = idf(docFreq=13, maxDocs=44421)
0.06189913 = queryNorm
0.60075855 = fieldWeight in 676, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.06241 = idf(docFreq=13, maxDocs=44421)
0.046875 = fieldNorm(doc=676)
0.25 = coord(1/4)
- Abstract
- Collection development theory has generally neglected issues of fairness in the treatment of materials dealing with politics, religion, and other controversial subjects. The communication theory of Jurgen Habermas is proposed as a basis for a rational policy, and for dealing with difficult cases. It is suggested that as ideological conflict becomes less important in the relations between religious groups, it will be more acceptable for libraries to serve the particular religious interest of specific communities, rather than to treat religions as interest groups that, like political parties, should get "equal time" at all libraries. It is further argued that religious fundamentalism and "creation science" are not entitled in the library to "equal time" with science, since our society has made a provisional decision that such questions are most appropriately answered by conventional science. When the status of science is itself the issue, however, its critics from religion and elsewhere are entitled to a respectful and equitable hearing.
-
Arlt, H.-J.; Prange, C.: Gut, dass wir gesprochen haben : Im Reformprozess von Organisationen kommt der Kommunikation eine Schlüsselrolle zu (2005)
0.08
0.079339996 = product of:
0.15867999 = sum of:
0.10963975 = weight(_text_:jede in 4322) [ClassicSimilarity], result of:
0.10963975 = score(doc=4322,freq=6.0), product of:
0.3766374 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.06189913 = queryNorm
0.2911016 = fieldWeight in 4322, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.01953125 = fieldNorm(doc=4322)
0.04904024 = weight(_text_:und in 4322) [ClassicSimilarity], result of:
0.04904024 = score(doc=4322,freq=68.0), product of:
0.13728602 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06189913 = queryNorm
0.3572122 = fieldWeight in 4322, product of:
8.246211 = tf(freq=68.0), with freq of:
68.0 = termFreq=68.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4322)
0.5 = coord(2/4)
- Abstract
- In Reformprozessen kommt der Kommunikation ein besonderer Wert zu. Auch Organisationen müssen nun mehr Wert darauf legen, ihre Abteilungen und Zellen zu informieren und einzubinden. Die Strategie "Erfolg durch Ignoranz" funktioniert nicht mehr.
- Content
- "Solange einer alles selbst, macht, braucht er, sich nicht zu verständigen. Soll eine etwas für die andere tun, wollen mehrere etwas zusammenunternehmen, ist aber Kommunikation angesagt. Wir benutzen Lebensmittel, Verkehrsmittel, Arzneimittel und auch Kommunikations-, besser: Verständigungsmittel. Organisationen sind eingefrorene Verständigungen darüber, wer was zu erledigen und zu unterlassen hat. Die Organisation setzt gegen Verständigungsprozesse und Allzuständigkeiten die Routine und arbeitsteilige Spezialisierung durch. Das Schmerz- und Verlustempfinden, das beim Übergang von ei ner politischen Bewegung in eine Organisation artikuliert wird - die Grünen sind ein junges und schönes Beispiel -, beruft sich genau auf diese Minimierung der Kommunikationschancen: Stand vorher so ziemlich alles jeder Zeit zur Disposition, konnte vorher jede und jeder gleichberechtigt über das Große und Ganze ebenso wie über das konkrete Einzelne reden, so steht plötzlich - für die Organisation - das Meiste fest, sind jede Menge Tätigkeiten auf Dauer gestellt und die Zuständigen wollen nicht mehr mit jedem, sondern nur noch mit anderen Zuständigen reden. Organisationen reduzieren den Kommunikationsbedarf für kollektives Handeln, das ist ihr Vorteil, ihr Gebrauchswert. Wo Dialoge waren, liegen Formulare rum. Aus erlebtem Miteinander wird funktionales Nebeneinander. Organisiertes Handeln wird damit zugleich strukturkonservativ denn worüber nicht geredet wird, das wird auch nicht in Frage gestellt. Nun ist es in den modernen Marktgesellschaften mit Routine alleine nie getan gewesen. Besonders die Profit-Organisationen sind ständig mit neuem konfrontiert - ob positiv als Fortschritt, neutral als Entwickung oder negativ als Krise erlebt. Deshalb gehören jenseits der prinzipiell verringerten Kommunikation Information und Koordination zum laufenden Geschäft: Dauernd sitzt man in irgendwelchen Besprechungen. Wie die Kommunikation innerhalb von Organisationen so zu steu ern ist, dass Verständigung nicht zum Zeitdieb wird, alle Beteiligten gleichwohl das Gefühl haben, gut informiert zu sein und reibungslose Zugänge zu benötigtem Wissen zu haben, ohne zu vergessen, dass Wissen Macht ist - diese Rezepte füllen ganze Bücherregale. Die Klagen über keine, zu wenige, unbrauchbare, überflüssige, viel zu viele Informationen sind ein Evergreen im Alltag von Organisationen. Was manche Beteiligte als "Kommunikationsersparnis" loben, kritisieren andere als Informationsdefizit; der Mitteilungsbedarf von x ist das Störungspotenzial für y. Aber nicht nur die Beziehungen untereinander, die einzelnen Personen befinden sich selbst in einem widersprüchlichen Zustand der Unzufriedenheit. Als interessierte und engagierte Menschen haben sie das Gefühl zu wenig mitzubekammen, als. spezialisierte Stelleninhaber sehen sie sich mit Mitteilungen zugeschüttet,die sie nicht brauchen können. Organisationen geraten dann in Stress, wenn sie ihrer eigentlichen Funktion - den Verständigungsaufwand zu verringern - zuwiderhandeln müssen. Der Stress steigt mit der Veränderungsdynamik der Umwelt. Seit Ende des 20. Jahrhunderts befinden sich Organisationen unter Dauerstress. Den bisherigen Rhythmus von Beschleunigung und Beruhigung, von Reform und wieder "in Form sein" hat eine Kontinuität des Diskontinuierlichen abgelöst. Das vorsichtige Austauschen alter, stabiler Verhältnisse gegen neues, sich stabilisierendes Verhalten - das sind Reformprozesse, wie sie im 19. und 20. Jahrhundert alle Organisationen irgendwie hinbekommen haben.
Erfolg durch Ignoranz? Die gegenwärtige Zumutung besteht gerade darin, das Verhalten ständig offen und überprüfbar zu lassen für Kommunikationen, die es verändern könnten. Soziologen bezeichnen dies als "reflexive Modernisierung". Daraus wächst an die Organisationen die Anforderung, mehr Wert auf Kommunikation zu legen, aus Abteilungen, aus Zellen Möglichkeitsräume zu machen. Aus der Kommunikationsperspektive bedeuten der unternehmerische Herr-im-Haus-Standpunkt und die politische Maxime "Einigkeit macht stark" das gleiche: Erfolg durch Ignoranz. Was nicht zur Debatte steht, wird nicht geöffnet für die Entscheidung: Zustimmung oder Ablehnung. Da niemand alles berücksichtigen kann, da Endlosdebatten bessere Entscheidungen nicht garantieren, sind die Anteile von; Ignoranz, Information und Reflexion am Erfolg für Organisationen nicht leicht zu bestimmen. Klar ist nur, die Konsequenzen vermehrter Kommunikationsmöglichkeiten reichen weit und die meisten Organisationen sind unglücklich, weil ihre gewohnte Praxis ebenso offensichtlich defizitär wie jede Umstellung riskant ist. Die schlechteste Möglichkeit scheint zu sein, die Angst siegen zu lassen, denn Organisationen, die sich nicht aus eigener Kraft rekonstruieren, werden von externen Kräften destruiert. Die Beziehung der Zentrale zu den Dezentralen, das Verhältnis zwischen Standardaufgaben und Projekten, die Gewichte zwischen Kontrolle und Eigenverantwortung, die Anteile von Stabilität und Flexibilität, der Zusammenhang von Fakten und Visionen, so vieles muss rekontruiert und austariert werden. Und dabei ist an der Vorstellung eines vorübergehenden Gleichgewichts nur noch das Vorübergehende realistisch. Deshalb wird, Steuerung inzwischen häufig als "Change Management" bezeichnet. Genau besehen nur einanderes Wort für Kommunikationsmanagement. Dass sich alle Kommunikationen einer Organisation "managen" lassen, ist eine absurde Vorstellung. Schon intern bildet sich aus formellen Dienstwegen, den kreuz und quer verlaufenden Schleichwegen von Seilschaften, den gemütlichen Plauderplätzen für Gerüchte ein undurchdringlicher Dschungel. Nach außen zu den verschiedenen Anspruchsgruppen und Öffentlichkeiten wird es gänzlich unübersichtlichtrotz durchdachter Kampagnen, gepflegter Journalisten- und Kundenkontakte, sorgfältig eingefädelter Lobby-Aktivitäten. Die vornehmste Aufgabe des Kommunikationsmanagements besteht darin, FeedbackSchleifen zu organisieren. Reflexive Qualität gewinnt dabei nur solche Kommunikation, die interne und externe Reaktionen auf Organisationsentscheidungen offiziell zum Thema und dabei nicht die Kritiker, sondern die eigene Entscheidung zum Problem macht. Beschreibungen der eigenen Ignoranz nicht zu ignorieren, darf als das kommunikative Minimum jeder Organisation gelten, die eine Zukunft haben will."
- Footnote
- Bezugnahme auf die Bücher: Schick, Siegfried: Interne Unternehmenskommunikation. Strategien entwickeln, Strukturen schaffen, Prozesse steuern. Schäffer-Poeschel, Stuttgart 2005, 221 S. Dehner, Ulrich: Die alltäglichen Spielchen im Büro. Wie Sie Zeit- und Nervenfresser erkennen und wirksam dagegen vorgehen. Piper, München 2003, 230 S. Miller, Reinhold: Das istja wieder typisch. 25 Trainingsbausteine für gelungene Kommunikation in der Schule, Beltz Praxis, Weinheim 2004, 184 S.
-
Digital libraries : policy, planning and practice (2004)
0.08
0.07918604 = product of:
0.15837207 = sum of:
0.10128085 = weight(_text_:jede in 4587) [ClassicSimilarity], result of:
0.10128085 = score(doc=4587,freq=2.0), product of:
0.3766374 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.06189913 = queryNorm
0.2689081 = fieldWeight in 4587, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.03125 = fieldNorm(doc=4587)
0.057091225 = weight(_text_:und in 4587) [ClassicSimilarity], result of:
0.057091225 = score(doc=4587,freq=36.0), product of:
0.13728602 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06189913 = queryNorm
0.41585606 = fieldWeight in 4587, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4587)
0.5 = coord(2/4)
- Footnote
- Rez. in: B.I.T. online 8(2005) H.2, S.202 (J. Plieninger): "Der Aufbau digitaler Bibliotheken gilt manchen Unkundigen immer noch als Ei des Kolumbus, um mittels einer Digitalisierung umfangreicher Bestände Stellplatz und Finanzmittel zu sparen. Mittlerweile ist aber offenbar, dass auch die Digitalisierung einen nicht zu vernachlässigenden Aufwand bedeutet und das Problem der zukunftssicheren Aufbewahrung auch auf dieser Ebene immer noch nicht gelöst ist. Es ist somit weder einfach noch billig, entsprechende Vorhaben zu verwirklichen und nicht wenige Projekte sind zu einem Investitionsgrab verkommen. Um so erfreulicher, dass dieser Band nun einen Überblick über die Erfahrungen von koordinierten Forschungsprogrammen in den USA und Großbritannien von 1994 bis ca. 2002 gibt und Einblicke in Politik, Planung, Einrichtung und Handhabung der von diesen Programmen gesponserten Projekten erlaubt und dies aus unterschiedlichen Perspektiven. Im einleitenden Teil wird in zwei Kapiteln zunächst eine Übersicht über die Entwicklung der Forschungsprogramme in den USA und GB gegeben. Bei der Lektüre wird offenbar, wie viel im angelsächsischen Bereich in diesem Bereich investiert wurde und dass viele bekannte aktuelle Dienste, kostenlose als auch kommerzielle, in ihnen ihre Wurzeln haben. Insbesondere die Abhandlung über die USA sollte deutsche Bibliothekspolitiker interessieren, handelt es sich doch dabei um eine umfangreiche Finanzierung eines föderalen politischen Systems. Im darauf folgenden ersten Teil werden dann die Themenbereiche Ökonomie und Finanzierung, Inhaltsarten, Open Access, digitale Präservation und Evaluation von elektronischen Informationsdiensten eingehend behandelt. Es werden jeweils die Probleme und "Handlungsfelder" in allen Facetten dargestellt, welche sich beim Aufbau jeder digitalen Bibliothek stellen und gelöst werden müssen.
Teil zwei bietet dann Fallbeispiele für Implementation und Aufbau verschiedener digitaler Bibliotheken, u.a. von städtischen, universitären digitalen Bibliotheken und von solchen, die per Netzwerk erstellt werden. Auch eine digitale Bibliothek, welche Musik beinhaltet und jene der Library of Congress werden vorgestellt. Im dritten Teil werden dann Aspekte der Zukunft digitaler Bibliotheken am Beispiel der Tilburg University Library vorgestellt. Entwicklungslinien und einige Sackgassen seit 1992 werden herausgearbeitet und die Zukunft als eine Implementation der digitalen Bibliothek in eLearning-Strategien der Trägerorganisation dargestellt. Ein Stichwortregister rundet den Band ab. Der Band, geschrieben von kompetenten, aus der Praxis kommenden Beiträgern, sollte Pflichtlektüre sein nicht nur für jene, welche Projekte im Bereich der Digitalisierung planen oder durchführen, sondern für alle, welche sich für die Weiterentwicklung des Bibliothekswesens interessieren. Insbesondere der Teil zu den einzelnen Handlungsfeldern bietet gute Zusammenfassungen von Problemstellungen, an denen sich früher oder später jede Bibliothek abmühen muss. Die Vielfalt der aufgeführten Praxisbeispiele ist ebenfalls sehr anregend. Lektüre empfohlen!"
-
nestor Kompetenznetzwerk : Langzeitarchivierung tauscht Daten mit australischem Fachportal »Padi« aus (2006)
0.08
0.076698884 = product of:
0.15339777 = sum of:
0.10128085 = weight(_text_:jede in 71) [ClassicSimilarity], result of:
0.10128085 = score(doc=71,freq=2.0), product of:
0.3766374 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.06189913 = queryNorm
0.2689081 = fieldWeight in 71, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.03125 = fieldNorm(doc=71)
0.052116923 = weight(_text_:und in 71) [ClassicSimilarity], result of:
0.052116923 = score(doc=71,freq=30.0), product of:
0.13728602 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06189913 = queryNorm
0.37962294 = fieldWeight in 71, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=71)
0.5 = coord(2/4)
- Abstract
- Das »nestor«-Kompetenznetzwerk zur Langzeitarchivierung hat jetzt eine im April 2005 getroffene Vereinbarung zwischen den australischen Kollegen des Padi-Portals (Preserving Access to Digital Information) und dem nestor-Partner SUB Göttingen umgesetzt.
- Content
- "Die Suche nach relevanten Informationsressourcen in der nestor-Informationsdatenbank (www.langzeitarchivierung. de/Informationsdatenbank) kann bei Bedarf urn die Suche in den ausgedehnten Padi-Datenbeständen erweitert werden. Die australischen Kollegen planen, im Gegenzug die nestor-Datensätze in ihren Dienst zu integrieren. In der kostenlos zugänglichen nestor-Informationsdatenbank findet sich ab sofort eine UmschaItmöglichkeit zur Auswahl der Datenbanken nestor- und der Kombination aus "Padi & nestor". Darüber sind zur Zeit über 2000 Datensätze zu Themengebieten wie Langzeitarchivierung allgemein, Rechteverwgenommen werden kann. Die nestor-Datensätze werden bilingual (deutsch-englisch) vorgehalten, die Padi-Datensätze selber liegen ausschließlich in englischer Sprache vor. Doch auch bei ihnen können zumindest die Themengebiete und Dokumenttypen auf »deutsch« angezeigt werden. Padi: Erfahrungen mit digitaler Langzeitarchivierung seit 1997. Das Padi-Fachportal zu allen Fragen der digitalen Langzeitarchivierung (www.nla.gov. au/padi) wird seit 1997 an der National Library of Australia betrieben und weist umfassend anglo-amerikanische Informationsquellen zur digitalen Bestandserhaltung nach. Darüber hinaus wird dort die Kooperation mit ausländischen Projekten und Institutionen sowie mit Kollegen gefördert, die sich um die langfristige Erhaltung digitaler Objekte bemühen. Ähnlich wie Padi stellt die nestor-Informationsdatenbank einen umfassenden Dienst für den deutschen Sprachraum bereit. Jede der beiden Informationssammlungen identifiziert, selektiert, kategorisiert, beschreibt und bietet Referenzen beziehungsweise Internet-Links zu Publikationen, Projekten und anderen Informationsquellen zur Archivierung digitaler Objekte an, um die internationale Diskussion und Forschung zu fördern und Nutzer zu unterstützen, in ihren eigenen Institutionen die digitale Bestandserhaltung anzugeben oder entsprechende Forschung zu treiben. Padi und nestor wollen einen regelmäßigen Austausch der Metadaten inklusiv aller Änderungen und Updates etablieren. Hierdurch werden redundante Doppelarbeit vermieden, den Nutzern eine entsprechend breitere Informationsvielfalt angeboten und die Erfahrungen der regionalen beziehungsweise nationalen Communities weiter gestreut. »Vom Metadatenaustausch zwischen nestor und Padi profitieren somit nicht nur beide Dienste, die damit die Abdeckung der jeweiligen Datenbanken erweitern und Doppelarbeit bei der Selektion und Beschreibung relevanter Ressourcen vermeiden, sondern auch die Nutzer, denen ein einfacherer Zugang zu den Informationen beider Subject Gateways ermöglicht wird«, konstatiert nestorProjektleiter Heins Liegmann (Die Deutsche Bibliothek)."
-
Knutsen, U.: Working in a distributed electronic environment : Experiences with the Norwegian edition (2003)
0.07
0.07489953 = product of:
0.14979906 = sum of:
0.10128085 = weight(_text_:jede in 2937) [ClassicSimilarity], result of:
0.10128085 = score(doc=2937,freq=2.0), product of:
0.3766374 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.06189913 = queryNorm
0.2689081 = fieldWeight in 2937, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.03125 = fieldNorm(doc=2937)
0.048518214 = weight(_text_:und in 2937) [ClassicSimilarity], result of:
0.048518214 = score(doc=2937,freq=26.0), product of:
0.13728602 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06189913 = queryNorm
0.3534097 = fieldWeight in 2937, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2937)
0.5 = coord(2/4)
- Abstract
- Die Einführung der Dewey-Dezimalklassifikation (DDC) in Norwegen ist das Verdienst eines Mannes und Ergebnis seiner Suche nach beruflichem Erfolg. In den späten achtziger Jahren des 19. Jahrhunderts kaufte der Student und Bohemien Haakon Nyhuus eine einfache Fahrkarte in die USA. Zufällig bot man ihm eine Arbeit in der Newberry Library in Chicago an, wo er William F. Poole kennen lernte, der von dem jungen Mann beeindruckt war und ihn als Leiter der Katalogabteilung der Chicago Public Library empfahl. Seine bibliothekarische Karriere dort war so kurz wie sein Aufenthalt in den USA. 1897 kehrte er nach Norwegen zurück und übernahm die Leitung der Stadtbibliothek von Oslo. Nyhuus wurde bald der bedeutendste Bibliotheksreformer, den es in Norwegen je gab. 1898 führte er die DDC in der Bibliothek ein. Nyhuus schätzte die DDC nicht besonders und bezeichnete sie als "alte Kutsche mit zehn Rädern, von denen einige ein wenig aus dem Gleichgewicht geraten und durch Kummer und Tränen abgenützt sind". Trotzdem ist es ihm zuzuschreiben, dass die DDC heute in allen öffentlichen Bibliotheken und einer großen Anzahl wissenschaftlicher Bibliotheken in Norwegen verwendet wird. Norwegen ist ein dünn bevölkertes Land mit etwa 4,5 Millionen Einwohnern. Die Bibliotheken sind meist klein und ihre Bestände eher begrenzt. Selbst wenn die großen Universitätsbibliotheken und Bibliotheken mit Spezialsammlungen dazu tendieren, die internationale Ausgabe in vier Bänden zu benutzen, betrachten die meisten Bibliotheken die Hilfstafeln als zu detailliert für ihre Zwecke. Es gibt einen großen Bedarf an Terminologie auf Norwegisch. Einige Subject Gateways und Nachweise sind entsprechend der DDC organisiert und die norwegische Ausgabe bildet eine wichtige Grundlage für die Bildung von Schlagwörtern. Deshalb ist es in Norwegen Tradition, jede zweite vollständige Ausgabe der DDC ins Norwegische zu übersetzen, zu kürzen und entsprechend dem nationalen Literaturaufkommen leicht anzupassen.
-
Lee, J.; Jatowt, A.; Kim, K.-S..: Discovering underlying sensations of human emotions based on social media (2021)
0.07
0.070208065 = product of:
0.28083226 = sum of:
0.28083226 = weight(_text_:hearing in 1164) [ClassicSimilarity], result of:
0.28083226 = score(doc=1164,freq=2.0), product of:
0.5609553 = queryWeight, product of:
9.06241 = idf(docFreq=13, maxDocs=44421)
0.06189913 = queryNorm
0.50063217 = fieldWeight in 1164, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.06241 = idf(docFreq=13, maxDocs=44421)
0.0390625 = fieldNorm(doc=1164)
0.25 = coord(1/4)
- Abstract
- Analyzing social media has become a common way for capturing and understanding people's opinions, sentiments, interests, and reactions to ongoing events. Social media has thus become a rich and real-time source for various kinds of public opinion and sentiment studies. According to psychology and neuroscience, human emotions are known to be strongly dependent on sensory perceptions. Although sensation is the most fundamental antecedent of human emotions, prior works have not looked into their relation to emotions based on social media texts. In this paper, we report the results of our study on sensation effects that underlie human emotions as revealed in social media. We focus on the key five types of sensations: sight, hearing, touch, smell, and taste. We first establish a correlation between emotion and sensation in terms of linguistic expressions. Then, in the second part of the paper, we define novel features useful for extracting sensation information from social media. Finally, we design a method to classify texts into ones associated with different types of sensations. The sensation dataset resulting from this research is opened to the public to foster further studies.
-
Fassbender, J.: Professionelle Registererstellung : Das DNI informierte auf der Frankfurter Buchmesse 2006 (2007)
0.07
0.06553709 = product of:
0.13107418 = sum of:
0.088620745 = weight(_text_:jede in 903) [ClassicSimilarity], result of:
0.088620745 = score(doc=903,freq=2.0), product of:
0.3766374 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.06189913 = queryNorm
0.2352946 = fieldWeight in 903, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.02734375 = fieldNorm(doc=903)
0.042453434 = weight(_text_:und in 903) [ClassicSimilarity], result of:
0.042453434 = score(doc=903,freq=26.0), product of:
0.13728602 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06189913 = queryNorm
0.3092335 = fieldWeight in 903, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=903)
0.5 = coord(2/4)
- Content
- "Wie bereits in den Vorjahren hielt das Deutsche Netzwerk der Indexer (DNI) auf der Frankfurter Buchmesse 2006 sein Jahrestreffen ab - diesmal im Rahmen der Jahreskonferenz der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (DGI). Im Mittelpunkt des Treffens stand eine offene Informationsveranstaltung mit Präsentationen zu Aspekten professioneller Registererstellung, die sehr gut besucht war. Neben Gästen aus der Publikationsbranche sowie von der DGI kamen Indexer vom Niederländischen Indexer-Netzwerk sowie spezielle Gäste aus den USA und Großbritannien. Jochen Fassbender vom DNI hielt einen Vortrag über grundsätzliche Thesen zur Lage des Indexing in Deutschland. Die im internationalen Vergleich noch erhebliche Defizite aufweisende Situation im deutschsprachigen Raum wurde durch vier Bereiche beleuchtet. 1. Registererstellung beschränkt sich keineswegs nur - wie immer noch weitläufig angenommen - auf das bloße Anstreichen von Textwörtern. Eine derartige Vorgehensweise führt zu konkordanzähnlichen Verzeichnissen statt zu Registern. Es geht vielmehr darum, das Gemeinte aus dem Text in Registereinträge umzusetzen und diese mit einem Beziehungsgeflecht zu verbinden. 2. Die Erstellung von Registern durch Autoren, Herausgebern oder gar Hilfskräften - womöglich kurz vor Ende eines Projektes - hat oft erhebliche Mängel zur Folge, da aus Fachkreisen immer wieder bestätigt wird, dass derartige Personengruppen - im Gegensatz zu professionellen Indexern - kaum über adäquates Fachwissen zur methodischen Vorgehensweise bei der Registererstellung noch über geeignete Indexing-Programme verfügen. 3. Moderne Registererstellung muss keineswegs mit Tools wie Word oder Layout-Programmen durchgeführt werden, deren Einsatz aus Indexer-Sicht z. T. erhebliche Nachteile mit sich bringt. Der weitaus größte Teil der weltweit arbeitenden Indexer arbeitet mit so genannter Dedicated Indexing Software, welche die vielfachen Aspekte bei der Registererstellung hervorragend unterstützt.
4. Ferner wurde darauf aufmerksam gemacht, dass mit dem DNI auch im deutschsprachigen Raum eine Plattform für professionelles Indexing vorhanden ist, die sowohl hervorragende Kontakte zu den weltweit führenden angloamerikanischen Fachverbänden unterhält als auch Indexerinnen und Indexer für die Registererstellung für Fach- und Sachbücher als auch Periodika und Online-Medien bereitstellt. Maureen MacGlashan von der britischen Society of Indexers (SI) hielt einen Vortrag über die Fachzeitschrift The Indexer, das internationale Fachblatt der Indexing-Szene schlechthin. Maureen MacGlashan ist die derzeitige Hauptherausgeberin und erläuterte die Entstehungsgeschichte und Inhalte dieser bereits 1958 gegründeten Zeitschrift sowie deren Website www. theindexer.org, auf der ein Online-Index zur Verfügung steht. Ferner machte sie auf die im Oktober 2006 erscheinende Ausgabe aufmerksam, die als Schwerpunkt viele Aspekte des Indexing außerhalb des englischen Sprachraums beinhaltet. An dieser Ausgabe hatte auch das DNI als Gastherausgeber mitgearbeitet. Ein absolutes Debüt auf der Buchmesse war der Vortrag von Frances Lennie aus den USA, die mit CINDEX erstmals eine Dedicated Indexing Software vorstellte. Jede Person, die derartige Software kennen gelernt hat, weiß um den großen Unterschied zu der mühseligen Indexerstellung in Word. Frances Lennie zeigte, wie leicht und elegant Haupt- und Untereinträge sowie Querverweise mit CINDEX erstellt werden können. Die mit dieser Software viel effizienter erstellten Registereinträge lassen sich anschließend sogar in Word-Dokumente einbetten. Ein reichlich gedeckter Tisch mit InfoMaterial (z. B. Hefte von The Indexer, CDs mit einer Demo-Version von CINDEX) und der Hinweis, dass sowohl Mitglieder des DNI als auch die Society of Indexers Seminare zum professionellen Indexing anbieten, rundete die gelungene Veranstaltung ab. Weitere Informationen zum DNI und zur Registererstellung finden sich auf der DNI-Website www.d-indexer.org."
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.1, S.6
-
Gould, S.J.: ¬The structure of evolutionary theory (2002)
0.06
0.06356631 = product of:
0.12713262 = sum of:
0.08952048 = weight(_text_:jede in 2220) [ClassicSimilarity], result of:
0.08952048 = score(doc=2220,freq=4.0), product of:
0.3766374 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.06189913 = queryNorm
0.23768345 = fieldWeight in 2220, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.01953125 = fieldNorm(doc=2220)
0.037612148 = weight(_text_:und in 2220) [ClassicSimilarity], result of:
0.037612148 = score(doc=2220,freq=40.0), product of:
0.13728602 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06189913 = queryNorm
0.27396923 = fieldWeight in 2220, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2220)
0.5 = coord(2/4)
- Footnote
- Rez. in: Spektrum der Wissenschaft 2002, H.12, S.102-103 (W. Wickler): "Mit seinem letzten, schwergewichtigen Werk hat uns der kürzlich verstorbene Harvard-Professor und streitbare Autor Stephen Jay Gould ein sehr eigenwilliges Vermächtnis hinterlassen. Denn er präsentiert hier nicht etwa "die" Evolutionstheorie, sondern seine eigene, postdarwinistisch erweiterte Fassung derselben. Erweitert, indem er erstens die Weitergabe von Information als eigentliche Basis der Evolution leugnet und zweitens Konkurrenz um Ressourcen als wesentliches Element der natürlichen Selektion beiseite lässt. Das geschieht beiläufig irgendwo im Text und ist eingebettet in unterhaltsames bis detailbesessenes Rekapitulieren fremder wie eigener Denkwege. Ich greife diese beiden mir wichtigen Punkte heraus. Gould musste wissen, dass biologische Information in Genen kodiert ist und in Kopien der Gene weitergegeben wird. Entscheidend ist die Information, nicht das Material. Dennoch besteht Gould auf "material continuity throughout": Selbst wenn es gelänge, ein Lebewesen aus seinen Nukleotid-Sequenzen als Rohbausteinen zu synthetisieren und sich dieses in nichts von seinem natürlich erzeugten Vorbild unterschiede, dürfe man es nicht als Mitglied derselben Art ansehen. Er sagt weder, wie das bei Unkenntnis des Herstellungsweges zu vermeiden wäre, noch, welche andere Basis als die Information er denn für seine Evolutionstheorie in Anspruch nimmt. Gould weiß, dass die genetische Information Programme für Bau und Reaktionsweisen der Organismen liefert, dass das Individuum als Inkarnation der genetischen Information mit der Umwelt interagiert und dass die positiven und negativen Folgen dieser Interaktion darüber entscheiden, ob und wie oft seine Gene vervielfältigt werden. Das anerkennt er ausdrücklich als Selektion. Aber Gould ist Paläontologe, sieht Fossilreihen in datierten Schichten und findet Arten, die Millionen von Jahren unverändert bleiben, bis in einem Faunenbruch plötzlich die meisten verschwinden und nur wenige verbleibende zu einem Evolutionsschub beitragen. Die sprunghaften Änderungen will Gould mit Selektion auf höherer Ebene, von Populationen, Arten oder noch höheren taxonomischen Einheiten, erklären. Dabei bewertet er eine Einheit als umso erfolgreicher, je mehr Untereinheiten aus ihr hervorgehen. Der beste Beleg für Art-Selektion sei die Tatsache, dass verschiedene Arten sich mit unterschiedlichen Raten aufspalten. Heute gibt es vom Schimpansen zwei Arten, vom Menschen aber nur eine. Demnach wäre der Schimpanse evolutionär erfolgreicher als der Mensch? Darüber, wie Selektion auf Art-Ebene wirken kann, ohne an Merkmalen der Individuen anzusetzen, hat Gould während seiner ganzen Karriere am meisten nachgedacht, zuletzt anhand von Eigenschaften, die als "Emergenz" erst auf überindividueller Ebene auftreten, wie die Merkmalsvarianz. In seinem konstruierten Beispiel lässt er in einem verfaulenden Tümpel eine Fischart aussterben, deren Vertreter allesamt sauerstoffreiches Wasser brauchen, während von einem anderen Fisch mit größerer Kiemenfunktion-Varianz einige Individuen (!) überleben, die auch in schlechtem Wasser noch atmen können; ihre Nachkommen füllen später den wieder wohl belüfteten Tümpel. Nach Gould hat die Selektion die große interindividuelle Varianz der Kiemenfunktion belohnt. Aber: Viele Individuen sterben auch hier, und die Überlebenden verkörpern nur einen schmalen Ausschnitt der Varianz; vererben sie nur den an ihre Nachkommen, dann hat die Selektion genau das Merkmal zerstört, das sie angeblich belohnt hat. Vor allem aber: Art-Selektion spielt sich stets, wie schon ihr Erfinder Hugo de Vries 1905 betonte, zwischen Arten ein und derselben systematischen Einheit ab. Deswegen hat auch Gould zwei nahe verwandte Fischarten und nicht etwa Fisch gegen Wurm oder Krebs konkurrieren lassen. Er verschleiert mit vielen Worten, dass es in diesem Fall eben doch nur die relativ wenigen unterschiedlichen Gere sind, an denen die Selektion ansetzt, und nicht grundsätzlich verschiedene Systeme.
Und schließlich: Oft entscheidet die unbelebte Umwelt über die weitere Evolution einer taxonomischen Einheit. Man mag auch das Selektion nennen und muss dann jede Einheit für sich betrachten. Nach Darwins Konzept beruht die natürliche Selektion jedoch auf einer Konkurrenz um gemeinsam genutzte Ressourcen, bei dem ein Konkurrent seinen relativen Vorteil auf Kosten eines anderen erreicht. Der gemeinsame Tümpel in Goulds Beispiel erweckt zwar den Anschein von Konkurrenz, doch jede Art kämpft allein um ihr Dasein. Sauerstoffgehalt hat eher die Eigenschaften einer Temperatur als einer Nahrung: Er kann zwar lebensgefährlich niedrig sein, aber man kann ihn den anderen Individuen nicht wegfressen. Die angeblich konkurrierenden Arten aus Goulds Beispiel könnten ebenso gut in Tümpeln auf verschiedenen Kontinenten leben. Sein zweites Beispiel, in der die Populationsstruktur das emergente Merkmal ist, kann ebenfalls nicht überzeugen. Einigen brutpflegenden Meeresschnecken erlaubt angeblich die Abgrenzung örtlich isolierter Populationen eine höhere Artbildungsrate als den nicht-brutpflegenden Arten mit planktontischen Larven. Aber Brutpflege ist ein Merkmal des Individuums. Wieder ist von Konkurrenz keine Rede; es geht nur um die Anzahl registrierbarer Zweig-Arten wie in einer Reproduktions-Olympiade. Eine beherzigenswerte Erweiterung der Evolutionstheorie habe ich in dem Buch nicht gefunden. Immerhin: Ein unbezweifeltes Verdienst Goulds ist seine strikte Unterscheidung zwischen > selektionsverursachter Anpassung (Adaptation), > epiphänomenaler Passung (Zweckentfremdung, Exaptation), das heißt, dass ein bereits auf einen bestimmten Zweck adaptiertes Merkmal einem neuen Zweck dienstbar gemacht wird, und > zufälliger, Bauplan-inhärenter Eignung. Typisches Beispiel sind die sekundären Pflanzenstoffe: Abfallprodukte des Stoffwechsels, mit denen die Pflanze zunächst nichts anfangen kann, die ihr aber nützen, weil sie für Fressfeinde giftig sind. Gould nennt sie "spandrel" ("Spandrille", Bogenzwickel) nach einer Gewölbefläche im Markus-Dom in Venedig, die angeblich bautechnisch notwendig, aber obendrein zum Ausmalen mit einem ganz bestimmten Bild-Typ geeignet ist. Allerdings heißt solche Gewölbefläche architektonisch Hänge- oder Strebebogen (pendentive); und es gibt dazu eine bautechnische Alternative, den Stützbogen (squinch). Der aber lässt sich nicht so schön ausmalen. Also ist das pendentive eine Anpassung, aber Gould nennt sie spandrel und meint damit eine Nicht-Anpassung. Alles klar?"
-
Lischka, K.: Archiv statt Deponie : Die US-Congressbibliothek soll das digitale Kulturerbe sichern - das dürfte teuer und schwierig werden (2003)
0.06
0.06309013 = product of:
0.12618026 = sum of:
0.08952048 = weight(_text_:jede in 2418) [ClassicSimilarity], result of:
0.08952048 = score(doc=2418,freq=4.0), product of:
0.3766374 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.06189913 = queryNorm
0.23768345 = fieldWeight in 2418, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.01953125 = fieldNorm(doc=2418)
0.036659785 = weight(_text_:und in 2418) [ClassicSimilarity], result of:
0.036659785 = score(doc=2418,freq=38.0), product of:
0.13728602 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06189913 = queryNorm
0.26703218 = fieldWeight in 2418, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2418)
0.5 = coord(2/4)
- Abstract
- Selbst wenn es nach heutigem Ermessen nicht wertvoll wäre, müsste man Onlinematerial zumindest teilweise archivieren. Denn die Bedeutung von Quellen wandelt sich minder Zeit. Heutige Forschergenerationen würden viel für einen Blick auf jene Kurzfilme geben, die man Anfang des vergangenen Jahrhunderts nach einigen Durchläufen als Unterhaltungsmaterial achtlos zur Seite warf. Schon heute ist absehbar, dass lnternetseiten von 1998 Kommunikationswissenschaftler viel über die Beschleunigung und Aufheizung des Mediengeschäfts erzählen können. Wie schnell zogen kommerzielle Medien im Netz im Vergleich zur gedruckten Version der Skandalberichterstattung Matt Drudges über Bill Clintons Affaire nach? Welche Funktion hatten dabei öffentliche Nachrichtenforen? Historiker dürften vom frühen E-Mail-Verkehr in Regierungen und großen Unternehmen einst weit weniger finden als von den früher so geheimen Depeschen.
- Content
- "Fast eine Million britische Schulkinder, Beamte und Journalisten haben im Jahr 1986 Informationen über ihr Land gesammelt. Sie trugen 250000 Ortsbeschreibungen zusammen, 50 000 Fotos, 25 000 Landkarten und eine nie quantifizierte Textmenge. Der Sender BBC wollte ein Dokument über den britischen Alltag jener Zeit für die Nachwelt schaffen. Etwa 2,5 Millionen Pfund kostete der Datenberg, der auf einer Videodisk gespeichert wurde. Die galt als unzerstörbar. War sie bis heute auch. Nur gab es 16 Jahre später im Jahr 2002 keinen Computer mehr, der das Material lesen kann. Denn der entsprechende BBC Micro-Rechner war schnell verschwunden, weil ein zu teurer Flop. Ähnlich könnte es dem digital vorliegenden, kulturellen Erbe der Menschheit ergehen, Das denkt zumindest die Mehrheit der US-Kongressabgeordneten. Sie haben der Kongressbibliothek für die Entwicklung eines Systems zur Sammlung und Katalogisierung digitaler Informationen 20 Millionen Dollar bewilligt. Weitere 75 Millionen könnten in den nächsten Jahren vom Staat dazukommen - wenn auch Sponsoren so viel Geld bringen. Halten die sich zurück, knausert auch der Staat beim "National Digital Information Infrastructure and Preservation Program" (NDIIPP). Deutsche Bibliothekare betrachten das Projekt mit gemischten Gefühlen. "Wir sehen neidisch, was in den USA mit Sponsoren möglich ist. Doch andererseits kann man den Erhalt des nationalen Kulturerbes nicht darauf gründen, dass in 50 Jahren noch Sponsoren dafür zu haben sind", erklärt Katrin Ansorge, Sprecherin der Deutschen Bibliothek (DDB). Die hat - noch - keinen gesetzlichen Sammelauftrag für digitale Dokumente, die nicht auf physischen Datenträgern wie CD-ROMs vorliegen. Doch Ansorge ist zuversichtlich, "dass der Bund das Gesetz noch in dieser Legislaturperiode anpasst". Bis dahin dürfte mehr Material verloren sein als beim Brand der Bibliothek von Alexandria. Nach einer Studie der US-Kongressbibliothek war die Hälfte des 1998 im Internet verfügbaren Materials 1999 wieder verschwunden. "Vieles davon war wichtiges, einzigartiges Material. das man nicht zurückholen kann, aber einst dringend suchen wird", sagt der Leiter der Kongressbibliothek, James H. Billington. Den hier wirkenden Widerspruch des Internets als Medium formuliert Franziska Nori, die wissenschaftliche Leiterin der Abteilung Digitalcraft am Frankfurter Museum für Angewandte Kunst (MAK): "Es ist kurzlebig, hat aber alle Bereiche unserer Gesellschaft einschneidend verändert." Einen kleinen Beitrag zur Archivierung digitalen Kunsthandwerks leistet das MAK mit seiner Sammlung Webdesign. Ausgewählte Seiten von Gestaltern, Agenturen, Onlinemagazinen und Angeboten für Kinder werden auf den Servern von Digitalcraft archiviert. Auch die DDB sammelt bestimmte Dokumente wie Onlinedissertationen, Habilitationen oder nur online verfügbare wissenschaftliche Magazine. Die vergleichsweise kleinen Projekte zeigen vor allem eines: Die Archivierung digitaler Dokumente ist teuer. Denn die Probleme sind komplexer und vor allem neuer als der am Papier nagende Säurefraß und die nötige systematische Katalogisierung gedruckter Werke. Die Probleme beginnen schon beim Sammeln. Die von privaten Stiftungen getragene US-Initiative "Internet Archive" speichert beispielsweise jeden Tag 400 Gigabyte an neuem Material. Ausgedruckt wären das mehr als 20 Buchregal-Kilometer. Um zusätzlichen Speicherplatz zu kaufen, gibt das "Internet Archive" jeden Monat etwa 40000 Euro aus. Die Wartung und vor allem die Katalogisierung des vorhandenen Bestands ist weit teurer. Dabei erfasst das "Internet Archive" nur alle zwei Monate komplett einen großen Ausschnitt des Webs. Mit Passworten geschützte Seiten bleiben ebenso außen vor wie Kommunikation in Chaträumen und E-Mails.
Angesichts der Datenmengen scheint es, dass Bibliotheken beim Sammeln digitaler Dokumente rigider auswählen müssen. Weit drastischer als heute, wo noch immer der Grundgedanke wirkt, spätere Generationen müssten selbst den Wert der Quellen bewerten dürfen. Die DDB denkt laut Kathrin Ansorge an getrennte Sammlungsverfahren: "einerseits für Dokumente, die einen gesicherten Publikationsprozess wie etwa in Verlagen erfahren haben, andererseits für den großen Rest, den man mit Suchrobotern abgreifen könnte". Beim Sammeln werden Bibliotheken dieselben Schwierigkeiten haben, mit denen das "Internet Archive" heute schon kämpft: Urheber schützen ihr Material; Passworte sind das kleinere Problem. Eine gesetzliche Ablieferungspflicht wie bei gedrucktem Material könnte da helfen. Schwieriger sind Dateiformate, die schon heute das Auslesen der Dokumente ebenso wie zu häufige Transfers verhindern. Manche Verlage legen gar ein Verfallsdatum fest. Diese Verschlüsselungen sind nur schwer zu knacken. Die Versuche könnte ein novelliertes Urheberrecht gar strafbar machen. Aber auch Dateiformate ohne solche Schutzmechanismen werden zum Problem. Denn Dokumente sollen ja nicht nur auf Deponien gesammelt werden, sondern vor allem in Archiven zugänglich sein. Die drohende Gefahr: Die Soft- und Hardware zum Lesen bestimmter Formate ist in wenigen Jahren verschwunden. Die Dokumente sind dann so wertvoll wie Text in Geheimtinte ohne das Wissen, wie man sie sichtbar macht. Hier haben digitale Archive drei Möglichkeiten. Die erste ist Migration. Alte Software wird für jede neue Computergeneration neu programmiert. Das ist aufwendig. Und vor allem gehen Informationen verloren, während neue hinzukommen. Es ist so, als würde man ein Gemälde alle fünf Jahre abmalen. Wie Rembrandts Nachtwache dann heute aussähe? Eine andere Möglichkeit ist die Emulation. Dabei ahmen spezielle Programme alte Hardware nach. Man müsste dann nicht jede Software neu schreiben, weil sie sich in einer vertrauten, da emulierten Umgebung wähnt. Der Nachteil: Alle paar Jahre ist eine neue Emulation nötig, um die alten Emulatoren mit neuer Hardware nutzen zu können. Ein auf kurze Sicht bequemer, auf lange Sicht gefährlicher Teufelskreis, sagt David Bearman, Präsident des kanadischen Beratungsunternehmens "Archives and Museum Informatics": "Das gibt Managern und Regierungen auf der Welt eine Entschuldigung, um Entscheidungen herauszuzögern, die jetzt getroffen werden müssen. Eine dritte Möglichkeit wäre, alle Dateien in einer zweiten Version zu speichern, die auf einem so genannten Universal Virtual Computer lesbar ist. Der existiert als Beschreibung auf wenigen Seiten Papier. Er ist einfach und umfasst die bislang unveränderten und in Zukunft sicher reproduzierbaren technischen Grundsätze eines Rechners wie Arbeitsspeicher, Hauptprozessor und dergleichen. Diese Möglichkeit erwägt die Koninklijke Bibliotheek der Niederlande. Sie hat IBM mit der Entwicklung eines Depotsystem für digitale Dokumente beauftragt. Ein auf mittlere Sicht angelegtes Programm läuft schon. Die langfristige, gegenüber Hard- und Softwareänderungen resistente Erhaltung soll auf dem UVC-Konzept aufbauen. Dass es im Prinzip funktioniert, belegt ein Prototyp: Ein PDF-Dokument wurde in das Format für einen UVC konvertiert und ohne Informationsverlust wieder ausgelesen. Noch besteht Hoffnung für das digitale Kulturerbe. Sogar das von der BBC 1986 gesammelte Material konnten Forscher - nach mehr als einem halben Jahr Arbeit - Ende vergangenen Jahres auslesen. Aller- dings wissen sie noch nicht, wie sie es nun für die Ewigkeit archivieren sollen - oder zumindest für die nächsten 16 Jahre."
-
Maier, T.: Digitale Bibliothek rückt ins Zwielicht : Deutsche Politiker und der Börsenverein des Buchhandels machen Front gegen Google (2009)
0.06
0.06292743 = product of:
0.12585486 = sum of:
0.088620745 = weight(_text_:jede in 2815) [ClassicSimilarity], result of:
0.088620745 = score(doc=2815,freq=2.0), product of:
0.3766374 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.06189913 = queryNorm
0.2352946 = fieldWeight in 2815, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.02734375 = fieldNorm(doc=2815)
0.037234124 = weight(_text_:und in 2815) [ClassicSimilarity], result of:
0.037234124 = score(doc=2815,freq=20.0), product of:
0.13728602 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06189913 = queryNorm
0.2712157 = fieldWeight in 2815, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2815)
0.5 = coord(2/4)
- Content
- "Weltweit hat Google in den vergangenen Jahren zehn Millionen Bücher digitalisiert. Jetzt steht der Internet-Konzern vor seinem größten literarischen Coup: In den USA hat er sich mit Autoren und Verlagen in einem Vergleich darauf geeinigt, dass auch urheberrechtlich geschützte Bücher gescannt und im Internet in längeren Passagen zur Verfügung gestellt werden können. Darunter sind aber auch Millionen von Büchern nichtamerikanischer Autoren. Dies hat nun in Deutschland die Buchbranche sowie Autoren von Daniel Kehlmann bis Siegfried Lenz auf die Barrikaden gebracht. Auch die Bundesregierung hat vor dem Gericht in New York Bedenken gegen den Vergleich angemeldet. Die Frist läuft heute ab. "Google Books" ist in den USA dabei, rund 25 Millionen Bücher aus Bibliotheken zu digitalisieren. Bei einem Teil handelt es sich um urheberrechtsfreie Bände - in den USA gilt dies für Bücher, die vor dem Jahr 1923 erschienen sind. Darunter sind aber auch geschützte Bücher, die im Handel als vergriffen gelten. Der Vergleich (Google Book Settlement) sieht nun vor, dass Google die Autoren und Verleger digitalisierter Bücher zu 63 Prozent an etwaigen Einnahmen bei der Vermarktung der Bücher im Internet - etwa durch das Herunterladen oder die Platzierung von Werbeflächen beteiligt. Zusätzlich gibt es für die Rechteinhaber von Büchern, die bereits vor Inkrafttreten des Vergleichs von Google gescannt wurden, bis zu 60 Dollar pro Titel. Auch in den USA sind nicht alle damit glücklich. So gehört zum Beispiel der Sohn von Literaturnobelpreisträger John Steinbeck zu den Klägern.
Das Zentrum der weltweiten Entrüstung ist jedoch Deutschland. Kulturstaatsminister Bernd Neumann (CDU) befürchtet "die Gefahr eines Informationsmonopols". Und für den Börsenverein des Deutschen Buchhandels, der ebenfalls in New York Einspruch erhoben hat, stehen die "Normen des internationalen Urheberrechts" auf dem Spiel. "Theoretisch hat Google nach dem Vergleich die Möglichkeit, sämtliche auf der Welt erschienenen Bücher zu digitalisieren", sagt Christian Sprang, Justiziar des Dachverbands der deutschen Buchbranche. Google verweist darauf, dass allein das Urheberrecht in den USA betroffen sei. "Es geht nur um Bücher aus den USA und für amerikanische Nutzer", sagt der Sprecher von Google Deutschland, Stefan Keuchel. Ausländischen Online-Nutzern soll technisch der Zugang verwehrt werden. Es gebe im Internet genug Möglichkeiten, dies zu unterlaufen, meint hingegen Sprang. Weltweit arbeitet Google Books bei der Digitalisierung mit 30 renommierten Bibliotheken zusammen, darunter der Oxford Library und der Bayerischen Staatsbibliothek. Allerdings werden in den europäischen Bibliotheken nur urheberrechtsfreie Bücher digitalisiert. In Deutschland gelten Bücher 70 Jahre nach dem Tod des Autors als "gemeinfrei". Wir investieren sehr stark und verdienen damit momentan kein Geld", meint Keuchel mit Blick auf Googles Engagement in den Bibliotheken.
Kritiker sehen dies keineswegs als Projekt zum Wohle der Menschheit. Sprang argwöhnt, dass über kurz oder lang jede größere Bibliothek weltweit einen Großteil ihres Erwerbungsetats für elektronische Inhalte an Google zahlen muss. Er hält es für ein "Armutszeugnis", dass Bibliotheken weltweit ihre Schätze Google zur Verfügung stellten, nur weil es für die Digitalisierung nicht genügend öffentliche Gelder gebe. Die zuständige EU-Kommissarin Viviane Reding wiederum hält das weltweite Google Projekt für eine Chance, dass Verbraucher an mehr Informationen herankommen. Das Thema bleibt auf alle Fälle heiß: Das US-Justizministerium nimmt das Google Book Settlement kartellrechtlich unter die Lupe. Die Bundesregierung hofft, dass das New Yorker Gericht den Vergleich ablehnt oder deutsche Autoren und Verleger ausklammert. "Die deutschen Rechtsinhaber könnten dann selbst entscheiden, ob und welche Rechte sie Google einräumen", erklärte Bundesjustizministerin Brigitte Zypries."
-
Deussen, N.: Sogar der Mars könnte bald eine virutelle Heimat bekommen : Gut 4,2 Milliarden sind nicht genug: Die sechste Version des Internet-Protokolls schafft viele zusätzliche Online-Adressen (2001)
0.06
0.058707196 = product of:
0.11741439 = sum of:
0.08952048 = weight(_text_:jede in 6729) [ClassicSimilarity], result of:
0.08952048 = score(doc=6729,freq=4.0), product of:
0.3766374 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.06189913 = queryNorm
0.23768345 = fieldWeight in 6729, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.01953125 = fieldNorm(doc=6729)
0.027893918 = weight(_text_:und in 6729) [ClassicSimilarity], result of:
0.027893918 = score(doc=6729,freq=22.0), product of:
0.13728602 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06189913 = queryNorm
0.20318104 = fieldWeight in 6729, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=6729)
0.5 = coord(2/4)
- Abstract
- In der Virtualität wird's eng. Die Möglichkeiten des Scheinbaren sind anscheinend ausgereizt. Es mangelt bald an InternetAdressen. Wenn WhirIpools und Wasclunaschinen ihren eigenen Zugang zum Internet brauchen, wird der Vorrat an Kennzahlen knapp. Um dem drohenden Mangel zu begegnen, wird seit Jahren an einer überarbeiteten Fassung des Internet-Protokolls (IP) gebastelt. Doch die Neuauflage hat bis auf ein paar Testläufe - bisher ihren Weg ins Netz noch nicht gefunden. Für Aufregung sorgte sie dennoch bereits: wegen Datenschutzproblemen. Für die Kommunikation zwischen Computern im Internet gibt es eine Art Knigge. Die protokollarische Vorschrift legt fest; wie die Rechner Daten untereinander austauschen. Doch zuvor brauchen die Maschinen Namen (wie www.fr-aktuell.de) und Anschriften (hier: 194.175.173.20), damit sie sich einander vorstellen (Shake Hands) und später Daten schicken können. Vergeben werden die Bezeichnungen von der Internet Corporation for Assigned Names and Numbers Icann). Den ersten Vorschlag für eine einheitliche Übergaberegelung machten Bob Kahn und Vint Cerf im Jahr 1974. Damals versuchten im inzwischen legendären, militärisch genutzten Arpanet kaum tausend Großrechner an etwa 250 Standorten miteinander zu kommunizieren. Um Ordnung in das Sprachengewirr der verschiedenen Bautypen zu bringen, mussten Regeln her. Die Idee entwickelte sich zum Protokoll, das nach Informatik-Manier mit dem Kürzel TCP/IP belegt wurde. Mit etwa 100000 angeschlossenen Computern wurde das Netz 1983 zivil - und TCP/IP zum offiziellen Standard. Derzeit regelt die vierte Version des Internet-Protokolls (IPv4) den Bit-Transport. Die Adresse wird jedem Datenpaket vorangestellt. Sie besteht aus Ziffern und ist exakt 32 Bit lang. Daraus ergeben sich mehr als 4,2 Milliarden Zahlenkombinationen. Genug für einen Globus, auf dem erst kürzlich der sechsmilliardste Erdenbürger das Licht der realen Welt erblickte - dachten die Computer-Operateure damals. Dann kam das World Wide Web.
Der Geniestreich aus dem Europäischen Labor für Teilchenphysik (Cern) in Genf machte aus dem Wissenschaftsnetz ein Massenmedium. Zudem erfuhr die elektronische Post einen Aufschwung. Das Wachstum der Netze sprengt alle Erwartungen", resümiert Klaus Birkenbihl vom InformatikForschungszentrum GMI). Jede Web-Site, jede E-Mail-Box, jeder Computer, der per Standleitung online ist, braucht eine eindeutige Identifizierung. Die Schätzungen, wie viele IPv4-Adressen noch frei sind, schwanken zwischen 40 und zehn Prozent. Der Verbrauch jedenfalls steigt rasant: Die Anzahl der WebSites steuert derzeit auf eine Milliarde zu, weit mehr Netznummern gehen bereits für E-Mail-Anschriften drauf. Den Adressraum weiter ausschöpfen werden demnächst die intelligenten Haushaltsgeräte. Der Laden an der Ecke will wissen, welcher Kühlschrank die Milch bestellt hat, die Videozentrale braucht für das Überspielen des Films die Kennung des PC-Recorders, der Computer des Installateurs benötigt die IP-Anschrift der Heizungsanlage für die Fernwartung. Handys, die später Nachrichten übers Internet schicken, und Internet-Telefonie gehen möglicherweise leer aus. Doch bevor Internet-Adressen zur heiß begehrten Schieberware werden, soll ein neues Adresssystern mit mehr Möglichkeiten her. Schon 1990 hatte sich die Internet Engineering Task Force (IETF) Gedanken über einen neues Internet-Protokoll mit einem größeren Adressangebot gemacht. Im IETF kümmern sich Forscher, Soft- und HardwareIngenieure um die fortlaufende Verbesserung von Architektur und Arbeit des Netz werks. Eine ihrer Arbeitsgruppen prognostizierte, der IPv4-Vorrat gehe 2005 zu Ende. Fünf Jahre dauerte es, dann waren sich alle Internet-Gremien einig: Eine neue Protokollversion, IPv6, muss her. Dann passierte weiter nichts. Endlich verkündete 1999 Josh Elliot von der Icann, ab sofort würden neue Anschriften verteilt. Ein historischer Moment", freute er sich.
Der neue 128-Bit-Header treibt die Möglichkeiten ins Astronomische: 3,4 mal zehn hoch 38 Adressen, eine 3,4 mit 38 Nullen. -Das IPv6-Forum zerhackte den Zahlentrumm in anschauliche Stücke: Pro Quadratmillimeter Erdoberfläche stehen nun zirka 667 Billiarden, pro Mensch 6,5 mal zehn hoch 28 Adressen, bereit." Eine Billiarde bringt es immerhin auf respektable 15 Nullen. Schon kurz darauf ging ein Aufschrei durch die Netzgemeinde. Das neue Protokoll schrieb die weltweit eindeutigen Seriennummern bestimmter Netzwerkkarten auf den virtuellen Adressaufkleber. Die Ethernet-Adapter bewerkstelligen den Datentransport bei Computern, die über eine Standleitung, ein Koaxialkabel, dauernd online sind. Die Spur von Ethernet-Usern wäre damit leicht zu verfolgen gewesen, ihre Nutzerprofile, ihre Surfgewohnheiten einsehbar wie offene Bücher. Das Problem, ließ Icann nun wissen, sei behoben: Es gebe keine festen Kennzahlen mehr in den Adressköpfen. Bei jedem Hochfahren eines Rechners oder sogar noch öfter werden die Nummern neu durchgemischt", erläutert Hans Petter Dittler, stellvertretender Vorsitzender der deutschen Sektion der Internet Society. Das Betriebssystem Linux kann bereits mit dem IPv6 arbeiten. Microsoft will den Standard in das nächste Windows-Betriebssystem einbauen: "Wir denken, der vorgeschlagene Standard ist wichtig zum Schutz der Privatsphäre der Internet-Nutzer", sagt Jawad Khaki, Vizepräsident für Netzwerke. Seit einigen Tagen steht auf der Microsoft-Homepage eine Vorab-Version von lPv6 für Windows 2000 zum Herunterladen bereit. Geradezu euphorisch gibt sich Protokoll-Chef Vint Cerf. Mit IPv6 haben wir die Grundlage dafür", philosophierte der Internet-Daddy auf dem ersten lPv6-Kongress 1999 in Berlin, "das Internet von unserem Planeten über den Mars und die Asteroiden bis in den Weltraum hinaus auszudehnen." Doch im Internet-Alltag wird das alte Protokoll noch lange Vorrang haben. Grund sind handfeste Programmier-Probleme. Denn Software, die sich explizit auf die vierte IP-Version bezieht, muss umgeschrieben werden - etwa um mit den längeren Adressfeldern umgehen zu können. Hubert Martens vom Münchner Multinet Services befürchtet gar einen InternetCrash: "Das Jahr-2000-Problem war harmlos gegen das, was uns mit lPv6 droht."
-
Tononi, G.: Phi : a voyage from the brain to the soul (2012)
0.06
0.05616645 = product of:
0.2246658 = sum of:
0.2246658 = weight(_text_:hearing in 971) [ClassicSimilarity], result of:
0.2246658 = score(doc=971,freq=2.0), product of:
0.5609553 = queryWeight, product of:
9.06241 = idf(docFreq=13, maxDocs=44421)
0.06189913 = queryNorm
0.40050572 = fieldWeight in 971, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.06241 = idf(docFreq=13, maxDocs=44421)
0.03125 = fieldNorm(doc=971)
0.25 = coord(1/4)
- Abstract
- From one of the most original and influential neuroscientists at work today, here is an exploration of consciousness unlike any other-as told by Galileo, who opened the way for the objectivity of science and is now intent on making subjective experience a part of science as well. Giulio Tononi is one of the most creative and the most influential neurologists in the world nowadays. Tononis way of exploring consciousness is different from those of the others, which is that his course of exploring consciousness is narrated by Galileo who used to pave the way for the objectivity of science and devoted himself to making subjective experience a part of science in the book Phi:a Voyage from the Brain to the Soul. Galileo's journey has three parts, each with a different guide. In the first, accompanied by a scientist who resembles Francis Crick, he learns why certain parts of the brain are important and not others, and why consciousness fades with sleep. In the second part, when his companion seems to be named Alturi (Galileo is hard of hearing; his companion's name is actually Alan Turing), he sees how the facts assembled in the first part can be unified and understood through a scientific theory-a theory that links consciousness to the notion of integrated information (also known as phi). In the third part, accompanied by a bearded man who can only be Charles Darwin, he meditates on how consciousness is an evolving, developing, ever-deepening awareness of ourselves in history and culture-that it is everything we have and everything we are. Not since Gödel, Escher, Bach has there been a book that interweaves science, art, and the imagination with such originality. This beautiful and arresting narrative will transform the way we think of ourselves and the world.
-
Plieninger, J.: Vermischtes und noch mehr ... : Ein Essay über die (vergebliche) Nutzung bibliothekarischer Erschließungssysteme in der neuen digitalen Ordnung (2007)
0.05
0.052251287 = product of:
0.10450257 = sum of:
0.063300535 = weight(_text_:jede in 1680) [ClassicSimilarity], result of:
0.063300535 = score(doc=1680,freq=2.0), product of:
0.3766374 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.06189913 = queryNorm
0.16806757 = fieldWeight in 1680, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.01953125 = fieldNorm(doc=1680)
0.041202042 = weight(_text_:und in 1680) [ClassicSimilarity], result of:
0.041202042 = score(doc=1680,freq=48.0), product of:
0.13728602 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06189913 = queryNorm
0.30011827 = fieldWeight in 1680, product of:
6.928203 = tf(freq=48.0), with freq of:
48.0 = termFreq=48.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1680)
0.5 = coord(2/4)
- Content
- "Dass dieses Buch den Bibliothekaren gewidmet ist, stimmt tröstlich. Denn auf den Punkt gebracht, bedeutet sein Inhalt für unseren Berufsstand: Es kommt nicht mehr auf Euch an! Die Kernthese, die der Autor, ein bekannter Publizist zum Internet und Mitglied einer Harvard-Institution, in diesem Essay überaus anregend und mit vielen Beispielen gespickt ausführt, lautet: Dem Informationsüberfluss durch elektronische Dokumente kann nur noch durch noch mehr Information begegnet werden. Die Erschließung elektronischer Dokumente durch die Benutzer mithilfe von Metadaten und so genannten Tags (freie Verschlagwortung, also nicht standardisierte Metadaten) führt zu einer Überlagerung mit der systematischen Erschließung, für die der bibliothekarische Berufsstand steht. Diese Art der Erschließung wird in der gegenwärtigen Diskussion über Web 2.0 Folksonomy genannt. Nur so, schreibt David Weinberger, können die elektronischen Dokumente vielfältig und vieldeutig erschlossen werden, nach Gesichtspunkten, die vielleicht für viele, vielleicht auch nur für einige relevant sind. Aber auf jeden Fall vielfältiger und zukunftssicherer, als dies durch bibliothekarische Erschließung möglich wäre. Sagenhafte Zuwachsraten Der Autor entwickelt seine Argumente anhand von Beispielen aus vielen Bereichen. Besonders eindrücklich ist seine Schilderung von Fotoarchiven. Er beschreibt das Buttmann-Archiv, eine umfangreiche historische Fotosammlung in den USA, das durch Zettelkataloge erschlossen ist. Hier ist eine Recherche, die von Fachpersonal durchgeführt werden muss, langwierig, und die Erschließung wurde den vielfältigen Bezügen der Darstellungen auf den Fotos nicht gerecht.
Dann berichtet er über Corbis, ein elektronisches Fotoarchiv, dessen Fotos von professionellen Sachkatalogisierern breit verschlagwortet werden. Und jedermann kann unter www.corbis.com im Bestand des Archivs recherchieren. Als Beispiel für die neue digitale Ordnung stellt er Flickr (www.flickr.com) vor, das einen ungleich größeren Bestand als die beiden anderen Archive mit sagenhaften Zuwachsraten hat. Dort können die Benutzer selbst Fotos hoch laden, Schlagworte (Tags) vergeben und Beschreibungen hinzufügen, anhand derer dann die Recherche erfolgt. Andere Benutzer haben die Möglichkeit, ihrerseits zu allen Bildern jederzeit Kommentare abzugeben. In Flickr gibt es keine Kategorien mehr, alles ist vermischt (eben »miscellaneous«), aber durch die Tags erschlossen. Freie Verschlagwortung? Weinberger führt sehr eindringlich aus, dass durch die elektronische Speicherung und die Erschließung durch Metadaten Erschließungssysteme wie Systematiken und kontrollierte Vokabulare obsolet werden, da sich diese noch am knappen Platz auf den Karteikarten der Zettelkataloge oder an der zweidimensionalen Darstellung auf dem Papier orientieren. Dies erlaube lediglich eine Anordnung in Baumstruktur und somit Entscheidungen für den einen oder anderen systematischen Platz. Computer könnten hingegen vielfältige Zuordnungen vornehmen, bräuchten keine Systematik mit ihren »Entweder hier/ oder da!«-Zuordnungen, da man jedem elektronischen Text-/Bild-/Tondokument Metadaten hinzufügen könne, die eine vielfältige Erschließung und freie Zuordnungen möglich machen. Das ist eine Zumutung für einen Berufsstand, der für eine kontrollierte, strukturierte Erschließung und damit Qualität steht. Jede/r soll frei verschlagworten können? Gibt es dann nicht ein großes Kuddelmuddel der verschiedenen Schreibformen, der Vermischung von Bedeutungen, beispielsweise bei Homonymen? Es gibt! Aber Weinberger beschreibt sehr anschaulich, wie Computer zunehmend hier unterschiedliche Bedeutungen auseinanderdividieren und unterschiedliche Benennungen zusammenführen können.
Katalog 2.0 Und wir stehen erst am Anfang der Entwicklung, denn man erschrickt, wie kurz erst die »Erfindung« von Tags durch den Gründer des sozialen Bookmarkdienstes Delicious (http://del.icio.us), Joshua Schachter, her ist. Uns wird hier ein Lernprozess abverlangt. Wer beispielsweise seine Bookmarks mithilfe eines sozialen Bookmarkdienstes wie Delicious, Furl (www.furl.net) oder Mr. Wong (www.mister-wong.de) verwaltet, wird zunächst einmal sehr verunsichert sein, die Links nicht in Schubladen zu haben, sondern mithilfe von Tags zu verwalten und zu suchen. Der Rezensent kann sich noch erinnern, wie erleichtert er war, dass Delicious sogenannte Bundles anbietet, doch wieder Schubladen, in denen man die Tags grob gliedern kann. Das stellt sich leider nicht immer als besonders sinnvoll heraus... Wahrscheinlich wird immer wieder die Qualität als Gegenargument ins Feld geführt werden. Die F.A.Z. hat sich über das Buch ziemlich lustig gemacht und auf die wenig qualitätvolle Arbeit von Reader-Editoren und von der Banalität der hoch gerankten Nachrichten bei Digg (www.digg.com) verwiesen. Diese Kritik hat schon ihre Berechtigung, aber auch bei anderen sozialen Diensten wie den Weblogs war es so, dass anfangs Banalität herrschte und jetzt mehr und mehr Fachblogs qualitativ höherwertigen Inhalt bieten. Wenn einmal die Experten die Potenz der Erschließung durch Metatags entdecken, wird die Qualität ansteigen. Das heißt nicht, dass kontrollierte Vokabulare wie die Medical Subject Headings oder RSWK bedeutungslos werden, sie werden aber durch die Verschlagwortung der Nutzer notwendigerweise ergänzt werden müssen, weil sich der Mehrwert dieser Nutzererschließung zeigen wird. Solches wird unter dem Stichwort Katalog 2.0 bereits diskutiert, und es existieren auch schon einige Beispiele dafür.
Kontrolle aufgeben Es gibt noch weitere Aspekte dieses Buches, die überaus bedenkenswert sind. Über das Wissensmanagement beispielsweise, die Schwierigkeit implizites Wissen explizit zu machen. Der Gedanke auch, dass Wissen vor allem in der Kommunikation, im Gespräch erarbeitet wird, während unsere ganze Bildungskonzeption immer noch von dem Bild ausgeht, dass Wissen etwas sei, was jeder Einzelne in seinen Kopf trichtert. Weinberger benutzt als Beispiel die Schulkinder, die schon längst kollektiv Hausaufgaben machen, indem neben dem Erledigen der Aufgaben her zwei oder drei Chatfenster offen sind und die Lösungswege gemeinsam erarbeitet werden. Gibt es einen Trost für die Bibliothekare? Nach diesem Buch nicht. Prof. Hans-Christoph Hobohm bezweifelt aber in einer Besprechung des Buches im Weblog LIS der FH Potsdam (http://tinyurl.com/ywb8ld), dass es sich um einen Paradigmenwechsel handelt. Aber auch wenn die Zukunft von Bibliotheken im Buch nicht explizit erörtert wird: Zum Schluss behandelt der Autor anhand mehrerer Beispiele die Wirtschaft, die unter diesen Rahmenbedingungen ihr Marketing umstellen müsse: Nur wer seine Kontrolle über die Information aufgebe, könne unter den wechselnden Rahmenbedingungen wieder an Reputation, an Wert gewinnen. Wer sie festzuhalten versucht, verliere notwendigerweise die Kunden! Das lässt sich eins zu eins auf die Bibliotheken übertragen: Nur wer seine Informationen freigibt und die Benutzer (auch) erschließen lässt, wird Erfolg haben. Also muss man in Richtung Katalog 2.0 denken oder beispielsweise an die Zugänglichmachung von RSS-Feeds bestimmter Medien (in Öffentlichen Bibliotheken) oder Zeitschriftenin halten (in wissenschaftlichen Bibliotheken)."
-
Marshall, R: Rhetoric and policy : how is it being used in pornography and the Internet? (1999)
0.05
0.049145643 = product of:
0.19658257 = sum of:
0.19658257 = weight(_text_:hearing in 709) [ClassicSimilarity], result of:
0.19658257 = score(doc=709,freq=2.0), product of:
0.5609553 = queryWeight, product of:
9.06241 = idf(docFreq=13, maxDocs=44421)
0.06189913 = queryNorm
0.3504425 = fieldWeight in 709, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.06241 = idf(docFreq=13, maxDocs=44421)
0.02734375 = fieldNorm(doc=709)
0.25 = coord(1/4)
- Abstract
- This past year has seen an unprecedented wave of censorship, and overzealous law enforcement has swept through the online world. This paper attempts to look at this growing phenomenon from a rhetorical viewpoint by seeking to answer the following question: How is rhetoric deployed to support a partisan value? After a literature review concerning media and value, policy and pornography, and rhetoric and politics, the method of study was discussed. This consisted of downloading the text of the Supreme Court hearing of the ACLU v. Reno case. This transcript was analyzed and found several metaphors used by the government defense in trying to support its view. These were revealed in the results and examined in the discussion section. Findings were discussion according to exact wording: KNOWING, reference to immediate authority: PARENTS, defending definitions: FREE SPACE, and attacking the previous battle: "THEY DIDN'T . . .". Finally, a review of what was discovered along with what this study presented for further research was revealed. The author then encouraged researchers, as well as those in politics, to be aware of how words are used to support and sway the public and legal system. Also, that we need to constantly be on guard to protect our right to speak through whatever medium we deem necessary. The Internet is an impressive medium for communications, research, entertainment and commercial agencies. The number of Internet users over the age of 16 in the U.S. and Canada has reached 79 million. Also, for the first time, more than 50 percent of the population between the ages of 16 and 34 are Internet users, which comes to around 40 million individuals (McPhee & Coyle, 1998). With this growth comes the good and the bad of society. Pornography, to some a good thing and others a bad item, has accumulated phenomenal success on the Internet. It is this question, is it good or bad, that has sparked a continuous debate among politicians and practitioners. It is this arena that this study endeavors to consider. The legal battles between the online providers of pornographic material and the legal authorities along with those that would want to keep such material out of their lives have been in the courts over the past two years. In these battles, words have been used to sway judges toward certain lines of thought. It is this battle with words that this author seeks to study. How are words being used in the defense of policies that are ultimately considered unconstitutional? In particular, are politicians trying to influence the courts to support a biased agenda? This paper will try to answer this question in the following manner. First a literature review will be given considering the role of media in value making, a brief report of how the discussion of pornography has been played out in the court system, and then a look at rhetoric and the political voice. From there a brief discussion of the methodology the study will be given followed by a look at what was discovered in the analysis. The final section will consider what this means to policy makers and the public whom the policies effect. First, let us Consider what others have said concerning the areas of interest for this study
-
Cochrane, P.A.: New roles for classification in libraries and information networks (1995)
0.05
0.049145643 = product of:
0.19658257 = sum of:
0.19658257 = weight(_text_:hearing in 561) [ClassicSimilarity], result of:
0.19658257 = score(doc=561,freq=2.0), product of:
0.5609553 = queryWeight, product of:
9.06241 = idf(docFreq=13, maxDocs=44421)
0.06189913 = queryNorm
0.3504425 = fieldWeight in 561, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.06241 = idf(docFreq=13, maxDocs=44421)
0.02734375 = fieldNorm(doc=561)
0.25 = coord(1/4)
- Content
- The 36th Allerton Institute, sponsored by the University of Illinois Urbana-Champaign Graduate School of Library and Information Science was held at the University of Illinois Conference Center near Monticello, Illinois on October 23-25, 1994. The theme centered around new roles for library classification in the electronic age. Representatives of six of the world's most used library classifications presented papers and demonstrations to show how traditional uses for shelf arrangement will be expanded to include uses on the Internet, World Wide Web, Library homepages and in other networks. Several of these papers will be included in this issue of Cataloging & Classification Quarterly: Joan S. Mitchell for Dewey Decimal Classification (DDC), Ia Mcllwaine for the Universal Decimal Classification (UDC), Eric Coates for both the Broad System of Ordering (BSO) and the Bliss Classification (BC). (Other issues of this journal will cover the National Library of Medicine and Library of Congress Classification.) An international trio of keynote addresses by Lois Chan, Ingetraut Dahlberg, and Pat Moholt faced the future and found several roles for library classification systems if they can match the growing need for organization of electronic resources. Several panels representing varying viewpoints was the vehicle for hearing from participants at the Allerton Conference. Some of these discussions were covered by student reporters and are included in this issue (Ann Marie Ziadie for the discussion of networks abroad; Shirley Lincicum for those discussing non-traditional uses of classification; and Brendan Wyly for those focusing on information networks). Janet Swan Hill's paper, included here, is representative of the panel of library administrators. The closing remarks by Marcia Bates and Sarah Thomas pointed to a dozen directional signals for those interested in a more meaningful role for library classification in the world of electronic information resources:
-
New directions in human information behavior (2006)
0.05
0.04898861 = product of:
0.09797722 = sum of:
0.063300535 = weight(_text_:jede in 1577) [ClassicSimilarity], result of:
0.063300535 = score(doc=1577,freq=2.0), product of:
0.3766374 = queryWeight, product of:
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.06189913 = queryNorm
0.16806757 = fieldWeight in 1577, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.0846963 = idf(docFreq=274, maxDocs=44421)
0.01953125 = fieldNorm(doc=1577)
0.034676686 = weight(_text_:und in 1577) [ClassicSimilarity], result of:
0.034676686 = score(doc=1577,freq=34.0), product of:
0.13728602 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06189913 = queryNorm
0.25258717 = fieldWeight in 1577, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1577)
0.5 = coord(2/4)
- Footnote
- Rez. in: Mitt VÖB 59(2006) H.2, S.83-88 (O. Oberhauser): "Dieser neue Sammelband möchte Interessenten aus den Bereichen Informationswissenschaft, Bibliothekswesen sowie Sozial- und Evolutionspsychologie aktuelle Entwicklungen und neue theoretische Ansätze auf dem Gebiet des menschlichen Informationsverhaltens-human information behavio(u)r bzw. kurz HIB - vermitteln. Es geht dabei um die komplexen Informationsprozesse, die in das alltägliche Sozialverhalten und die Lebensabläufe menschlicher Individuen eingebettet sind. Die beiden Herausgeber sind in diesem Teilbereich der Informationswissenschaft auch durch eine Reihe anderer Publikationen einschlägig ausgewiesen: Amanda Spink (vormals Universität Pittsburgh), die sich kürzlich selbst in aller Bescheidenheit als "world-class ICT researcher" beschrieb,' ist Professorin an der Technischen Universität Queensland (Australien); Charles Cole ist Research Associate (wissenschaftlicher Projektmitarbeiter) an der McGill University in Montreal und selbständiger Berater für Informationsdesign. Gemeinsam haben Spink und Cole zuletzt, ebenfalls bei Springer, eine weitere Aufsatzsammlung - New Directions in Cognitive Information Retrieval (2005) - herausgegeben. Das Buch versammelt zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich allerdings bei den Sektionen 1 und 5 (= Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Während erstere eigentlich nur eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden, darstellt, kann letztere als eigenständiger Beitrag gelten, der versucht, die in diesem Band angesprochenen Aspekte in einem vorläufigen HIB-Modell zu integrieren.
... New Directions in Human Information Behavior ist ein Sammelband, der eindrucksvoll dokumentiert, dass sich die Forschung zu den Themen Informationssuche bzw. Informationsverhalten - ein in unserem Sprachraum freilich wenig bekannter und weitgehend unrezipierter Teilbereich der Informationswissenschaft - gegenwärtig stark im Umbruch befindet. Der Trend von den bisherigen, eher an Paradigmen wie Dokument, fachliche Informationssuche, Bibliothek, wissenschaftliche Informationsnutzung orientierten Ansätzen hin zur Betrachtung alltäglicher Situationen und weiterer Bevölkerungsschichten sowie die Einbeziehung von neuen bzw. aus anderen sozialwissenschaftlichen Bereichen stammenden theoretischen Überlegungen ist nicht zu übersehen. Mitunter mutet dies wie eine (Wieder- bzw. Neu-)Entdeckung der Kommunikationswissenschaft durch die Informationswissenschaft an - oder auch umgekehrt, zumal einige der im vorliegenden Band Schreibenden aus communication departments kommen. Wie auch immer, wer sich für den gegenwärtigen Stand der Entwicklung auf dem HIB-Sektor interessiert, kommt um dieses Buch nicht herum. Allerdings taucht darin der Begriff framework - erfahrungsgemäss oft mit weniger handfesten Inhalten korreliert und mir daher stets ein wenig suspekt - für meinen Geschmack etwas zu häufig auf. HIB ist leider nicht das einzige Akronym, das hier eingeführt wird. Bisher ging es im gegenständlichen Kontext ja bloss um IS (information seeking) - ein neben IR (information retrieval) auch schon bekanntes und eingeführtes Kurzwort.
Angesichts des skizzierten Umbruchs kann HIB wohl akzeptiert werden, doch ist es - wie dieses Buch zu suggerieren trachtet - wirklich notwendig, daneben auch noch IBEC (information behaviour in everyday contexts), ELIS (everyday life information seeking), HIOB (human information organizing behaviour), CIB (collaborative information behaviour), CIS&R (collaborative information seeking & retrieval) und HICB (human information co-ordinating behaviour) zu verwenden? Wohl kaum, doch wer wird bzw. kann ein solches Spamming verhindern? Würde der akademische Ernst nicht jede Schadenfreude verbieten, so könnte man konstatieren, dass diese Akronymenflut zu unnötigen Druckfehlern führt (z.B. p.172, wo sogar in einer Zwischenüberschrift "HIBO" statt "HIOB" zu lesen ist). In herausgeberischer Hinsicht ist weiter zu bemängeln, dass die meist ansehnlichen und sich naheliegenderweise zum Teil überschneidenden Literaturverzeichnisse der einzelnen Beiträge besser in einer Gesamtbibliographie mit konsistentem Zitierstil zu vereinen gewesen wären, zumal sie in der vorliegenden Form auch etwas inkonsistent und nicht fehlerfrei sind. In diese Richtung zu investieren wäre sinnvoller gewesen als in die Erstellung eines geradezu erbärmlichen Sachregisters (dessen Verriss den Rahmen dieser Besprechung sprengen würde), welches auf Herausgeber bzw. Lektorat - falls es letzteres überhaupt noch gibt - ein eher fahles Licht wirft. Abgesehen davon fielen mir nur einige fehlerhafte bzw. unvollständige Angaben der Institutszugehörigkeiten am Beginn der einzelnen Kapitel (z.B. p.113, p.203) sowie die nicht ganz homogen gestalteten Kurzbiographien der Verfasser/innen am Ende des Buches auf. Der Band selbst ist von gewohnt solider Springer-Machart und zielt schon aufgrund seines hohen Preis wohl nur auf institutionelle Käufer ab."