Search (13209 results, page 5 of 661)

  1. Hauke, P. (Bearb.): RAK versus AACR : Projekte - Prognosen - Perspektiven. Beiträge zur aktuellen Regelwerksdiskussion. (2002) 0.09
    0.085831314 = product of:
      0.17166263 = sum of:
        0.055326052 = weight(_text_:und in 2729) [ClassicSimilarity], result of:
          0.055326052 = score(doc=2729,freq=86.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.40171778 = fieldWeight in 2729, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2729)
        0.116336584 = weight(_text_:heftig in 2729) [ClassicSimilarity], result of:
          0.116336584 = score(doc=2729,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.22748211 = fieldWeight in 2729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2729)
      0.5 = coord(2/4)
    
    Abstract
    Seit dem 6. Dezember 2001 steht fest: »Der Standardisierungsausschuss strebt grundsätzlich einen Umstieg von den deutschen auf internationale Regelwerke und Formate (AACR und MARC) an.« Ein Beschluss mit weitreichenden Folgen. Wie reagiert die deutsche »Bibliotheksszene« darauf? Inwieweit brächte ein Umstieg von RAK auf AACR Vor- bzw. Nachteile? Oder geht es gar nicht um einen Umstieg sondern um ein neues Regelwerk, das die Stärken von RAK als auch von AACR in sich vereinigt? Welche grundlegenden Veränderungen würden aus einem Regelwerkswechsel resultieren? Solchen und anderen Fragen geht diese Sammlung nach. In 19 aktuellen Beiträgen legen renommierte Autorinnen und Autoren ihre Sicht der Dinge dar. Es schreiben Vertreter wissenschaftlicher und öffentlicher Bibliotheken, der Spezialbibliotheken und der One-Person-Libraries sowie Repräsentanten bibliothekarischer Arbeitsgemeinschaften, der Verbünde, bibliographischer Dienste und der Berufsverbände. Der vorliegende Band verkörpert die erste kompakte Beitragssammlung zur Diskussion um RAK versus AACR. Ziel dieser Publikation ist es, den Regelwerksdiskurs in eine breitere Öffentlichkeit zu tragen. Sowohl die Autoren als auch die Herausgeberin und ihr Team von Studierenden der Bibliothekswissenschaft an der Humboldt-Universität zu Berlin hoffen mit dieser Veröffentlichung neue Denkanstöße zu geben und die Debatte zu vertiefen.
    Footnote
    Rez. in: BuB 55(2003) H.4, S.259-260 (B. Rohde): "»Nikolausbeschluss« - ein recht untypischer Fachausdruck im Bibliothekswesen. Dennoch gibt es sicherlich nur wenige Personen in den wissenschaftlichen Bibliotheken Deutschlands, die mit diesem Begriff nichts anzufangen wissen. »Der Standardisierungsausschuss strebt grundsätzlich einen Umstieg von den deutschen auf internationale Regelwerke und Formate (AACR und MARC) an«, entschied das dem Hause Der Deutschen Bibliothek angegliederte nationale Gremium für Regelwerksfragen am 6. Dezember 2001. Der geplante Umstieg vom derzeitigen nationalen Datenformat MAB und Regelwerk RAK auf das aus dem angloamerikanischen Raum stammende MARC-Datenformat (Machine Readable Cataloging) sowie das Katalogregelwerk AACR (Anglo-American Cataloging Rules), derzeit in der 1988 revidierten zweiten Ausgabe vorliegend, wurde letztes Jahr wie kein anderesThema auf breiter Basis diskutiert. Eine Gruppe Studierender am Institut für Bibliothekswissenschaft der Humboldt-Universität Berlin hat nun diese Diskussion aufgegriffen. In ihrem Publikationsprojekt unter der Leitung der Herausgeberin Petra Hauke ist es ihnen gelungen, Vertreter der unterschiedlichsten Meinungen zum Thema » RAK versus AACR« als Autoren für Einzelbeiträge in diesem Sammelband zu gewinnen. - Sachliche Diskussion - Wer die Diskussion verfolgt hat, weiß einen Teil der Autoren einer entsprechenden Meinungsfraktion ohne weiteres zuzuordnen. Die Diskussion ist auch mit Beteiligung einiger der Autoren in den fachspezifischen Mailinglisten tagesaktuell teilweise sehr heftig geführt worden. Mitunter sind die Beiträge auch durch Veröffentlichung an anderer Stelle oder durch Vorträge bereit bekannt gewesen und haben für diesen Band eine Oberarbeitung erfahren. Wenn auch der Begriff »versus« aus dem Titel den recht deutlichen emotionalen Frontverlauf zwischen Gegnern und Befürwortern des geplanten Umstiegs einfängt, so finden sich doch die Vertreter der verschiedensten Meinungsrichtungen auf einer sachlichen Ebene in diesem Buch wieder. Insofern kann es zum Verständnis der jeweiligen Gegenseite beitragen, ebenso wie zur Meinungsbildung bei Personen, die sich mit diesem Thema noch nicht intensiv beschäftigt haben. Quasi als »Repräsentantinnen« Der Deutschen Bibliothek und damit des Standardisierungsausschusses als beschlussfassendes Gremium zeigen Renate Gömpel und Gudrun Henze im einführenden Beitrag in erster Linie auf entwicklungsgeschichtlicher Ebene die Unterschiede und Gemeinsamkeiten beider Regelwerke auf. Die Vorgeschichte des Umstiegsbeschlusses wird ebenfalls nachgezeichnet sowie ein Ausblick auf die weitere Planung gegeben. Auch führt das Autorinnenduo Gründe auf, die aus Sicht Der Deutschen Bibliothek für einen Umstieg sprechen. Tatsächlich hat Die Deutsche Bibliothek als größter nationaler Datenlieferant sicherlich auch das größte Interesse an einem Umstieg aus wirtschaftlichen Gründen. Zur bisherigen Umstiegsdiskussion hat Bernhard Eversberg durch seine Online-Umfrage der breiten Bibliotheksbasis Gehör verschafft. In seiner »Theorie der Bibliothekskataloge und Suchmaschinen« erarbeitet er die gemeinsamen und unterschiedlichen Grundlagen dieser beiden Suchwerkzeuge. Er weist hierbei auch auf die Bedeutung des Datenformates hin, das getrennt von den Regelwerken zu betrachten sei. Besondere Aufmerksamkeit verdient auch der Beitrag von Luise Hoffmann; das Projekt der Machbarkeitsstudie zum Umstieg von Seiten Der Deutschen Bibliothek liegt in ihren Händen. In ihrem Beitrag hat sie die verantwortungsvolle Aufgabe übernommen, die beiden Regelwerke aufgrund ihrer inneren Struktur zu vergleichen. Gemeinsamkeiten und Unterschiede im Aufbau, bei den Bestimmungen für Haupt- und Nebeneinträge sowie den Ansetzungsregeln von Personen und Körperschaften kommen hier nicht zu kurz. Ihr Versuch, »Vorurteile abzubauen und die Gemeinsamkeiten der Regelwerke hervorzuheben«, trägt sehr dazu bei, dem strikten »versus« die Spitze zu nehmen.
    - Praktische Erfahrungen - Die vorhandenen Möglichkeiten, auf diesen Gemeinsamkeiten aufzubauen ohne die nationale Regelwerkstradition zu unterbrechen, werden von Monika Münnich dargestellt. Sie nimmt besonders zum letzten Stand der ausgesetzten RAK-Generalrevision unter dem Arbeitstitel »RAK2« Stellung. Dadurch weist sie Wege auf, wie durchaus noch ein nationales Regelwerk mit guter Abstimmung auf die durch die AACR2 gesetzten internationalen Gegebenheiten entstehen könnte, wenn denn eine Weiterarbeit erfolgen würde. Der Beitrag zeigt zudem, dass tatsächlich das »versus« durch ein »und« ersetzt werden kann. Die Autorin verweist auch auf die international existierenden Reformbestrebungen (Ifla). Diese gelten den derzeit unterschiedlichen Ansetzungsregeln, die zu voneinander abweichenden Normdaten führen. Günther Hupfer ergänzt diese Ausführungen, indem er die unterschiedlichen Ansetzungsregeln und die hieraus resultierenden unterschiedlichen Normdaten im Detail untersucht. Die Katalogisierungspraxis steht im Beitrag von Michael W. Mönnich im Vordergrund. Am Beispiel der Universitätsbibliothek der Technischen Universität Karlsruhe erhält man einen Einblick in den derzeitigen Arbeitsaufwand und die Kosten, die bei der Anfertigung eines Katalogisats beziehungsweise bei der Ubernahme und Anpassung von Fremddaten anfallen - ein Plädoyer für ein schlankes und einfaches Regelwerk für alle in Bibliotheken vorhandenen Medienarten. Elena Balzardi aus der Schweizerischen Landesbibliothek berichtet über die Erfahrungen aus ihrem Hause mit MARC und AACR2. Die Schweiz ist zwar mehrsprachig, jedoch sind durch den größe ren deutschsprachigen Bevölkerungsanteil die Bibliotheken in diesem Raum eng mit dem deutschen Bibliothekswesen verbunden. Damit liegen immerhin schon seit mehreren Jahren unterschiedliche Erfahrungen mit auf deutschsprachige Bibliotheken angepasste Anwendungen dieses angloamerikanischen Datenformats und Regelwerks vor. Daneben befinden sich MARC und AACR2 bei den Bibliotheken des Deutschen Archäologischen Instituts (DIA), die einen eigenständigen kleinen Verbund gebildet haben, auf der Ebene von Spezialbibliotheken im Einsatz. Über die Gründe der Wahl und die bisherigen Erfahrungen der DIA-Bibliotheken berichtet SabineThänert. Szenarien für den Umstieg Ursula Hoffmann aus der Württembergischen Landesbibliothek Stuttgart beschäftigt sich mit den möglichen Auswirkungen eines Umstiegs auf die einzelnen Bibliotheken. Sie hat dabei besonders die diversen Normdateien (GKD, PND, SWD) im Auge, bei denen der Arbeitsaufwand zur Umarbeitung das Gros der Arbeit ausmachen würde. Besonders die gravierenden Veränderungen für die Zeitschriftendatenbank (ZDB) werden herausgestellt. Diese Ausführungen werden von einem Autorenteam, Fachleute in der Arbeit mit GKD und ZDB, weiter vertieft. Die Folgen eines Umstiegs für bibliographische Datenbanken, hier am Beispiel der Landes bibliographie von Baden-Württemberg, stellt Heidrun Wiesenmüller dar.
    Thomas Berger betrachtet die Entwicklung von Regelwerken und Datenformaten aus der Sicht von Spezialbibliotheken, während Karin Aleksander zum Nebenaspekt der Umstiegsfolgen für die Frauen- und Geschlechterforschung Stellung nimmt und damit den Bogen zur verbalen Sacherschließung zieht. Walther Umstätter befasst sich mit dem Einfluss von XML auf beide Regelwerke und spricht damit die große Bedeutung von webfreundlichen Lösungen für die Zukunft an. Mit bibliothekspolitischen Thesen beschäftigen sich Heidrun Wiesenmüller, Günther Franzmeier und Annette Rath-Beckmann in ihren jeweiligen Beiträgen. Jürgen Kaestner nimmt Stellung zum Umstieg aus der Sicht eines Mitarbeiters in einer Behördenbibliothek. Im letzten Beitrag kommen von Klaus-Peter Böttger Anmerkungen aus dem Bereich der Öffentlichen Bibliotheken zum Zuge. Dieser große Bereich des deutschen Bibliothekswesens ist in der bisherigen Diskussion um Regelwerke und Formate unterrepräsentiert. Abschließend findet sich im Anhang eine Sammlung offizieller Stellungnahmen zum Regelwerksumstieg. Kurzum bietet dieses Buch eine Vielzahl von Beiträgen zu den unterschiedlichsten Aspekten des geplanten Umstiegs, zeigt die Heterogenität des deutschen Bibliothekswesens und die Fachkompetenz, Diskussionsfreudigkeit und auch Aufgewecktheit der deutschen Bibliothekarinnen und Bibliothekare in dieser Angelegenheit."
    Imprint
    Bad Honnef : Bock und Herchen
  2. Internet: The editor's choice (2002) 0.09
    0.085188895 = product of:
      0.34075558 = sum of:
        0.34075558 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.34075558 = score(doc=1854,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  3. Hawk, J.: OCLC SiteSearch (1998) 0.08
    0.0843327 = product of:
      0.3373308 = sum of:
        0.3373308 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
          0.3373308 = score(doc=3079,freq=4.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.7708211 = fieldWeight in 3079, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3079)
      0.25 = coord(1/4)
    
    Abstract
    Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
  4. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.08
    0.0843327 = product of:
      0.3373308 = sum of:
        0.3373308 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
          0.3373308 = score(doc=2673,freq=4.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.7708211 = fieldWeight in 2673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2673)
      0.25 = coord(1/4)
    
    Abstract
    The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
  5. Roth, G.: Ach, wäre das mit dem Geist doch so einfach wie mit dem Rest : Jede Menge ungelöster Probleme: John Searle betreibt die große Theorie der Bewußtseinsphilosophie und baut Brücken vom Sessel aus (2001) 0.08
    0.08203214 = product of:
      0.16406427 = sum of:
        0.047727693 = weight(_text_:und in 1008) [ClassicSimilarity], result of:
          0.047727693 = score(doc=1008,freq=64.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.34654674 = fieldWeight in 1008, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1008)
        0.116336584 = weight(_text_:heftig in 1008) [ClassicSimilarity], result of:
          0.116336584 = score(doc=1008,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.22748211 = fieldWeight in 1008, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1008)
      0.5 = coord(2/4)
    
    Content
    "John Searle, Jahrgang 1932 und Professor an der University of California, Berkeley, gehört zu den bekanntesten zeitgenössischen Philosophen. Es ist das traditionelle Recht solcher Personen, an der Schwelle zum höheren Alter Welterklärungen zu entwerfen. Entsprechend will Searle in dem vorliegenden, knapp zweihundert Seiten umfassenden Büchlein ergründen, "wie gewisse wesentliche Teile des Geistes, der Sprache und der gesellschaftlichen Wirklichkeit funktionieren und ein kohärentes Ganzes bilden". Um dies leisten zu können, muß Searle selbstverständlich gegen jede Art von Skeptizismus, Relativismus und Konstruktivismus, wie sie derzeit hoch gehandelt werden, die folgende Grundanschauung vertreten: "Wir leben in einer Welt, und diese Welt ist - innerhalb der Beschränkungen unserer evolutionären Ausstattung - verständlich." Entsprechend glaubt er an eine allgemeingültige Rationalität und an eine bewußtseinsunabhängige Welt, die objektiv erkennbar ist. Alle Einwände seitens der Wahrnehmungspsychologie und Neurobiologie gegen einen strikten Erkenntnisrealismus läßt der Philosoph nicht gelten. Wir werden hören, aus welchem tieferen Grund er dies tut. Zwei Drittel seines Buches widmet Searle dem Problem des Geistes und des Bewußtseins. Dies muß überraschen, denn angesichts der Flut von philosophischen Büchern in den letzten Jahren zu diesem Thema - insbesondere zur Beziehung zwischen Geist beziehungsweise Bewußtsein und Gehirn - kann man kaum glauben, daß hier noch etwas grundsätzlich Neues gesagt werden könnte.
    Das ist bei Searle auch nicht der Fall. Er geht - wie inzwischen viele Philosophen - davon aus, daß Bewußtsein ein biologisches Phänomen ist, von Hirnprozessen verursacht (wie dies geschieht - darüber wird nichts gesagt),' aber doch gleichzeitig ein ganz besonderes biologisches Phänomen, das nicht auf die ihm zugrunde liegenden physikalisch-physiologischen Prozesse reduziert werden kann. Diese keineswegs neuartige Anschauung würde man eigentlich "Emergenz-Philosophie" nennen, sie wird aber von Searle nicht so bezeichnet. Grund für das Besondere am Bewußtsein ist nach Searle die (nicht neurobiologisch reduzierbare) "Erste-Person-Perspektive", seine Subjektivität - im Gegensatz zur "Dritte-Person-Perspektive" und zur Objektivität der Hirnvorgänge. Hieraus erwächst die wichtigste Eigenschaft des Bewußtseins, nämlich seine Intentionalität: Geist und Bewußtseinszustände repräsentieren Dinge und Sachverhalte in der Welt; sie sind als Aussagen, Aufforderungen, Absichten, Wünsche und so weiter mit "Erfüllungsbedingungen" (wie Searle es nennt) verbunden. Diese Intentionalität des Geistes wird zur Grundlage von Gesellschaft und Sprache. Damit ist klar, warum ein solcher Standpunkt einen ontologischen und erkenntnistheoretischeu Realismus voraussetzt. Im folgenden handelt Searle relativ ausführlich die Eigenschaften des Bewußtseins und seiner Intentionalität ab. Dies geschieht, in traditioneller philosophischer Art, meist weitab von der aktuellen Erforschung von Bewußtseinszuständen und, ihren neuronalen Grundlagen. Merkwürdig wird es, wenn Searle ausführt, es gebe neben der für physiologische Gehirnzustände charakteristischen kausalen Verursachung auch eine intentionale Verursachung durch Wünsche, Absichten und Willensakte, die direkt auf unser Verhalten einwirken.
    Da dies nun sehr nach einem - von Searle verabscheuten - Geist-Gehirn-Dualismus aussieht, beeilt sich der Autor festzustellen, hier liege ein "ungelöstes Problem" vor, das insbesondere beim Phänomen der "Willensfreiheit" manifest werde. Eine solche Feststellung bringt uns allerdings beim GeistGehirn-Problem im Vergleich mit den von Searle heftig kritisierten Philosophen-Kollegen keinen Schritt weiter. Erforderlich wäre es, sich als Philosoph mit kritischem Blick auf die Ergebnisse der empirischen Bewußtseinsforschung einzulassen, zum Beispiel in Hinblick auf das in diesem Zusammenhang außerordentlich wichtige Verhältnis von Bewußtseinszuständen zu den vielfältigen Zuständen des Unbewußten. Die Freudsche Theorie des Unbewußten wird von Searle in einem Satz als irrelevant abgetan, die experimentelle Forschung der letzten Jahre zu diesem Thema nicht erwähnt. Die Brücke zur Gesellschaft und zur Sprache schlägt Searle mit dem Gedanken, aus der grundlegenden Intentionalität von Bewußtseinszuständen erwachse das, was er "kollektive Intentionalität" nennt, nämlich der Umstand, daß Menschen wechselseitige Überzeugungen haben. Diese kollektive Intentionalität mündet in "Funktionszuweisungen" an Gegenstände und Sachverhalte der Welt, die dadurch "Statusfunktionen" erhalten. Searle diskutiert dies anhand des Phänomens "Geld": Geld ist ein Symbol für komplexe gesellschaftliche Operationen. Gesellschaft ist die wiederholte kollektive Zuweisung von Statusfunktionen; dadurch wird sie zu einer objektiven, realen, bewußtseinsunabhängigen Institution, auch wenn sie aus der grundlegenden Intentionalität des subjektiven Bewußtseins erwächst (man fühlt sich hierbei stark an Luhmann erinnert). Bei der Erklärung von Sprache geht Searle von der von J. L. Austin entwickelten Theorie der Sprechakte, genauer der "illokutionären Akte", aus.
    Diese Sprechakte wie Befehlen, Behaupten, Warnen, Versprechen sind die kleinsten sprachlichen Verständigungseinheiten und unterscheiden sich durch ihre Wirkungen auf die Kommunikationspartner. Die Bedeutung von Wörtern und Sätzen ist zwar durch Konventionen der Sprachgemeinschaft festgelegt, letztlich resultiert sie aber für Searle aus er Intentionalität von" Denken und Bewußtsein. Das Sprechen als Geräuschproduktion schafft die Bedingungen, unter denen die Intentionalität geistiger Akte erfüllt werden kann (es ist - in einer etwas eigenartigen Formulierung - ,;die Erfüllungsbedingung für die Erfüllungsbedingungen" - nämlich intentionaler Zustände). Verstehen heißt deshalb für Searle, die Absichten anderer zu erkennen. Man mag daran zweifeln, daß die hier entwickelte Theorie der Gesellschaft und der Sprache irgend etwas Neues oder zumindest Erhellendes bringt. Sie wird auf nicht einmal sechzig Seiten in großer Ferne von der schier unfaßbaren Fülle vorhandener Theorien über Gesellschaft, Ökonomie und Sprache entwickelt (auch wenn der Autor berichtet, er habe hierzu viele Bücher gelesen). Was in den Kognitionsund Neurowissenschaften zu Sprache, Kommunikation und Verstehen erforscht wurde, ist kaum vereinbar mit den von Searle vertretenen Ansichten. Diese sind zutiefst geprägt von dem Grundgedanken, alles, was wir denken und tun, sei eine Anpassung an reale, objektive Verhältnisse. Die Einsicht, daß jedes Individuum in seiner je eigenen Erlebnis- und Rechtfertigungswelt lebt und daß Verstehen deshalb als eine besonders schwierige soziale Leistung angesehen werden muß, bleibt unberücksichtigt. Am Ende des verständlich und flüssig geschriebenen,(und auch übersetzten) Buches trifft Searle eine bemerkenswerte Feststellung: Es sei ein wichtiges Bestreben der Philosophen, Fragen so zu verbessern, daß aus ihnen Gegenstände der Wissenschaften werden können. Es wäre gut gewesen, wenn Searle sich diese eigene Einsicht zu Herzen genommen hätte."
  6. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.079220206 = product of:
      0.15844041 = sum of:
        0.11926444 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.11926444 = score(doc=6206,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.039175976 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.039175976 = score(doc=6206,freq=22.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  7. Hermes, H.-J.: AG Dezimalklassifikation (AG DK) 12. März (2003) 0.08
    0.07750022 = product of:
      0.15500043 = sum of:
        0.03866385 = weight(_text_:und in 2695) [ClassicSimilarity], result of:
          0.03866385 = score(doc=2695,freq=42.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.28073493 = fieldWeight in 2695, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2695)
        0.116336584 = weight(_text_:heftig in 2695) [ClassicSimilarity], result of:
          0.116336584 = score(doc=2695,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.22748211 = fieldWeight in 2695, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2695)
      0.5 = coord(2/4)
    
    Content
    "Während im Rahmen der beiden bibliothekarischen Veranstaltungstage am 11. und 12.3.2003 eine Reihe von wichtigen Vorträgen zur Bedeutung und Entwicklung, aber auch zu Kosten bibliothekarischer Sacherschließung gehalten wurden, fand die jährliche Besprechung der AG Dezimalklassifikationen am 12.3. vormittags, also zu Beginn der 27. Jahrestagung der Gesellschaft an der Brandenburgischen Technischen Universität Cottbus statt. Zunächst war erster Redner dieser Besprechung der AG außerordentlicherweise der Vorsitzende der GfKl, Herr Prof. Dr. Opitz. Dieser äußerte dabei den Wunsch der Gesellschaft, die bibliothekarische Arbeit und dementsprechend die Arbeitsgemeinschaft Dezimalklassifikationen auf Dauer in der GfKI integriert zu wissen. Dabei würde er auch eine intensivere Verflechtung mit der Jahrestagung, auch mit ihren gesellschaftlichen Ereignissen begrüßen, um so auch persönliche Kontakte zu fördern bzw. zu ermöglichen. Ebenso wies Prof. Opitz darauf hin, daß jeder AG jährlich auch ein Finanzbeitrag der Gesellschaft zur Organisation von Vorträgen u.ä. zur Verfügung steht. Bei der Besprechung der AG selbst aktualisierten zunächst Herr Dr. Holger Flachmann (ULB Münster) und Herr Dr. Jiri Pika (ETH Zürich) ihre Berichte der Vorjahrestagung (vgl. GfKI Nr. 52 vom November 2002, S. 12). Danach gab Herr Dr. Bernd Lorenz (Bay. BeamtenFachhochschule München) einen kurzen Überblick über wichtige deutsche Literatur zum Projekt DDC Deutsch. Während der Workshop von DDB am 17.1.2001 in Frankfurt/M. die Entwicklung von DDC und UDK sowie die Bedeutung einer Konkordanzarbeit unterstrich (vgl. Dialog mit Bibliotheken 13. 2001, S. 29-31), verweist Magda Heiner-Freiling in ihrem Beitrag "Dewey in der Deutschen Nationalbibliographie" (Bibliotheksdienst 36. 2002, S. 709-715) auch auf die Unterschiede zwischen der derzeitigen Gliederung der DNBSachgruppen und der künftigen Entwicklung gemäß DDC (S. 711 f.). Sie erinnert zu Recht daran, dass "für Aufstellungszwekke von einer Weiterverwendung der bisherigen Klassifikationen im deutschsprachigen Raum auszugehen (ist), im Fall der RVK sogar von einer weiteren Verbreitung" (S. 714). Von einem "Anschluß der deutschen Bibliotheken an die amerikanische DDC" (ZfBB 50, 2003 S. 27) kann somit nicht gesprochen werden. Von grundsätzlicher Bedeutung bleibt weiterhin die Arbeit von Magda Heiner-Freiling "DDC Deutsch 22 formale, terminologische und inhaltliche Aspekte einer deutschen DDCAusgabe" (ZfBB 48. 2001, S. 333-339). Hier seien zehn Aspekte zur DDC-Arbeit herausgegriffen, denen bleibende Bedeutung zu kommt. - Es ist noch keine angemessene Berücksichtigung europäischer Belange erreicht (S. 333) - Die bekannten Terminologieprobleme (S. 336 ff.) sind auch für Bereiche von Pflanzen und Tieren anzuzeigen (S. 339). - Inhaltliche Probleme bestehen, die aber nicht relevant werden, die die meisten Bibliotheken nicht an eine Aufstellung gemäß DDC denken (S. 337). - Dementsprechend ist auch der Umfang einer DDC-Nutzung in den Bibliotheken unklar (S. 334). - Davon hängt die perspektivische Frage nach einem Bedarf an späteren Buchausgaben ab (S. 335). - Große Bedeutung kommt auch der geplanten DDCDatenbank zu (S. 335). Hierzu gibt es inzwischen Vorarbeiten. - Wichtig für die Anwendung wird die unverzichtbare Verzahnung von DDC und SWD (S. 336). - Bedeutend ist auch die Möglichkeit einer Trunkierbarkeit der Notationen (S. 336). - Ebenso ist die Erstellung von Arbeitsanweisungen vorrangig (S.337). - Denkbar große Bedeutung hat die Feststellung und Vorhersage, dass die DDC Deutsch keine "reine" Übersetzung der DDC darstellen wird, sondern zugleich Auslegung, Bearbeitung usw. (S. 335).
    Die Vielfältigkeit dieses Themas war dann Gegenstand des wesentlichen Vortrags von Michael Preuss (FH Köln) "Die DDC übersetzen: ein Werkstattbericht". Es folgte eine umfangreiche Diskussion. Dieses Referat wird veröffentlicht werden und ist daher an dieser Stelle nicht ausführlich dargestellt. Gewiß wird die Thematik in späteren Besprechungen eine wichtige Rolle spielen. Neben der Publikationstätigkeit leistet DDB neben dem Expertenpool und DDC Deutsch seit Januar 2003 durch das (Internet) Informationsforum DDC Deutsch einen wichtigen Beitrag zur Information der Berufsöffentlichkeit. Die mehrfach von DDB vorgebrachte Äußerung "Wünschenswert ist in jedem Fall eine Meinungsbildung und Entscheidungsfindung auf breiter Basis" (hier M. HeinerFreiling: Bibliotheksdienst 36. 2002, S. 715) wurde nicht unerwartet, dafür aber geradezu heftig in einer Inetbib-Diskussion erfüllt, die Ende Januar 2003 etwa zwei Dutzend Äußerungen erbrachte. Neben allgemeinen Fragen wie einheitliche (Fein-) Klassifikation und dem wiederholten Hinweis auf inhaltliche Probleme der DDC wurden hier vorrangig Fragen von Sinn und Nutzen einer DDC-Anwendung angesprochen, aber auch die häufig in ihrer Bedeutung unterschätzten bzw. auch heruntergespielten Probleme von Urheberrecht, Lizenz und Folgekosten, Probleme, denen bisher im deutschen Klassifikationsbereich kaum Relevanz zukam. Weiter ist natürlich bei DDB nachzufragen, inwieweit DDB ihre Aufgabe zur national-bibliographischen Arbeit erfüllen wird, denn Erläuterungen wie "Es werden nicht alle Titel der DNB mit DDC erschlossen, nur international wichtige Literatur" (Chr. Baumann in BuB 54, 2002 S. 75 f.) führen u.a. auch zu der Fragestellung nach Sinn und Begründung einer DDC-Einführung bei der DNB, nach der Relation von Kosten und Ergebnis. Als Diskussionsbasis für die weitere Arbeit der AG listete dann der Vorsitzende B. Lorenz folgende Überlegungen auf: 1. Grundlegend für die Arbeit ist die Feststellung von (auch bisher unbekannten) Nutzern der Dezimalklassifikationen im deutschen Sprachbereich 2. Dementsprechend stellt sich die Frage nach (klassifikationsbezogenen) Kontakten dieser Nutzer untereinander 3. Wie sind Kontakte mit internationalen Gremien (UDCC) im Ablauf bzw. nach Belang einzuordnen? DACH? 4. Gibt es eine Nutzung von klassifikatorischen Fremddaten im Anwenderkreis (direkt bzw. über Verbünde) (mit Statistik dafür)? 5. Wird die DK-Arbeit insbesondere der ETH Zürich genutzt? 6. Besteht (auch inoffizielle) Arbeit am Klassifikationstext durch Anwender? Auch durch bewusste Nichtverwendung offizieller Notationen bzw. vom Text abweichende Anwendungen? Werden Verweisungen berücksichtigt? Welche Bedeutung hat der MRF? 7. In letzter Konsequenz: Verwenden die Anwender die DK? Mit Adaptionen? Oder liegen Lokalsysteme auf dem Hintergrund der DK vor? B. Gibt es Beobachtungen/Notizen zu den Unterschieden zwischen DDC und DK? 9. Besteht Interesse/Möglichkeit an derartiger Arbeit (mögliche Perspektive: Dezimal-Spezialisten auch für DDB)? 10. Wichtig wäre auch Konkordanzarbeit betreffs DDC, DK, RVK, BK (zunächst für Einzelfächer zur methodischen Erprobung) Grundsätzlich zu überprüfen sind die Möglichkeiten dieser Arbeiten in Bezug auf (auch finanzielles) Engagement von Bibliotheken und Mitarbeitern, ebenso Ausbildungs-Stätten und weiteren Interessierten."
  8. Koch, O.: Pyrrhus lässt grüßen (2005) 0.08
    0.07703432 = product of:
      0.15406863 = sum of:
        0.037732054 = weight(_text_:und in 4218) [ClassicSimilarity], result of:
          0.037732054 = score(doc=4218,freq=40.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.27396923 = fieldWeight in 4218, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4218)
        0.116336584 = weight(_text_:heftig in 4218) [ClassicSimilarity], result of:
          0.116336584 = score(doc=4218,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.22748211 = fieldWeight in 4218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4218)
      0.5 = coord(2/4)
    
    Content
    "»Das ist der Teufel!«, polterte vor nicht allzu langer Zeit Harold Varmus, Mitbegründer der Public Library of Science (PLoS), als in einem Interview der Name von Derk Haank fiel. Der war damals Chef der Wissenschaftssparte Elsevier innerhalb der britisch-niederländischen Fachverlagsgruppe Reed Elsevier, die mit rund 1700 Magazinen Marktführer im Fachzeitschriftengeschäft ist. Der verbale Ausfall des Medizin-Nobelpreisträgers ist nur ein Indikator dafür, wie heftig der Konflikt in diesem Bereich inzwischen tobt - PLoS und Elsevier sind dabei bloß Stellvertreter zweier Gruppierungen, die sich unversöhnlich gegenüberstehen. Die Fachverlage, angeführt von einigen Großen wie Elsevier, Thomson oder Springer Science+Business Media, wollen am klassischen »Leser-zahlt«-Modell wissenschaftlicher Informationsverbreitung festhalten. Auf der anderen Seite stehen Non-Profit-Initiativen mit ihrem Gegenentwurf des Open-Access-Modells, allen voran PLoS, DOAJ oder Biomed Central. Sie gewähren freien Zugang zu ihren im Internet publizierten Journalen - inzwischen sind es einige tausend. Zahlen müssen in diesem Modell die Wissenschaftler, die ihre Arbeiten veröffentlichen wollen. Die Idee des Open Access ist an sich nichts Neues, stellte doch schon Anfang der 1990er Jahre der amerikanische Physiker Paul Ginsparg mit dem Internetserver Arxiv.org eine Plattform für frei zugängliche Vorabveröffentlichungen bereit. Der jetzt einsetzende Boom von OpenAccess-Journalen hat seine Ursache in der so genannten »Krise der wissenschaftlichen Informationsversorgung« - der seit Jahren wachsenden Kluft zwischen Bibliotheken-Budgets und den Preisen wissenschaftlicher Zeitschriften. Diese sind dem »Library Journal« zufolge innerhalb der letzten 15 Jahre um durchschnittlich 215 Prozent gestiegen. Einzelne Journale kosten die Büchereien inzwischen mehrere tausend Euro im Jahr. Das Geld fließt in die Kassen der hoch profitablen Verlage: So wies etwa Elsevier im Geschäftsbericht 2003 eine Umsatzrendite von 33,8 Prozent aus.
    Problematisch ist dabei, dass die wissenschaftlichen Arbeiten, die in den Fachmagazinen veröffentlicht werden, meist im Rahmen staatlich geförderter Forschungsprojekte entstanden sind. Zugespitzt ausgedrückt: Die Fachverlage profitieren von Forschungsergebnissen, für die sie selbst keinen Cent bezahlt haben, und verkaufen sie anschließend für viel Geld wieder an die Universitäten und Forschungseinrichtungen zurück - zu Lasten des Steuerzahlers. Die Bibliotheken reagieren angesichts dieser Situation mit dem Rotstift und bestellen reihenweise Zeitschriften ab - die Leid Tragenden sind Studenten und Wissenschaftler. Die hohen Kosten, die auch beim Online-Bezug der Journale anfallen, rechtfertigen die Verleger mit dem Aufwand für das Layout und dem so genannten Peer-Review-Verfahren. Hier wacht ein Gremium von Wissenschaftlern, das Editorial Board, darüber, dass nur solche Artikel Eingang in das Magazin finden, die hohen wissenschaftlichen Ansprüchen genügen. Die Argumente wirken jedoch vorgeschoben: Meist sind die Board-Mitglieder Wissenschaftler, die ihre Funktion ehrenamtlich ausüben. Und die hohen Anforderungen, die von den klassischen Journalen hinsichtlich Artikel und Grafiken an die Autoren gestellt werden, lassen den großen Layout-Aufwand der Verlage zumindest fraglich erscheinen. Es sei ungerecht, den Autor zur Kasse zu bitten, die Kosten also vom Konsumenten auf den Produzenten zu verlagern, lautet ein weiteres Standardargument gegen Open Access. In der Regel trägt aber nicht der Wissenschaftler selbst diese Kosten, sondern die Institution, für die er forscht. Diese spart im Gegenzug die Abonnements der herkömmlichen Zeitschriften ein. Das klingt nach rechter Tasche, linker Tasche. Doch nach einer Studie der Bank BNP Paribas soll es die Universitäten unterm Strich tatsächlich billiger kommen. Funktionieren wird es allerdings nur, wenn sich Open Access schnell durchsetzt und viele Journale auf das neue Geschäftsmodell umstellen. Sonst zahlen die Bibliotheken doppelt - und damit drauf. Auch in den traditionellen Fachzeitschriften können die Autoren im Übrigen keineswegs immer kostenfrei publizieren. Für »Extras« wie Fotos oder Grafiken werden oft hohe Zuzahlungen fällig. Zum Beispiel verlangt das renommierte Fachblatt »Cell« 1000 US-Dollar für die erste Abbildung und 250 Dollar für jede weitere - bei PLoS dagegen sind es einmalig 1500 Dollar pro Artikel.
    Wie steht es mit der Qualitätssicherung in Open-Access-Journalen? Dem »Autor-zahlt«-Modell von vornherein Gefälligkeitsveröffentlichungen zu unterstellen, wäre unfair. Dennoch besteht diese Gefahr, wenn diejenigen, die Artikel in einer Zeitschrift veröffentlichen wollen, gleichzeitig die Geldgeber sind. Dagegen spricht jedoch, dass sich Open-Access-Magazine ebenfalls unabhängiger Experten für das Peer Review bedienen. Außerdem streben auch sie nach einem möglichst hohen Renommee, das sich danach bemisst, wie oft und wo ein Journal zitiert wird - und das erreicht man nicht durch minderwertige Beiträge. Vor denen sind übrigens auch klassische Fachzeitschriften nicht gefeit - so muss immer wieder einmal ein zweifelhafter Artikel zurückgezogen werden. Dagegen bewies »PLoS Biology« schon in seiner ersten Ausgabe, dass sich auch in einem Open-Access-Magazin Hochkarätiges findet: Der Artikel einer Forschergruppe um Miguel Nicolelis über ein Gehirn-Maschine-Interface wurde am ersten Tag so oft abgerufen, dass die Server in die Knie gingen. Bleibt abzuwarten, wann die Verlagsriesen auf den Open-Access-Boom von PLoS & Co. reagieren werden. Zwar stellten sich die Chefs von Reed-Elsevier, Morris Tabaksblat und Chrispin Davis, im Geschäftsbericht 2003 noch demonstrativ hinter das klassische Geschäftsmodell. Sie kündigten aber auch an, das »Autor-zahlt«-Modell zu beobachten und zu investieren, »wo Neuerungen nachweisbaren und nachhaltigen Erfolg« für die Wissenschaft brächten. Übernehmen die Großverlage tatsächlich das Open-Access-Geschäftsmodell, hätte Varmus sein Ziel erreicht. Doch Zweifel bleiben. Im Unterschied zu Non-Profit-Organisationen wie PLoS wollen die Großverlage Gewinn machen und haben zudem in den letzten Jahren Millionen in Onlineplattformen und in die Digitalisierung ihrer riesigen Archive investiert. Diese Summen gilt es wieder hereinzuholen - notfalls durch überhöhte Abdruckgebühren für die Autoren. Das wäre dann ein Pyrrhussieg, und Varmus hätte abermals Grund, verbal den Teufel zu bemühen."
  9. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.07692603 = product of:
      0.15385206 = sum of:
        0.10222667 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.10222667 = score(doc=1729,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.05162539 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.05162539 = score(doc=1729,freq=52.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  10. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.07642476 = product of:
      0.15284953 = sum of:
        0.10222667 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.10222667 = score(doc=195,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.05062286 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.05062286 = score(doc=195,freq=50.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  11. Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998) 0.07
    0.07228517 = product of:
      0.28914067 = sum of:
        0.28914067 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
          0.28914067 = score(doc=4593,freq=4.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.6607038 = fieldWeight in 4593, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=4593)
      0.25 = coord(1/4)
    
    Abstract
    Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
  12. Pace, A.K.: ¬The ultimate digital library : where the new information players meet (2003) 0.07
    0.06840621 = product of:
      0.13681242 = sum of:
        0.043743152 = weight(_text_:und in 4198) [ClassicSimilarity], result of:
          0.043743152 = score(doc=4198,freq=84.0), product of:
            0.13772368 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06209646 = queryNorm
            0.31761533 = fieldWeight in 4198, product of:
              9.165152 = tf(freq=84.0), with freq of:
                84.0 = termFreq=84.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=4198)
        0.09306927 = weight(_text_:heftig in 4198) [ClassicSimilarity], result of:
          0.09306927 = score(doc=4198,freq=2.0), product of:
            0.5114098 = queryWeight, product of:
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.06209646 = queryNorm
            0.18198569 = fieldWeight in 4198, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.235732 = idf(docFreq=31, maxDocs=44421)
              0.015625 = fieldNorm(doc=4198)
      0.5 = coord(2/4)
    
    Footnote
    Rez.: ZfBB 52(2005) H.1, S.52-53 (N. Lossau: "Service-Gedanke Digitale Bibliotheken gehören heute bereits zum selbstverständlichen Vokabular von Bibliothekaren und es gibt wohl kaum einen Internetauftritt von Bibliotheken, der nicht eine Digitale Bibliothek beinhaltet. Fast ebenso vielfältig wie die Vorkommen sind auch die Ausprägungen und Definitionen von Digitalen Bibliotheken, weshalb man mit einer Mischung aus Interesse und Skepsis das vorliegende Buch in die Hand nimmt. »The ultimate digital library«, ein ambitionierter Titel, vom Autor und der American Library Association, in deren Reihe die Publikation erschienen ist, wohl nicht zuletzt aus Marketinggründen wohlbedacht gewählt, suggeriert dem Leser, dass hier die vollendete, perfekte Form einer Digitalen Bibliothek beschrieben wird, die sich seit den goer Jahren mit rasantem Tempo entwickelt hat. Es dauert eine ganze Weile, bis der Leser auf die Definition von Pace stößt, die sich als roter Faden durch sein Werk zieht: »The digital library - a comprehensive definition will not be attempted here - encompasses not only collections in digital form, but digital services that continue to define the library as a place.« (S.73) Pace konzentriert sich auf den ServiceAspekt von Digitalen Bibliotheken und zielt damit auf eine Entwicklung ab, die in der Tat als zukunftsweisend für Bibliotheken und Digitale Bibliotheken zu gelten hat. Zu lange haben Bibliotheken sich schwerpunktmäßig auf die digitalen Sammlungen und ihre Produktion (durch Digitalisierung) oder Kauf und Lizenzierung konzentriert, wie Pace zu Recht an der gleichen Stelle beklagt. Die Zukunft mussfür Bibliotheken in der Entwicklung und Bereitstellung von digitalen Services liegen, die den Endnutzern einen echten Mehrwert zu bieten haben. Darin liegt sein Verständnis einer ultimativen Digitalen Bibliothek begründet, ohne dass er die Definition ausführlicher thematisiert. Pace räumt in diesem Zusammenhang auch mit einem Mythos auf, der die Digitalen Bibliotheken lediglich als »Hilfsdienste« einer traditionellen Bibliothek betrachtet. Wesentlich sympathischer und realistischer erscheint dem Leser die folgende Charakterisierung des Verhältnisses: »The digital-traditional relationship is symbiotic, not parasitic: digital tools, services, and expertise exist to enhance the services and collections of libraries, not necessarily to replace them.« (S. 73) Kooperation mit SoftwareAnbietern Der inhaltliche Leitgedanke der digitalen Services ist auch eine ideale Basis für eine weitere Botschaft von Pace, die er mit seinem Buch vermitteln möchte: Bibliothekare und Anbietervon BibliotheksSoftware müssen bei der Entwicklung dieser Services eng zusammenarbeiten. Glaubt man dem Vorwort, dann stellt das Verhältnis von »libraries and vendors« [Bibliotheken und Anbietern] die Ausgangsthematik für die Publikation dar, wie sie von der American Library Association bei Pace in Auftrag gegeben wurde. Dieserverfügt offensichtlich über den geeigneten Erfahrungshintergrund, um eine solche Beschreibung abzuliefern. Nach seinem Studiumsabschluss als M.S.L.S. begann er seine berufliche Laufbahn zunächst für mehr als drei Jahre bei der Firma für Software zur Bibliotheksautomatisierung, Innovative Interfaces,woer unteranderem als Spezialist zur Produktintegration von z.B. WebPAC,Advanced Keyword Search arbeitete. Heute ist Pace »Head of Systems« an den North Carolina State University Libraries (Raleigh, N.C.) und ständiger Kolumnist in dem Magazin Computers in Libraries.
    Neue Herausforderungen angehen Die Publikation erhält ihre Bedeutung aus der mehrperspektivischen Betrachtung von Digitalen Bibliotheken und ihren Services. Der Untertitel »where the new information players meet« macht bereits deutlich, worin der Autor eine der größten Herausforderungen der Zukunft für Bibliotheken sieht: sie befinden sich im Wettbewerb mit anderen Playern im Informationsmarkt. Ausführlich beschreibt Pace auch die zukünftige Rolle von Anbietern im Bereich der Bibliothekssoftware, für sich und im Zusammenspiel mit Bibliotheken. Beide Parteien sollten auf geeigneten Feldern gemeinsam die Herausforderungen angehen, die durch das Erscheinen neuer Informationsanbieter für Bibliotheken und ihre traditionellen Softwarelieferanten entstanden sind. Pace bevorzugt zur Charakterisierung der Beziehung die Begriffe »codependence« und »codevelopment« (S.16), die ihm prägnanter erscheinen als nur »partnership«. Insbesondere die Kapitel 2 »Sizing up the dot-com competition« und 3 »Business challenges to library practices« beschreiben anhand von prägnanten Beispielen, wie solche Mitbewerber mit dem Aufkommen des Internets in den traditionellen Tätigkeitsbereich von Bibliotheken eingetreten sind. Google, Yahoo und Amazon sind heutzutage wohl die bekanntesten kommerziellen Service-Anbieter im Internet, die in kurzer Zeit eine unglaubliche Popularität und internationale Verbreitung erreicht haben. Pace geht aber auch auf Services wie das Open Directory Project ein (www.dmoz.org), in dem registrierte Fachleute nach einem kooperativen Klassifikationssystem ausgewählte Links auf Internetquellen zusammenstellen. Kommerzielle Dienstleister wie Ouestia, Ebrary oder XanEdu, die der Autor beschreibt, haben sich auf das Angebot digitaler Bücher im Internet spezialisiert und treten mit unterschiedlichen Geschäftsmodellen an Bibliotheken und Endnutzer direkt heran. Wenn auch die Oualität laut Pace nicht immer überzeugend ist, so sind Marketing, Geschäftsideen und Verkaufsmodelle doch durchaus einer näheren Betrachtung durch Bibliotheken wert. Pace rät den Bibliotheken, diese neuen Herausforderungen aktiv anzugehen und dabei einerseits von den Erfolgskonzepten eines Google-Dienstes, andererseits aber auch von den Geschäftsmodellen und Planungskonzepten der Privatwirtschaft zu lernen und geeignete Instrumentarien zu übernehmen. Besonders aufschlussreich ist für den Leser Kapitel 4 »Business models for digital library services«. Basierend auf einem Strategiepapier aus dem Jahre 2000, das durch zwei Vertreter der »Fakultät für Geschäftsmanagement« an der Heimatuniversität des Autors erstellt wurde, stellt Pace einige konkrete Prozessschritte aus dem privatwirtschaftlichen Bereich vor, die er in verschiedene Phasen untergliedert. Die Beschreibung ist durch klare Botschaften durchaus anschaulich gestaltet und auch der nicht ganz unbeschlagene Leser fühlt sich zur Reflektion eigener Vorgehensweisen angeregt, wenn er aufgefordert wird: »solve only known problems« (S.75).
    Digitale Auskunftsdienste Pace verfällt als Insider der Bibliotheks- und Firmenszene glücklicherweise nicht in das Stereotyp einer einfachen Schwarz-Weiß-Gegenüberstellung von »erfolgreichen Firmenkonzepten« einerseits und »unflexiblen, traditionsbelasteten Bibliotheken« andererseits, wie man sie nicht selten von Bibliothekskritikern hört. In den bereits genannten Kapiteln 2 und 3 sieht und benennt er durchaus nachahmenswerte Beispiele für digitale Servicesvon Bibliotheken, die auch Adaptionen von kommerziellen Diensten darstellen können. Digitale Auskunftsdienste (»Virtual or online reference services«) per E-Mail oder Chat erfreuen sich offenbar zumindest in den USA steigender Beliebtheit, die Pace unter anderem mit dem Wegfall der Hemmschwelle einer persönlichen Ansprache erklärt. OnlineKataloge erfahren zunehmend eine Anreicherung mit Informationen wie Inhaltsverzeichnissen oder Abstracts, wie sie von Amazon bekannt sind. Pace erwähnt auch lobend die Rolle einiger Öffentlicher Bibliotheken, die Yahoos Verbalerschließungssystem als Grundlage für eigene Internetservices genommen haben - und dafür von anderen Kollegen heftig gescholten werden. In dem Kontext der Gegenüberstellung von privatwirtschaftlich organisierten Diensten und öffentlich-rechtlichen Bibliotheken empfehlen sich die Kapitel 6 »Libraries are not ALL (sic!) business« und 7 »First principles« als lesenswert, weil sie sich explizit gegen eine unreflektierte Übernahme privatwirtschaftlicher Geschäftsregeln und -vorgehensweisen durch Bibliotheken aussprechen, auch wenn sich gänzlich neue Aspekte bei den gewählten Beispielen wie »fair use«, »privacy of end-users« aus bibliothekarischer Sicht nicht entdecken lassen. Entwicklung von Services Auch wenn Pace als amerikanischerAutor mit seinen Beispielen ein geographisch begrenztes Spektrum analysiert, so lassen sich viele Schlussfolgerungen doch ohne weiteres auch auf europäische Bibliotheken übertragen. Die vorliegende Publikation kann allen Bibliothekaren in leitenden Positionen sehr zur Lektüre empfohlen werden, da die Fokussierung auf die Entwicklung von Services sowie die Erörterung möglicher strategischer Partnerschaften auf der Agenda eines jeden Bibliotheksmanagements stehen sollte. Die Lektüre sollte allerdings in dem Bewusstsein erfolgen, dass Pace durch die Schwerpunktsetzung auf das Verhältnis »Bibliotheken - Anbieter von Informationstechnologie und -diensten« einige weitere wesentliche Aspekte weitgehend außer Acht lässt. Diese betreffen im Falle von Universitätsbibliotheken beispielsweise das Verhältnis von Bibliotheken als Dienstleistern zu weiteren lokalen Dienstleistern (insbesondere Rechenzentren, Medienzentren) sowie die zunehmende Modularität von Service- und Informationsarchitekturen, die ein nahtloses Zusammenspiel lokaler und externer Services sinnvoll erscheinen lassen. Die Orientierung an den tatsächlichen Bedürfnissen von EndNutzern steht zwar nicht direkt im Mittelpunkt der Service-Beschreibungen des Autors, einige wesentliche Aspekte werden aber behandelt (z.B. S.57). Weitere Zielgruppen der Publikation sind aufgrund der gewählten Thematik zu Digitalen Bibliotheken und Services sicherlich Bibliothekare in verantwortlichen Positionen in den Bereichen Informationstechnologie und Benutzung. Alle Bibliothekare, und insbesondere Berufsanfänger, mögen darüber hinaus mit Interesse die Ausführungen von Pace zu seinem beruflichen Werdegang sowie speziell das Kapitel 5 »Sheep in wolves' clothing/Working inside and outside the library« verfolgen, in dem er berufliche Chancen und Szenarien für Bibliothekare im IT-Firmenbereich beschreibt."
  13. Reed, D.: Essential HTML fast (1997) 0.07
    0.06815111 = product of:
      0.27260444 = sum of:
        0.27260444 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
          0.27260444 = score(doc=6851,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.62291753 = fieldWeight in 6851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6851)
      0.25 = coord(1/4)
    
    Abstract
    This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
  14. Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997) 0.07
    0.06815111 = product of:
      0.27260444 = sum of:
        0.27260444 = weight(_text_:java in 171) [ClassicSimilarity], result of:
          0.27260444 = score(doc=171,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.62291753 = fieldWeight in 171, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=171)
      0.25 = coord(1/4)
    
    Abstract
    Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
  15. Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996) 0.07
    0.06815111 = product of:
      0.27260444 = sum of:
        0.27260444 = weight(_text_:java in 604) [ClassicSimilarity], result of:
          0.27260444 = score(doc=604,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.62291753 = fieldWeight in 604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=604)
      0.25 = coord(1/4)
    
    Abstract
    Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
  16. Ameritech releases Dynix WebPac on NT (1998) 0.07
    0.06815111 = product of:
      0.27260444 = sum of:
        0.27260444 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
          0.27260444 = score(doc=2782,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.62291753 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=2782)
      0.25 = coord(1/4)
    
    Abstract
    Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
  17. OCLC completes SiteSearch 4.0 field test (1998) 0.07
    0.06815111 = product of:
      0.27260444 = sum of:
        0.27260444 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
          0.27260444 = score(doc=3078,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.62291753 = fieldWeight in 3078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=3078)
      0.25 = coord(1/4)
    
    Abstract
    OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
  18. Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998) 0.07
    0.06815111 = product of:
      0.27260444 = sum of:
        0.27260444 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
          0.27260444 = score(doc=4618,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.62291753 = fieldWeight in 4618, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=4618)
      0.25 = coord(1/4)
    
    Abstract
    Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
  19. Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998) 0.07
    0.06815111 = product of:
      0.27260444 = sum of:
        0.27260444 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
          0.27260444 = score(doc=6134,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.62291753 = fieldWeight in 6134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6134)
      0.25 = coord(1/4)
    
    Abstract
    Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
  20. Bates, C.: Web programming : building Internet applications (2000) 0.07
    0.06815111 = product of:
      0.27260444 = sum of:
        0.27260444 = weight(_text_:java in 130) [ClassicSimilarity], result of:
          0.27260444 = score(doc=130,freq=2.0), product of:
            0.43762526 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06209646 = queryNorm
            0.62291753 = fieldWeight in 130, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=130)
      0.25 = coord(1/4)
    
    Object
    Java

Authors

Languages

Types

  • a 9352
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications