-
Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006)
0.08
0.07562009 = product of:
0.15124018 = sum of:
0.10115033 = weight(_text_:java in 195) [ClassicSimilarity], result of:
0.10115033 = score(doc=195,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.23359407 = fieldWeight in 195, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.050089855 = weight(_text_:und in 195) [ClassicSimilarity], result of:
0.050089855 = score(doc=195,freq=50.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.3675683 = fieldWeight in 195, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.5 = coord(2/4)
- Abstract
- Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
- Content
- Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
-
Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998)
0.07
0.071524076 = product of:
0.2860963 = sum of:
0.2860963 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
0.2860963 = score(doc=4593,freq=4.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.6607038 = fieldWeight in 4593, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=4593)
0.25 = coord(1/4)
- Abstract
- Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
-
Pöppe, C.: ¬Das Minderheitsspiel (2005)
0.07
0.06956706 = product of:
0.13913412 = sum of:
0.03951141 = weight(_text_:und in 4697) [ClassicSimilarity], result of:
0.03951141 = score(doc=4697,freq=70.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.2899418 = fieldWeight in 4697, product of:
8.3666 = tf(freq=70.0), with freq of:
70.0 = termFreq=70.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4697)
0.09962272 = weight(_text_:hiermit in 4697) [ClassicSimilarity], result of:
0.09962272 = score(doc=4697,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.18928306 = fieldWeight in 4697, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.015625 = fieldNorm(doc=4697)
0.5 = coord(2/4)
- Content
- "Die Bar »EI Farol« in Santa Fe (New Mexico) ist ein beliebtes Nachtschwärmerziel. Jeden Donnerstagabend gibt es irische Musik, zu anderen Zeiten auch Flamenco. An lauen Sommerabenden wird es häufig so voll, dass einem das Gedränge den Spaß verdirbt. Nehmen wir an, es ist ein lauer Sommerabend, und das Musikprogramm entspricht unserem Geschmack. Sollen wir hingehen? Der Wirtschaftswissenschaftler W Brian Arthur, der am Santa Fe Institute in der gleichnamigen Stadt arbeitet, stellte die Frage in wissenschaftlicher Form, und so ist sie als das »El Farol bar problem« bekannt geworden. Es ist ein überraschend schwieriges Problem, jedenfalls wenn man es vom Standpunkt der klassischen Ökonomen betrachtet. Diese Leute glauben nämlich immer noch an den Homo oeconomicus, jenes fiktive Wesen, das die ihm zugänglichen Informationen fehlerlos verarbeitet und daraufhin unter mehreren Alternativen diejenige auswählt, die seinen Nutzen maximiert. Auf einem Gütermarkt agieren zahlreiche Exemplare dieser Spezies mit nichts als dem eigenen Profit im Sinn und erreichen trotzdem einen für alle optimalen Zustand (Spektrum der Wissenschaft 5/2004, S. 60). Aber wenn diese so ungeheuer rationalen Wesen zur Bar wollen - oh weh! Nehmen wir zur Vereinfachung an, dass sie alle nur das Eine wollen: zur Bar, wenn es nicht zu voll ist, und ansonsten zu Hause bleiben. Wird es heute Abend voll werden? Dazu müssten die Leute aus den verfügbaren Informationen - die für alle gleich sind - Schlüsse ziehen und eine Prognose stellen - die für alle gleich ist, denn sie sind ja alle rational. Also gehen sie entweder alle hin, sodass es voll wird, oder bleiben alle zu Hause und lassen sich einen schönen Abend entgehen. Frustriert sind sie auf jeden Fall.
Gegen den Strom schwimmen Am Ende gewinnen diejenigen, die in der Minderheit sind. Also kann es kein Rezept zum Gewinnen geben, denn wenn es eines gäbe, würden alle es anwenden, und dann wären sie keine Minderheit mehr. Für die Bar muss das mit der Minderheit nicht genau stimmen: Wenn es 500 Interessenten gibt und 100 Sitzplätze, dann sind 200 Barbesucher eine Minderheit gegenüber den 300 Daheimgebliebenen und trotzdem frustriert. Aber die wesentlichen Züge des Problems bleiben erhalten, wenn wir unterstellen, dass es genau doppelt so viele Interessenten wie Plätze gibt - plus einen, also zum Beispiel 301 Interessenten für 150 Plätze. (Wozu den einen Überzähligen? Damit man sich über den Spezialfall der Stimmengleichheit keine Gedanken zu machen braucht.) Situationen von der Art des Minderheitsspiels gibt es zuhauf. Der Autofahrer, der zwei staugefährdete Wege zum selben Ziel zur Auswahl hat, möchte denjenigen wählen, für den sich die Minderheit entscheidet. Der Urlauber reist, um dem Massenandrang zu entgehen, an den Strand, den die Zeitung als Geheimtipp empfohlen hat. Das Rehlein äst am liebsten dort, wo die anderen ihm nichts wegfressen. Nehmen wir an, der Börsenspekulant müsse sich fürs Kaufen oder fürs Verkaufen entscheiden, bevor er weiß, was die anderen tun. Dann möchte er unter seinesgleichen in der Minderheit sein, denn viele Käufer bei wenigen Verkäufern treiben den Preis hoch, was den Verkäufern gefällt, und umgekehrt. Da das Problem in so vielen Verkleidungen vorkommt, lohnt eine mathematische Abstraktion. Damien Challet von der Universität Fribourg (Schweiz) hat das getan und mit seinem »Minority Game« eine Flut von Veröffentlichungen ausgelöst. Sein Minderheitsspiel hat viele Mitspieler (»Akteure«) und verläuft nach folgenden Regeln: In jedem Spielzug kann ein Akteur zwischen zwei Alternativen A (zur Bar gehen; kaufen) und B (zu Hause bleiben; verkaufen) wählen. Wer sich nach dem Zug als zur Minderheit gehörig herausstellt, bekommt einen Pluspunkt, die Mitglieder der Mehrheit bekommen je einen Minuspunkt. Ziel des Spiels ist, in vielen Runden eine möglichst hohe Gesamtpunktzahl zu erreichen. Die Spieler können sich untereinander nicht verständigen. Die einzige verfügbare Information ist der Ausgang der vergangenen Spielzüge, wann also im bisherigen Spielverlauf A und wann B in der Minderheit war.
Was soll man tun? Jedenfalls nicht das, was die anderen tun. Die Ausweichempfehlung zur Staumeldung, der Urlaubs-Geheimtipp in der Zeitung, der Börsentipp: Sie alle können gut recherchiert und vernünftig sein - und widerlegen sich dennoch selbst, sowie sie massenhaft befolgt werden. Stattdessen könnten die EI-Farol-Fans zum Beispiel eine Münze werfen und nur zur Bar gehen, wenn »Kopf« erscheint. Dann ist rein per Zufall immer ziemlich genau die Hälfte da. Allgemein sorgt das Münzwurfverfahren dafür, dass die Minderheit stets knapp unter 50 Prozent liegt und damit so hoch wie nur möglich. Das ist günstig für das Gemeinwohl und damit auch günstig für jeden Einzelnen, der durch das Zufallsverfahren auf die Dauer seinen gerechten Anteil abkriegt. Allerdings gibt es immer wieder erhebliche Abweichungen von den 50 Prozent und damit ungenutzte Gewinnmöglichkeiten; einzelne Angehörige einer erdrückenden Mehrheit hätten sich ja anders entscheiden und damit Punkte kassieren können, ohne anderen welche wegzunehmen - wenn sie das vorher gewusst hätten. Oder die Spieler legen sich feste Gewohnheiten zu. Wenn eine Clique immer nur an geraden Tagen zur Bar geht und die andere an ungeraden, und beide Cliquen umfassen jeweils ziemlich genau die halbe Bevölkerung, dann ist jeden Tag eine starke Minderheit glücklich. Ein solches koordiniertes Verhalten kann sich selbst dann einstellen, wenn es keine Verständigung der Akteure untereinander gibt. Ein Mensch, der sich regelmäßig in der Mehrheit wiederfindet, kann genau das zum Anlass nehmen, seine Gewohnheiten zu ändern. Dadurch schrumpft die Mehrheit und wächst die Minderheit, bis beide fast genau gleich groß sind.
Partygänger im Computer So oder so ähnlich machen es die Börsengurus auch. Sie haben zwar nicht gerade feste Gewohnheiten, aber verschiedene Analyseprogramme zur Auswahl. Jedes dieser Programme nimmt die Kurse der letzten Tage entgegen und errechnet daraus eine Prognose für den Kurs von morgen, was auf eine konkrete Verhaltensempfehlung - kaufen oder verkaufen - hinausläuft. Wie das einzelne Programm zu seiner Empfehlung kommt, bleibt dessen Geheimnis. Der Spekulant, der zunächst nicht weiß, was er von den verschiedenen Programmen halten soll, testet sie alle aus und folgt dann der Empfehlung desjenigen, das in der Vergangenheit am häufigsten richtig gelegen hat. Das ist die Grundidee hinter Challets Version des Minderheitsspiels, bei der ein Computerprogramm alle Akteure simuliert. Keiner von ihnen würfelt; aber sie sind lernfähig, und vor allem kommen sie schon verschieden auf die Welt. Denn wenn sie alle gleich wären, hätten sie das gleiche Pech wie die oben beschriebenen rationalen Wesen. Jeder Akteur ist von Geburt an nach dem Zufallsprinzip mit einem Satz von so genannten Strategien ausgestattet. Das sind Primitivversionen der genannten Analyseprogramme: Man gibt ihnen die Ergebnisse der letzten, sagen wir, sechs Spielzüge, und sie geben eine Verhaltensempfehlung für den nächsten Zug.
Entscheidend der gemeinsame Irrglaube Zahlreiche Varianten des Spiels sind erdacht worden. Die Grundausstattung der Spieler mit Strategien wurde variiert. Zwei müssen es mindestens sein, damit sich überhaupt ein Lernprozess abspielen kann; mehr ändern nichts Wesentliches an den Ergebnissen, wie sich herausstellt. Es macht auch nur einen geringen Unterschied, wenn die Punkte für die Spieler nicht nach dem Ja-Nein-Prinzip vergeben werden (1 für die Minderheit, -1 für die Mehrheit), sondern proportional der Abweichung vom Gleichstand: je kleiner die Minderheit, desto größer die Belohnung für den Nonkonformisten. Andere Interpretationen sind bei der hohen Abstraktheit ebenfalls möglich. So haben verschiedene Leute eine darwinistische Evolution mit ins Siel gebracht: Alle paar Zeitschritte stirbt das Individuum mit der bis dahin schlechtesten Punktzahl und wird durch einen Klon des Punktbesten ersetzt, allerdings ohne dessen Lebenserfahrung: Die interne Bilanz der Strategien steht auf null wie bei einem Neugeborenen. Auch Mutationen wurden untersucht. Dann kam die Oberraschung. Der theoretische Physiker Andrea Cavagna, damals in Oxford, nahm den Spielern das Einzige, was sie zur Grundlage ihrer Entscheidungen nehmen konnten, nämlich die allen gemeinsame Erfahrung über die Vergangenheit, ersetzte sie durch irgendwelchen, für alle gleichen Nonsens, und es passierte - gar nichts! Im Ganzen gesehen blieb das kollektive Verhalten der Spieler unverändert. Das verblüfft und lässt die Tätigkeit der Chartanalysten in einem neuen Licht erscheinen. Gut, sie holen aus allgemein verfügbarer Information noch etwas heraus, das unter günstigen Umständen sogar realen Nutzen einbringt - aber nicht, weil diese Information etwas wert wäre. Aus der Vergangenheit an sich lernt man gar nichts. Man nutzt allein die Tatsache aus, dass alle anderen ebenfalls dem Irrglauben unterliegen, man könne aus der Vergangenheit etwas lernen. Das macht ihr Verhalten bis zu einem gewissen Grad berechenbar. Ich habe hier einen Geheimtipp, den ich veröffentliche mit dem Ziel, dass alle Leute daran glauben: Es sind überhaupt nicht die Börsenkurse der letzten Woche, die ihr in eure Chartanalysen eingeben sollt. Es sind die Lottozahlen vom letzten Samstag. Mit einem wissenschaftlich getesteten Analyseprogramm, das ich euch hiermit zum kostenlosen Download anbiete - damit ihr alle es anwendet - und mit Zufallskomponenten versehen - damit es nicht so auffällt -, könnt ihr daraus die Kauf- und Verkaufsempfehlungen für die nächste Woche errechnen. Der Einzige, der konsequent gegen die Prognosen meines eigenen Programms spekuliert, bin ich - und werde steinreich dabei. Schön wär's."
-
Reed, D.: Essential HTML fast (1997)
0.07
0.06743355 = product of:
0.2697342 = sum of:
0.2697342 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
0.2697342 = score(doc=6851,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.62291753 = fieldWeight in 6851, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6851)
0.25 = coord(1/4)
- Abstract
- This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
-
Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997)
0.07
0.06743355 = product of:
0.2697342 = sum of:
0.2697342 = weight(_text_:java in 171) [ClassicSimilarity], result of:
0.2697342 = score(doc=171,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.62291753 = fieldWeight in 171, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=171)
0.25 = coord(1/4)
- Abstract
- Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
-
Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996)
0.07
0.06743355 = product of:
0.2697342 = sum of:
0.2697342 = weight(_text_:java in 604) [ClassicSimilarity], result of:
0.2697342 = score(doc=604,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.62291753 = fieldWeight in 604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=604)
0.25 = coord(1/4)
- Abstract
- Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
-
Ameritech releases Dynix WebPac on NT (1998)
0.07
0.06743355 = product of:
0.2697342 = sum of:
0.2697342 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
0.2697342 = score(doc=2782,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.62291753 = fieldWeight in 2782, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=2782)
0.25 = coord(1/4)
- Abstract
- Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
-
OCLC completes SiteSearch 4.0 field test (1998)
0.07
0.06743355 = product of:
0.2697342 = sum of:
0.2697342 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
0.2697342 = score(doc=3078,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.62291753 = fieldWeight in 3078, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=3078)
0.25 = coord(1/4)
- Abstract
- OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
-
Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998)
0.07
0.06743355 = product of:
0.2697342 = sum of:
0.2697342 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
0.2697342 = score(doc=4618,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.62291753 = fieldWeight in 4618, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=4618)
0.25 = coord(1/4)
- Abstract
- Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
-
Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998)
0.07
0.06743355 = product of:
0.2697342 = sum of:
0.2697342 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
0.2697342 = score(doc=6134,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.62291753 = fieldWeight in 6134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6134)
0.25 = coord(1/4)
- Abstract
- Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
-
Bates, C.: Web programming : building Internet applications (2000)
0.07
0.06743355 = product of:
0.2697342 = sum of:
0.2697342 = weight(_text_:java in 130) [ClassicSimilarity], result of:
0.2697342 = score(doc=130,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.62291753 = fieldWeight in 130, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=130)
0.25 = coord(1/4)
- Object
- Java
-
Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003)
0.07
0.06718809 = product of:
0.13437618 = sum of:
0.10115033 = weight(_text_:java in 55) [ClassicSimilarity], result of:
0.10115033 = score(doc=55,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.23359407 = fieldWeight in 55, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.033225853 = weight(_text_:und in 55) [ClassicSimilarity], result of:
0.033225853 = score(doc=55,freq=22.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.24381724 = fieldWeight in 55, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.5 = coord(2/4)
- Content
- "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
-
Krajewski, M.: Zettelwirtschaft : Die Geburt der Kartei aus dem Geiste der Bibliothek (2002)
0.07
0.06714212 = product of:
0.13428424 = sum of:
0.047114357 = weight(_text_:und in 1621) [ClassicSimilarity], result of:
0.047114357 = score(doc=1621,freq=130.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.34573358 = fieldWeight in 1621, product of:
11.401754 = tf(freq=130.0), with freq of:
130.0 = termFreq=130.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.013671875 = fieldNorm(doc=1621)
0.087169886 = weight(_text_:hiermit in 1621) [ClassicSimilarity], result of:
0.087169886 = score(doc=1621,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.16562268 = fieldWeight in 1621, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.013671875 = fieldNorm(doc=1621)
0.5 = coord(2/4)
- Abstract
- Auf nahezu jedem Schreibtisch steht heute ein zumeist grauer Kasten, aus dem viele Kabel kommen. Vor 70 Jahren war dieser datenverarbeitende Kasten noch unscheinbarer, unelektronisch und aus Holz, buchstäblich eine Papiermaschine. Die ZettelWirtschaft widmet sich der Frage, wie diese >Maschine< namens Kartei ihren Siegeszug als ebenso universelles wie zentrales Werkzeug zur Datenverarbeitung in die Büros und Schreibstuben um 1930, bis zum Vorabend der >Universalen Diskreten Maschine< namens Computer, antreten konnte. Dabei wird die Entwicklung der Kartei anhand ihrer historischen Brüche verfolgt: angefangen bei den ersten explizit beschriebenen Verzettelungen des Wissens in der Frühen Neuzeit, über die beinahe zufällige Einführung und allmähliche Durchsetzung von Zettel-Katalogen in den Bibliotheken um 1800 steuert die Studie - nach einem Seitenblick auf die Produktionsbedingungen von Literatur mit Hilfe der Zettelkästen- hin zur zentralen These, der diskursiven Übertragung zwischen den Institutionen des Schreibens, zwischen Bibliothek und Büro. Versehen mit zahlreichen Abbildungen und zum Teil auf bislang unveröffentlichtem Archivmaterial basierend, wird hier die Historie der Zettelkästen und Karteisysteme als eine notwendige Vorgeschichte des Computers beschrieben, nicht ohne diesen Prozeß als eine abwechslungsreiche, bisweilen überraschende Geschichte des Scheiterns zu bilanzieren.
- Classification
- AN 74160 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Kataloge nach der technischen Einrichtung / Zettelkataloge
- Content
- "Von der Bibliotheksführung zur Bürozeit - Eine Einleitung. - "Karteien können alles" verheißt der Fortschritt 1929 im Namen der gleichlautenden Fabriken GmbH, die ihn mit diesem vermeintlich schlichten Slogan in der Zeitschrift für Organisation prominent bewerben. Das Versprechen, das die ganzseitige Anzeige bereits im allerersten Satz auslobt, ist kein geringes. Weiter heißt es: Karteien können in den Lagerverwaltungen der großen Industriewerke Zehntausende kleiner und großer Einzelteile in Ordnung halten, können in den Personalbüros jede beliebige Anzahl Adressen übersichtlich gliedern, können in den Meldeämtern der großen Städte die Bewegung von Hunderttausenden von Menschen überwachen, können in den Buchhaltungsabteilungen der kaufmännischen Büros sich nützlich machen, z.B. als Kontokorrent-Karteien, usw. usw. Karteien können alles! Bitte lesen Sie, was »Fortschritt« in dem soeben erschienenen Kartei-Katalog »Bewegliche« Notizen über die Einrichtung von Karteien »neues« sagt. Diese Studie versucht, eine für die Entwicklung der Kartei konstitutive Idee von ihrer Urszene bis zum angezeigten Fortschritt zu verfolgen. Dazu soll gefragt werden, aus welchen Gründen die »neues« versprechende Apparatur jedwede Arbeit - allen voran Ordnen, Adressieren, Kontrollieren, Speichern, Buchhalten und Rechnen - leisten können soll. Und da diese Begrifflichkeit nachgerade fordert, sich in eine Medienarchäologie einzuschreiben, die die Universalität von Papiermaschinen untersucht, folgt das dieser Studie zugrunde gelegte Frage-Raster einer Formation der (unelektronischen) Datenverarbeitung. Warum handelt es sich bei dieser Apparatur, die vieles verspricht und vermeintlich alles kann, um eine universelle Maschine? Was für eine solche Maschine lediglich vonnöten ist, weist Alan Turing schließlich erst knapp zehn Jahre später nach: (1) ein (theoretisch unendlich) langes, gleichwohl unterteiltes Papierband, (2) ein Schreib-/Lese-Kopf und (3) ein genau festgelegtes Verfahren, wie der Schreib-/Lese-Kopf auf den Papierabschnitten zu bewegen sei. Diesen drei logischen Grundbestandteilen eines jeden Computers gilt es nun und im folgenden nachzuspüren, ihre Kontexte in dieser Form der Datenverarbeitung zu verorten und das Zusammenspiel zu analysieren, das schließlich zu dem gerechtfertigten Satz führen darf: »Karteien können alles!«
Dieses Diktum markiert den vorläufigen Endpunkt einer Entwicklung, an deren Gipfel für kurze Zeit (von ca. 1920 bis in die 60er Jahre; »Einen Staat lang«) die bürokratische Papiermaschine namens Kartei residiert. Ihren weiten Herrschaftskreis dokumentieren die zahlreichen, neu entstandenen Zeitschriften für Bürobedarf und -organisation. Die vorliegende Studie will versuchen nachzuzeichnen, wie sich die Kartei auf jedem Schreibtisch um 1930 zu etablieren, wie sie ins Zentrum der organisatorischen Aufmerksamkeit zu rücken versteht. Zwar nimmt sich die Kartei rein äußerlich eher unscheinbar aus neben der filigranen Imposanz einer Schreibmaschine, jedoch behauptet sie ebenso beharrlich ihren Platz durch das mitgegebene Versprechen der Universalität. Auf welchen Errungenschaften gründet sich dieser Anspruch? Vor welcher Schablone vermag sich die Papiermaschine abzuheben? Aus welchen Wurzeln entwickelt sich dieses System der Verzeichnung? Die Behauptung einer universalen Papiermaschine und eine erste Suche nach ihrem Grund und Ursprung legt den Verdacht nahe, daß diese papierene Anordnung Vorbild und Vorgänger in einem ebenfalls aus Kasten und Zetteln bestehenden Dispositiv findet, die hinlänglich vertraute, heute bald schon verschwundene Suchmaschine einer Bibliothek namens Zettelkatalog. Die Genealogie der Kartei als eine Speichertechnologie gehorcht, so die Grundthese, einer vielfachen Übertragung. Als chronologisch erste und weitreichendste Instanz ereignet sich ein Technologie-Transfer zwischen zwei Diskursen. Der erste von beiden formiert folgerichtig die Bibliothek, wenngleich die diskursive Praxis der Verzeichnung ihre Katalogisierungstechnik zumeist nur verschwiegen und randständig behandelt. Der zweite Diskurs folgt einer Tendenz, die unter Begriffen wie Effizienz, Rationalisierung oder Psychotechnik die Abläufe und Verwaltungsmaßnahmen der Büroarbeit organisiert. Die allgegenwärtige Präsenz der Kartei auf den Schreibtischen der Zwischenkriegszeit verdankt sich der seltenen Übertragung einer Wissenstechnologie zwischen zwei Institutionen, deren Wechselwirkung üblicherweise in umgekehrter, archivalischer Richtung erfolgt, sich hier jedoch aus der Bibliothek in das Büro vollzieht. Wenn von Transfers die Rede ist, reicht es kaum aus, Anfangs- und Endpunkt, Sender und Empfänger zu markieren. Statt dessen muß gekennzeichnet werden, wie dieser Transfer inklusive all seiner Störungen, Wandlungen, Stockungen, Irritationen und Umlenkungen überträgt. Und für einmal muß noch das beschrieben werden, was übertragen wird. Denn weitergereicht wird eine Verfahrensweise, die ihrerseits darauf abzielt, den Grundoperationen einer Universalen Diskreten Maschine zu genügen: Daten zu speichern, zu prozessieren und (selbst) zu übertragen. Das von üblichen Datenspeichern wie etwa dem Buch abweichende Verfahren setzt dabei auf ein ebenso einfaches wie naheliegendes Prinzip: Die Informationen stehen auf gesonderten, gleichgerichteten und frei beweglichen Trägern bereit, um nachstrengen Ordnungsschemata arrangiert weiter verarbeitet und abgerufen zu werden. Die Übertragung beginnt mit einer Urszene, wenngleich sich das Feld ihrer Reichweite zunächst nur auf den bibliothekarischen und den damit zumeist eng verbundenen gelehrten Diskurs beschränkt. Dem Polyhistor Konrad Gessner fällt es zu, am Anfang dieser einen Geschichte der Kartei zu stehen. Sicherlich ist er kaum der Erfinder einer Technik, auf Papier verteilte Informationen zu zerschneiden und so einfacher arrangieren zu können. Jedoch liegt mit dem von ihm 1548 vielleicht erstmals explizit beschriebenen Verfahren die früheste bisher bekannte Überlieferung vor, wie auf komfortable Weise alphabetisch geordnete, umfangreiche Listen herzustellen sind. Das erste Kapitel widmet sich demnach einer detaillierten Beschreibung der Gessnerschen Verzettelung, um im Anschluß daran die Tradierung dieser vorbildlichen Empfehlung in der Frühen Neuzeit und dem Barock besonders bei der Kunst des Exzerpierens in Umrissen zu verfolgen.
Der erste Hauptteil 'Um 1800' versucht daraufhin, mit einem Bruch in der Anwendungsweise des Gessnerschen Verfahrens dessen erste Diskontinuität nachzuweisen. Nicht zuletzt wegen dieses Einschnitts muß die Art der Verzeichnung bis dato das Attribut vorläufig tragen. Die Verzettelungstechnik gelangt von einem temporären Gebrauch zur dauerhaften Verwendung, was dadurch eine ebenso unbeabsichtigte wie folgenreiche Umstellung markiert. Gleichzeitig entsteht hiermit der bibliothekshistorisch erste Zettelkatalog, dessen unverhoffter Einsatz und Genese in Wien um 1780 eine detaillierte Beschreibung erfährt. Der Zettelkatalog besteht nicht nur als bibliothekarische Antwort auf einen drohenden information overflow, sondern vor allem dank seiner umsichtigen Logistik. Entscheidend dabei sind schriftlich fixierte, genaue Handlungsanweisungen, anhand derer auch unausgebildetes Personal in den arbeitsteiligen Prozeß eingebunden werden kann. Mit Hilfe eines kleinen Exkurses soll zuvor jedoch die Koinzidenz zweier Adressierungslogiken untersucht werden: In einem Jahrzehnt und derselben Stadt fällt die Entstehung des Zettelkatalogs zusammen mit der Erfindung der Hausnummer. Damit etabliert sich eine Möglichkeit zur abstrakteren Repräsentation und zu einem kontrollierenden Zugriff auf Schriften bzw. Hausbewohner. Das anschließende dritte Kapitel verbleibt in der Umbruchphase um 1800, indem es eine notwendige Differenz zieht zwischen der Bibliothekstechnologie von vielen Schreib- für viele Lese-Köpfe und einer eigenwilligen Anordnung von gelehrten Exzerptensammlungen. Die Unterscheidung trennt ein Server-Konzept von einer Workstation-Philosophie. Der erste Zettelkatalog ist nicht nur das Produkt eines kollektiven Arbeitsprozesses, sondern vor allem für eine vielköpfige Benutzung geeignet und konzipiert. Im Gegensatz zu diesem Multi-User-System verwehrt die idiosynkratische Maschine in Form eines Gelehrtenkastens gerade jede fremde Einsichtnahme. Sie besitzt keine Vermittlungsnotwendigkeit, so daß sich das interne System der Verzeichnung durchaus unverständlich für alle Einsichtnehmenden ausnehmen darf. Auch eine Form von Datenschutz, die anhand der eigentümlichen gelehrten Exzerpiertechniken in einer kleinen Genealogie von Johann Jacob Moser bis zu Jean Paul und anderen konturiert wird. Das vierte und letzte Kapitel des ersten Teils widmet sich einer ersten Übertragung alteuropäischer Bibliothekstechnik in die Neue Welt. Das Zettelkastenprinzip erreicht einerseits die amerikanische Ostküste durch Bibliothekare, die in Europa studieren, um die dort etablierte Praxis der Katalogisierung auf ihre im Laufe des 19. Jahrhunderts schnell anwachsenden Büchersammlungen anzuwenden. Andererseits jedoch besitzen die Vereinigten Staaten auch eine eigene, autochthone Genealogie der Verzettelung. 1817 gelingt William Croswell bei seinem unglücklichen Projekt, der Harvard College Library einen umfassenden Katalog zu verschaffen, die Geburt des amerikanischen Zettelkatalogs aus dem Geiste der Faulheit.
Der zweite Hauptteil 'Um 1900' fokussiert den diskursiven Übertrag zwischen Bibliothek und Büro, der wiederum nicht von europäischen Bibliotheken ausgeht. Während diese noch ganz dem Streit um Katalog vs. Aufstellung verhaftet sind, gereicht die Initiative und Aufbruchstimmung um die amerikanische Bibliothekarsvereinigung und namentlich in Gestalt ihres Protagonisten Melvil Dewey zum Ausgangspunkt des wirkungsmächtigen Technologietransfers zwischen den Institutionen der Wissensverwaltung und der Wirtschaft. Schaltstelle dafür ist ein Gebilde, das nicht nur die Zielrichtung der institutionellen Übertragung bereits im eigenen Namen trägt, sondern sich überdies vom Ein-Mann-Betrieb zu einem Konzern entwickelt: das Library Bureau. Das sechste Kapitel verschreibt sich den Agenturen einer wiederum europäischen Verbreitung dieser Speichertechnologie, d.h. es gilt der Frage nachzugehen, welche Institutionen das Wissen um den Einsatz eines Zettelkatalogs und seiner Prämissen - allen voran weitestgehende Standardisierung - aufnehmen, um es als unabdingbare Grundlage der eigenen Arbeit zu lancieren. Im siebten und letzten Kapitel koppelt schließlich das Verfahren, listengesteuerte Verwaltungen auf Zettelbasis zu führen, an den organisatorischen Diskurs einer Arbeitswissenschaft an, die den Zettelkatalog als wirtschaftliche Optimierungsinstanz entdeckt und unter dem Namen Kartei zu einem vorrangigen Rationalisierungsinstrument entwickelt. Auf der Suche nach der ökonomischen Zeit, die mit der Rationalisierungsbewegung um 1920 große Aufmerksamkeit erfährt, versprechen sich die Verfechter der modernen Büroorganisation vom Zettelkasten als Stapelverarbeitung einhellig großen Gewinn, so daß eine schlichte, einstmalige Bibliothekstechnik zum neuen Paradigma einer buchhalterischen Arbeitsweise gerät. Am Ende dieser Geschichte steht ein Medienwechsel, der die Kartei als neuen Kulturträger propagiert, um das Buch zu verabschieden. Diese Studie, deren Raster bislang implizit mit dem Shannonschen Kommunikationsmodell skizziert wurde und darauf auch im weiteren Verlauf mit der Rede von Kanälen (und Strömen) rekurrieren wird, folgt diesem Modell ebenso in der dritten Instanz der Übertragung, der Störquelle zwischen Sender und Empfänger, um letztlich zu dem Schluß zu gelangen, daß das Rauschen recht behält: Diese Arbeit möchte daher immer auch die Momente der Irritation beobachten, die Störquellen, die eine Übertragung gefährden, die ein Risiko ins Spiel mit den Karten bringen. In welcher Position ist diese Stockung zu verorten? Mit welchen Sicherungsmaßnahmen gelingt es beispielsweise, der informationellen Entropie der Kartei, ihrem irreversiblen Durcheinander der Karten einstweilen Einhalt zu gebieten? An welchen neuralgischen Punkten finden Störungen immer wieder ihren Einsatz, um bisweilen nachhaltig die Übertragungen zu unterbrechen und ihrem Ende zuzuführen? Denn es scheint unvermeidlich, die Historie der Kartei als eine Geschichte des mannigfachen Scheiterns zu lesen. Die diskursiven Übertragungen, die Transfers zwischen den Institutionen und auch die Übertragung von Informationen innerhalb der Kartei-Anordnung sowie deren Implikationen konfigurieren gemeinsam die Geschichte der Kartei. Die vorliegende Arbeit will versuchen, diese Geschichte vom Material her zu schreiben. Das heißt zunächst, viele Stimmen zur Sprache kommen zu lassen, obgleich stets die Gefahr der unstimmigen Polyphonie droht. Ein schief singender Chor. Doch da die Aufgabe darin bestehen soll, Episoden einer Anordnung aus Zetteln und ihren jeweiligen Verknüpfungen zu verknüpfen, vertraut diese Studie dem Dispositiv für einmal und notiert das, was ihr der Zettelkasten diktiert.
Manches hat der Zettelkasten verschwiegen, um seine eigene Ökonomie und die des notwendigerweise beschränkten Umfangs dieser Studie nicht allzu sehr zu beanspruchen - manches schlechterdings aus Mangel an Information. Allererstes Manko ist die Verlegenheit, keine Universalgeschichten mehr schreiben zu können. So beginnt diese Geschichte nicht mit dem Anfang von Geschichte und beschreibt demzufolge keine mesopotamischen, ägyptischen, griechischen oder römischen Register als Verzeichnisse der gespeicherten Schriften. Auch die berühmte Bibliothek von Alexandria samt ihrem ebenso berühmten Bibliothekar Kallimachos, der die Inventare der Schriften auf tönernen Pinakes an den Regalen fixierte, bleibt außen vor. Statt dessen steht am Beginn der Karteigeschichte eine (vermeintliche) Urszene des 16. Jahrhunderts, die vielleicht auch anders, d.h. früher, hätte gesetzt sein können. Des weiteren vermag diese Studie nicht, einem ausgelobten Desiderat abzuhelfen, eine schlichte Fußnote bei Foucault: »Aufkommen der Karteikarte und Konstituierung der Humanwissenschaften: noch eine Erfindung, die von den Historikern wenig gefeiert wird.« Wenngleich die eine Entwicklung, die »Konstitution der Humanwissenschaften«, dieser Studie als methodisches Leitbild dient, konnte die direkte Verbindung zum Erscheinen der Karteikarte nicht eindeutig geknüpft werden. Geplant war, ein Desiderat der Fußnote zur Entfaltung zu bringen, d.h. einem Exkurs zur Evolution der Karteikarte die letztendliche Übertragungs-Leistung zwischen Bibliothekaren und Kaufleuten ab 1890 anzufügen. Der Exkurs mußte gleichwohl einer anderen, bereits erwähnten Ökonomie, der Raumnot, zum Opfer fallen. In diesem Kapitel, das im Anschluß an das zweite gefolgt wäre, hätte nicht nur die verfestigende Entwicklung einer Materialität der Karteikarte vom Papierschnipsel bis zu ihrer Aufrechtigkeit als Leit-Karton Platz gefunden. (Diese Episode zieht sich nun implizit durch die Beschreibung einer fortschreitenden Standardisierung.) Foucaults beunruhigende Bemerkung stellt des weiteren, Bonneville zitierend, bereits für das Jahr 1833 einen direkten Zusammenhang her zwischen der Karteikarte und einer kaufmännischen Verzeichnungstechnik. Die Monographie zu den technischen Medien der Kaufleute ist leider noch ungeschrieben oder dem hier ins Spiel geratenen Zettelkasten bislang zumindest unbekannt. Darüber hinaus wäre der Versuch unternommen worden, die isomorphe Logik der Repräsentation von Zetteln und Banknoten sowie ihren Zusammenfall in den Zettel/Daten/Banken zu schildern. So muß die Episode über die Zirkulation von Geld und Ideen ihrerseits auf eine Fußnote zur Bank of England beschränkt bleiben und auf diese Anmerkung.
Der Bogen dieser Geschichte verspricht, mit einer Bibliotheksführung zu beginnen, allerdings nicht im Sinne eines Rundgangs, sondern mit der Markierung eines Orts, wo das Prinzip von Verzettelungen zur Reife und führenden Katalogisierungs-Anwendung gelangt. Enden möchte er hingegen in Bürozeiten, nicht verstanden als geregelte Termine eines beginnenden und auslaufenden Arbeitstags, statt dessen als eine Ära, deren Produktivität noch ohne den Begriff der »Dienstleistung« auskommt und deren Bürogeräte soeben keine Elektrizität kennen."
- RVK
- AN 74160 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Kataloge, Katalogisierung / Kataloge nach der technischen Einrichtung / Zettelkataloge
-
Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004)
0.07
0.06538668 = product of:
0.13077337 = sum of:
0.08429194 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
0.08429194 = score(doc=3183,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.19466174 = fieldWeight in 3183, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.046481416 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
0.046481416 = score(doc=3183,freq=62.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.34108895 = fieldWeight in 3183, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.5 = coord(2/4)
- Abstract
- Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
- Content
- "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
-
Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008)
0.07
0.06538668 = product of:
0.13077337 = sum of:
0.08429194 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
0.08429194 = score(doc=3331,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.19466174 = fieldWeight in 3331, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.046481416 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
0.046481416 = score(doc=3331,freq=62.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.34108895 = fieldWeight in 3331, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.5 = coord(2/4)
- Abstract
- Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
- Footnote
- Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
-
Braeckman, J.: ¬The integration of library information into a campus wide information system (1996)
0.06
0.059004355 = product of:
0.23601742 = sum of:
0.23601742 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.23601742 = score(doc=729,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.5450528 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=729)
0.25 = coord(1/4)
- Abstract
- Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven
-
Chang, S.-F.; Smith, J.R.; Meng, J.: Efficient techniques for feature-based image / video access and manipulations (1997)
0.06
0.059004355 = product of:
0.23601742 = sum of:
0.23601742 = weight(_text_:java in 756) [ClassicSimilarity], result of:
0.23601742 = score(doc=756,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.5450528 = fieldWeight in 756, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=756)
0.25 = coord(1/4)
- Abstract
- Describes 2 research projects aimed at studying the parallel issues of image and video indexing, information retrieval and manipulation: VisualSEEK, a content based image query system and a Java based WWW application supporting localised colour and spatial similarity retrieval; and CVEPS (Compressed Video Editing and Parsing System) which supports video manipulation with indexing support of individual frames from VisualSEEK and a hierarchical new video browsing and indexing system. In both media forms, these systems address the problem of heterogeneous unconstrained collections
-
Lo, M.L.: Recent strategies for retrieving chemical structure information on the Web (1997)
0.06
0.059004355 = product of:
0.23601742 = sum of:
0.23601742 = weight(_text_:java in 3611) [ClassicSimilarity], result of:
0.23601742 = score(doc=3611,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.5450528 = fieldWeight in 3611, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3611)
0.25 = coord(1/4)
- Abstract
- Discusses various structural searching methods available on the Web. some databases such as the Brookhaven Protein Database use keyword searching which does not provide the desired substructure search capabilities. Others like CS ChemFinder and MDL's Chemscape use graphical plug in programs. Although plug in programs provide more capabilities, users first have to obtain a copy of the programs. Due to this limitation, Tripo's WebSketch and ACD Interactive Lab adopt a different approach. Using JAVA applets, users create and display a structure query of the molecule on the web page without using other software. The new technique is likely to extend itself to other electronic publications
-
Kirschenbaum, M.: Documenting digital images : textual meta-data at the Blake Archive (1998)
0.06
0.059004355 = product of:
0.23601742 = sum of:
0.23601742 = weight(_text_:java in 4287) [ClassicSimilarity], result of:
0.23601742 = score(doc=4287,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.5450528 = fieldWeight in 4287, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4287)
0.25 = coord(1/4)
- Abstract
- Describes the work undertaken by the Wiliam Blake Archive, Virginia University, to document the metadata tools for handling digital images of illustrations accompanying Blake's work. Images are encoded in both JPEG and TIFF formats. Image Documentation (ID) records are slotted into that portion of the JPEG file reserved for textual metadata. Because the textual content of the ID record now becomes part of the image file itself, the documentary metadata travels with the image even it it is downloaded from one file to another. The metadata is invisible when viewing the image but becomes accessible to users via the 'info' button on the control panel of the Java applet
-
Priss, U.: ¬A graphical interface for conceptually navigating faceted thesauri (1998)
0.06
0.059004355 = product of:
0.23601742 = sum of:
0.23601742 = weight(_text_:java in 658) [ClassicSimilarity], result of:
0.23601742 = score(doc=658,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.5450528 = fieldWeight in 658, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=658)
0.25 = coord(1/4)
- Abstract
- This paper describes a graphical interface for the navigation and construction of faceted thesauri that is based on formal concept analysis. Each facet of a thesaurus is represented as a mathematical lattice that is further subdivided into components. Users can graphically navigate through the Java implementation of the interface by clicking on terms that connect facets and components. Since there are many applications for thesauri in the knowledge representation field, such a graphical interface has the potential of being very useful