-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.09
0.088401735 = product of:
0.35360694 = sum of:
0.35360694 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.35360694 = score(doc=2673,freq=4.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
-
Bell, S.S.: Librarian's guide to online searching (2006)
0.08
0.08383774 = product of:
0.16767548 = sum of:
0.054519523 = weight(_text_:und in 1420) [ClassicSimilarity], result of:
0.054519523 = score(doc=1420,freq=76.0), product of:
0.14436881 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0650926 = queryNorm
0.37764058 = fieldWeight in 1420, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1420)
0.11315595 = weight(_text_:hierzu in 1420) [ClassicSimilarity], result of:
0.11315595 = score(doc=1420,freq=4.0), product of:
0.43423468 = queryWeight, product of:
6.6710296 = idf(docFreq=152, maxDocs=44421)
0.0650926 = queryNorm
0.2605871 = fieldWeight in 1420, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.6710296 = idf(docFreq=152, maxDocs=44421)
0.01953125 = fieldNorm(doc=1420)
0.5 = coord(2/4)
- Footnote
- Rez. in: Online-Mitteilungen 2007, Nr.90, S.18-21 (M. Katzmayr): "Suzanne S. Bell, Bibliothekarin und einschlägig Lehrende, hat ein bemerkenswertes und thematisch sehr breit angelegtes Lehrbuch zur Datenbankrecherche vorgelegt. Die 12 Kapitel lassen sich in drei thematisch zusammengehörende Teile gruppieren: Der erste Teil (Kap. 1-3) vermittelt Grundkenntnisse über Datenbanken. Nach einem kurzen Abriss zur historischen Entwicklung von gedruckten Referats- und Indexierungsdiensten zu kommerziellen Online-Recherchedatenbanken wird die Struktur von Datenbanken anhand des Zusammenhangs von Feldern, Datensätzen und Registerdateien erläutert. Anschließend werden Boolesche Operatoren und Klammersetzung, Verwendung kontrollierten Vokabulars, feldspezifische Suche, Nähesuche, Trunkierung etc. erklärt. Zusätzlich wird auch eine (leider etwas gespreizte) Einführung in die Berechnung von Relevanz- und Trefferquote gegeben. Im zweiten Teil (Kap. 4-8) werden prominente Datenbanken zu den Sozial-, Geistes- und Naturwissenschaften/Medizin vorgestellt, weiters werden Recherchen in Online-Bibliothekskatalogen bzw. Verbundkatalogen und statistischen Datensammlungen erklärt. Neben einigen eingestreuten wissenswerten Hintergrundinformationen (etwa zu Zitationsindizes oder eine kurze Einführung in die Statistikrecherche) werden die Funktionalitäten. ausgewählter Suchoberflächen mittels Beispielrecherchen und Abbildungen ziemlich detailliert veranschaulicht. Thesauri, Indexlisten und der feldspezifischen Suche wird-dabei viel Raum gewidmet. Hinsichtlich der Recherche in Bibliothekskatalogen bzw. Buchverzeichnissen ist auffallend, dass die Autorin ausschließlich für diese den Begriff bibliographische Datenbanken ("bibliographic databases") verwendet und sie dadurch von Referats- und Indexierungsdiensten abzugrenzen versucht, obwohl letztere in der gängigen Fachsprache (1) ebenfalls als bibliographische Datenbanken gehandelt werden. Unklar ist auch, warum dieses Kapitel ausgerechnet zwischen den Ausführungen zu den naturwissenschaftlich/medizinischen und geisteswissenschaftlichen Indexierungsdiensten platziert wurde.
Der dritte Teil des Buches (Kap. 9-12) beschäftigt sich mit psychologischen, didaktischen und Managementaspekten. Ein sehr interessantes Kapitel ist dem Nutzungsverhalten und dem Auskunftsgespräch gewidmet: so belegen Studien, dass das Internet die erste Anlaufstelle bei Informationsbedürfnissen sei und die dort angewandte Suchstrategie auch bei anderen Recherchewerkzeugen verfolgt werde. Besonders beunruhigend: Bibliothekarlnnen seien für die meisten Studierenden mehr oder weniger die letzte Anlaufstelle für Recherchefragen. Diese Entwicklung habe allerdings die Bedeutung des Auskunftsinterviews nicht etwa verringert, sondern erhöht: So landen bei Bibliothekarinnen vorwiegend schwierig zu beantwortende Fragen, die entsprechende Fertigkeiten in der Kommunikation erfordern. Weiters könne eine erfolgreiche Rechercheberatung dazu führen, dass zukünftige Anfragen erneut an Bibliothekarlnnen herangetragen werden und somit ihr Stellenwert für Recherchefragen wieder steige. Eine wichtige Fähigkeit beim Auskunftsinterview sei, hinter der vordergründig gestellten Frage (z.B.: "wo stehen die Kochbücher?") das wirkliche Informationsbedürfnis ausfindig zu machen (z.B. möchte der Benutzer ein Kochseminar veranstalten und benötigt Informationen über den Aufbau einer Unterrichtseinheit), wozu es ein Zusammenspiel von offenen und geschlossenen Fragen brauche. Wissenswertes zur Anwendung von Chat und E-Mail im bibliothekarischen Auskunftsdienst rundet dieses Kapitel ab. Enttäuschend sind die Ausführungen zur richtigen Wahl der Recherchewerkzeuge, die auf der fragwürdigen Unterscheidung Datenbanken versus Web gründen und darüber hinaus sehr allgemein und auch missverständlich gehalten sind. Die Abgrenzung zwischen Datenbank und Web bleibt dabei unklar und erscheint beliebig: So werden z.B. die Internet Movie Database IMDb und der Buchkatalog Amazon.com dem "Web" zugeordnet, WorldCat und ERIC firmieren hingegen als "Datenbanken". Wissenschaftssuchmaschinen wie Google Scholar oder Scirus werden kaum erwähnt, detto wissenschaftliche Webkataloge, Fachinformationsführer und Virtuelle Fachbibliotheken. Open Access-Archive, die gemeinsam über den Verbundkatalog OAIster abgefragt werden können (unklar ist, wo die Autorin diesen zugeordnet hätte), bleiben ebenfalls ungenannt. Hinsichtlich der Evaluation von Datenbanken wird neben einer Auflistung allgemeiner Charakteristika auch auf das Testen und Vergleichen von Produkten eingegangen. Hierzu ist der Autorin ein vielschichtiger und weitgehend vollständiger Überblick gelungen.
Das letzte Kapitel beschäftigt sich mit der Vermittlung von Recherchekenntnissen: "Teaching and presenting are a vital part of librarianship [...] Our profession may not be in crisis, but we certainly are challenged by the Internet as almost no other profession is. The Internet is ,free`, and libraries are expensive: we are cost centers, not profit centers. It's difficult to quantify the value we give back" (239). Angesichts knapper werdender Budgets müssen sich Bibliotheken immer mehr in Szene setzen, um ihre Existenz zu rechtfertigen - nicht zuletzt mittels Präsentationen und Schulungen. Hierzu werden einige allgemeine Unterrichtsprinzipien sowie Hinweise zu verschiedenen Schulungstypen (Einzelberatungen am Auskunftsschalter, Präsentationen und über ein Semester gehende Lehrveranstaltungen) gegeben. Jedes Kapitel beinhaltet kurze Zusammenfassungen und Verständnisfragen, wobei sich letztere gut in die Lehre integrieren lassen. Am Ende des Bandes befinden sich ein nach Kapiteln geordnetes Literaturverzeichnis (was das Nachschlagen darin unnötig erschwert) und ein umfangreiches Register. Auffallend an diesem Buch ist die Vernachlässigung des Kommandoretrievals bzw. des Umgangs mit klassischen Hosts wie z.B. DIALOG, womit ein völlig anderer Schwerpunkt gesetzt wird als bei aktuellen deutschsprachigen Einführungs- (2) und Lehrtexten (3) zur Thematik. Der Fokus der Autorin liegt auf den für Enduser konzipierten Abfragemasken (z.B. von EBSCO oder OVID) und spiegelt zwar somit zweifellos die praktischen Anforderungen der modernen Bibliothekswelt wider, wo spezifische Abfragesprachen zunehmend an Bedeutung verlieren; allerdings sollten Basiskenntnisse in diesem Bereich nach wie vor zur Allgemeinbildung angehender Bibliothekarlnnen gehören und hätten zumindest in Grundzügen Erwähnung finden sollen. Schließlich gibt es auch didaktische Gründe, das Kommandoretrieval zu lehren, fördert es doch das Verständnis dafür, wie Abfragen "hinter" der Suchoberfläche verarbeitet werden (4). Fazit: der Autorin ist trotz der erwähnten Kritikpunkte ein wirklich gutes Lehrbuch zum breiten Feld der Online-Recherche geglückt, womit auch eine schon seit längerem klaffende Marktlücke geschlossen werden konnte. Wissenschaftliche Bibliotheken werden nicht umhin können, dieses Werk - und sei es nur zum internen Gebrauch - zu erwerben. Einschlägigen Ausbildungsstätten kann darüber hinaus empfohlen werden, es als Basislektüre und Lehrtext im Grundstudium zu verwenden.
-
Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998)
0.08
0.07577291 = product of:
0.30309165 = sum of:
0.30309165 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
0.30309165 = score(doc=4593,freq=4.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.6607038 = fieldWeight in 4593, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=4593)
0.25 = coord(1/4)
- Abstract
- Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
-
Conversations with catalogers in the 21st century (2011)
0.08
0.07506615 = product of:
0.1501323 = sum of:
0.0541163 = weight(_text_:und in 530) [ClassicSimilarity], result of:
0.0541163 = score(doc=530,freq=52.0), product of:
0.14436881 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0650926 = queryNorm
0.3748476 = fieldWeight in 530, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=530)
0.096016005 = weight(_text_:hierzu in 530) [ClassicSimilarity], result of:
0.096016005 = score(doc=530,freq=2.0), product of:
0.43423468 = queryWeight, product of:
6.6710296 = idf(docFreq=152, maxDocs=44421)
0.0650926 = queryNorm
0.22111547 = fieldWeight in 530, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.6710296 = idf(docFreq=152, maxDocs=44421)
0.0234375 = fieldNorm(doc=530)
0.5 = coord(2/4)
- Footnote
- Rez. in Mitt VÖB 64(2011) H.1, S.151-153 (S. Breitling): "Wie sieht die Rolle der Katalogisierung im 21. Jahrhundert aus? In diversen Blogs und Mailinglisten wird darüber seit geraumer Zeit diskutiert. Der Bereich Katalogisierung befindet sich in einer Phase tiefgreifenden Wandels, ausgelöst durch eine Vielzahl von Faktoren, von denen veränderte Nutzererwartungen bei der Recherche und die wachsende Menge an neuen zu katalogisierenden Materialien (e-Books, Web-Ressourcen etc.) und Formaten nur zwei Aspekte darstellen. Das technische Umfeld wird nicht zuletzt durch fortgeschrittene Möglichkeiten im Bereich Retrieval und Präsentation geprägt. Wie schafft man es, dass Katalogisierung als Teil des gesamten Bibliothekswesens relevant und zeitgemäß bleibt? Welche der in Jahrzehnten Katalogisierungspraxis erarbeiteten Standards sind erhaltenswert, und welche sind im Hinblick auf den Fortschritt der IT und ein mögliches Semantic Web vielleicht gar nicht mehr nötig oder müssen an die Gegebenheiten angepasst werden? Mit diesen und anderen Fragen beschäftigt sich die Aufsatzsammlung "Conversations with catalogers in the 21st century". In der Community bekannte Personen wie Martha Yee, Christine Schwartz oder James Weinheimer kommen zu Wort, aus dem deutschsprachigen Raum Bernhard Eversberg, Entwickler des Bibliothekssystems Allegro.
Ein großes Thema ist erwartungsgemäß das neue Regelwerk RDA, das, um es vorwegzunehmen, bei den drei Autoren, die sich ausschließlich diesem Gesichtspunkt widmen, vorwiegend auf Kritik stößt. Erstmals publiziert wird an dieser Stelle eine Studie der Herausgeberin Elaine R. Sanchez, die ein Meinungsbild der einschlägig tätigen Bibliothekarinnen (wie z.B. Titelaufnehmerinnen, Systembibliothekarinnen) zum Umstieg auf RDA zeichnet. Wie in den anderen Kapiteln liegt auch hier der Schwerpunkt auf dem US- bzw. anglo-amerikanischen Raum, was einen Blick über den eigenen Tellerrand ermöglicht und eine Grundstimmung einfängt, der man auch in Europa und hierzulande angesichts internationaler Kooperationen und zunehmend globaler Ausrichtung bei Standards und Regelwerken Beachtung schenken sollte. Andere Beiträge setzen sich mit Themen auseinander, die ebenfalls die Rolle der Katalogisierung unter sich ständig und rasant verändernden Bedingungen betreffen: die Bedeutung von bibliographischen Standards (und Qualitätsstandards im besonderen) im Zeitalter von Google Books, das Titeldaten aus Bibliotheken "nur noch" in einem Mashup mit anderen algorithmisch aufbereiteten Daten verarbeitet; das sich wandelnde Berufsbild von Titelaufnehmerinnen, die mit traditionellen Materialien und Datenformaten arbeiten, hin zu Metadaten-Spezialisten, die sich durch Kenntnisse digitaler Objekte und der entsprechenden Formate wie etwa Dublin Core auszeichnen; Anpassung von Workflows an die technischen Möglichkeiten der Automatisierung und Digitalisierung; Anforderungen an Ausbildung und berufliche Weiterbildung von Katalogisierungsexpertinnen etc. Eine chronologische Bibliographie von Literatur mit Bezug auf Bibliotheken und Katalogisierung von 1800 bis heute beschließt den Band.
Eine wiederkehrende positive Einschätzung ist, dass Katalogisiererinnen sich in der jüngeren Geschichte schon mehrmals Wandel und Veränderungen stellen mußten (z.B. Umstieg von Zettelkatalog auf EDV) und dies auch stets gut gemeistert haben. Allerdings muss man hier anmerken, dass neue Entwicklungen erst mit (großer) Verzögerung nachvollzogen wurden und Bibliotheken heute nicht mehr die einzigen sind, die bibliographische Daten bereitstellen. Es gilt also mehr denn je, sich als ein Player unter vielen zu positionieren und die Rolle neu zu definieren, die Bibliotheken (und vor allem die Katalogisierung als Rückgrat der Informationsversorgung) in einer veränderten Wissens- und Informationslandschaft spielen. Der vorliegende Titel kann hierzu Anregungen und Denkanstöße aus verschiedenen Blickwinkeln, wenn auch keine wirklich revolutionären Ansätze oder gar fertigen Lösungen liefern."
-
Reed, D.: Essential HTML fast (1997)
0.07
0.07143939 = product of:
0.28575757 = sum of:
0.28575757 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
0.28575757 = score(doc=6851,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.62291753 = fieldWeight in 6851, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6851)
0.25 = coord(1/4)
- Abstract
- This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
-
Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997)
0.07
0.07143939 = product of:
0.28575757 = sum of:
0.28575757 = weight(_text_:java in 171) [ClassicSimilarity], result of:
0.28575757 = score(doc=171,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.62291753 = fieldWeight in 171, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=171)
0.25 = coord(1/4)
- Abstract
- Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
-
Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996)
0.07
0.07143939 = product of:
0.28575757 = sum of:
0.28575757 = weight(_text_:java in 604) [ClassicSimilarity], result of:
0.28575757 = score(doc=604,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.62291753 = fieldWeight in 604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=604)
0.25 = coord(1/4)
- Abstract
- Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
-
Ameritech releases Dynix WebPac on NT (1998)
0.07
0.07143939 = product of:
0.28575757 = sum of:
0.28575757 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
0.28575757 = score(doc=2782,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.62291753 = fieldWeight in 2782, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=2782)
0.25 = coord(1/4)
- Abstract
- Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
-
OCLC completes SiteSearch 4.0 field test (1998)
0.07
0.07143939 = product of:
0.28575757 = sum of:
0.28575757 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
0.28575757 = score(doc=3078,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.62291753 = fieldWeight in 3078, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=3078)
0.25 = coord(1/4)
- Abstract
- OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
-
Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998)
0.07
0.07143939 = product of:
0.28575757 = sum of:
0.28575757 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
0.28575757 = score(doc=4618,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.62291753 = fieldWeight in 4618, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=4618)
0.25 = coord(1/4)
- Abstract
- Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
-
Bates, C.: Web programming : building Internet applications (2000)
0.07
0.07143939 = product of:
0.28575757 = sum of:
0.28575757 = weight(_text_:java in 130) [ClassicSimilarity], result of:
0.28575757 = score(doc=130,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.62291753 = fieldWeight in 130, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=130)
0.25 = coord(1/4)
- Object
- Java
-
Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003)
0.07
0.071179345 = product of:
0.14235869 = sum of:
0.107159086 = weight(_text_:java in 55) [ClassicSimilarity], result of:
0.107159086 = score(doc=55,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.23359407 = fieldWeight in 55, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.035199605 = weight(_text_:und in 55) [ClassicSimilarity], result of:
0.035199605 = score(doc=55,freq=22.0), product of:
0.14436881 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0650926 = queryNorm
0.24381724 = fieldWeight in 55, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.5 = coord(2/4)
- Content
- "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
-
Hermes, H.-J.: Bibliothekarische Fortbildung (AG BIB) und AG Dezimalklassifikation (2003)
0.07
0.06988743 = product of:
0.13977486 = sum of:
0.043758847 = weight(_text_:und in 4653) [ClassicSimilarity], result of:
0.043758847 = score(doc=4653,freq=34.0), product of:
0.14436881 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0650926 = queryNorm
0.30310458 = fieldWeight in 4653, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4653)
0.096016005 = weight(_text_:hierzu in 4653) [ClassicSimilarity], result of:
0.096016005 = score(doc=4653,freq=2.0), product of:
0.43423468 = queryWeight, product of:
6.6710296 = idf(docFreq=152, maxDocs=44421)
0.0650926 = queryNorm
0.22111547 = fieldWeight in 4653, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.6710296 = idf(docFreq=152, maxDocs=44421)
0.0234375 = fieldNorm(doc=4653)
0.5 = coord(2/4)
- Content
- "Erster Tag: Bibliothekarische Fortbildung zum Thema "Bibliothekarische Sacherschließung - können wir uns die noch leisten?" Der erste Veranstaltungstag in Cottbus (Dienstag) war für die traditionelle Bibliothekarische Fortbildung organisiert. Es ging diesmal um Kosten. Das Leitreferat lautete dementsprechend: "Bibliothekarische Sacherschließung - können wir uns die noch leisten?" Und der Leitreferent Dr. Klaus Ceynowa von der Staats- und Universitätsbibliothek Göttingen gab seine ExpertenAntwort mit dem ihm zu Gebote stehenden Mittel des Controlling. Heraus kam nach Abklärung der Prämissen ein "Prozesskostensatz" von 16,57 EURO pro Dokument bei einer Bearbeitungszeit von 18 Minuten im Fachreferat. Das alles berechnet nach beispielhaften Annahmen, die in der Realität einer Einzelbibliothek sicher ähnlich ausfallen würden. Eingedenk der stetig steigenden Kosten mögen in Zweifelsfällen die "Zuständigen" (die allemal in höheren Hierarchien angesiedelt sind als wir Bibliothekare) nun entscheiden, ob der Preis für das solchermaßen seriös berechnete Produkt Sacherschließung angemessen ist. Wobei zu bedenken sein würde, dass eine Literatur, die ohne sachliche Erschließung im Online-Katalog angeboten wird, noch teurer sein könnte. Man denke nur an vertane Suchzeiten am Katalog, Erhöhung der Mitarbeiterzahlen am Informationsdienst einer Bibliothek und an den worst case: Das einschlägige Buch bleibt unentdeckt im Regal stehen. Über das Produkt Sacherschließung selbst äußerte sich Dr. Holger Flachmann von der Universitäts- und Landesbibliothek Münster (Effiziente Sacherschließung als Kernaufgabe von Bibliotheken: Perspektiven und Probleme leistungsgerechter bibliothekarischer Produkte). In einem ersten Teil wurden verschiedene Ansatzmöglichkeiten vorgestellt, um die Frage nach der Effizienz der bibliothekarischen Sacherschließung zu präzisieren. Dem schloß sich als beispielhafter Anwendungsfall die Untersuchung der Effizienz eines konkreten Erschließungsverfahrens an, und zwar der verbalen Sacherschließung nach den Regeln für den Schlagwortkatalog (RSWK). Wie man die Erarbeitung des Produkts Sacherschließung wirtschaftlicher gestalten kann, war Gegenstand der Referenten Günter Peters von der Gruner + Jahr-Dokumentation, Hamburg, Prof. Dr. Harald Zimmermann, Universität des Saarlandes und Stefan Wolf vom Bibliotheksservice-Zentrum BadenWürttemberg (BSZ). Alle miteinander waren auf der Suche nach den zukunftsfähigen Erschließungsverfahren, die intellektuelle Leistungen einsparen helfen und trotzdem den Weg zur gewünschten Literatur öffnen können sollen.
Günter Peters legte eine PowerPoint-Datei vor, die er krankheitshalber nicht erläutern konnte. Dem bei Gruner + Jahr eingesetzten System DocCat attestierte er eine erhebliche Kompetenz. Umso bedauerlicher, dass in seiner Abwesenheit in Cottbus lediglich einige seiner Folien mit laienhaftem Kommentar vorgestellt werden konnten. Unser Trost: Vielleicht wird DocCat im März 2004 in Dortmund vom Kollegen Peters vorgeführt. Prof. Zimmermann war einer der Beteiligten bei der Entwicklung des Systems Milos/KASCADE (das bei der Jahrestagung der GfKI in München schon vorgestellt wurde). In Cottbus lieferte Zimmermann Gedanken zur automatisierten verbalen Sacherschließung, wobei er kurz das Milos/KASCADE-Verfahren streifte und an das von Lustig und Knorz in den 80er Jahren entwickelte Verfahren Air/Phys erinnerte. Dort "lernt" das System mit dem Anwachsen eines lexikalischen Inventars (ISBN 3-48707825-2). Leider ist die Weiterentwicklung von Air/Phys aber unterblieben. Stefan Wolf vom BSZ berichtete über den anderen Weg, Sacherschließung zu erleichtern, nämlich durch Übernahme von Fremdleistungen. Aktuelle Maßnahme hierzu war die Übernahme von Erschließungsdaten sowohl klassifikatorischer als auch verbaler Art aus dem Bibliotheks-Verbund Bayern (BVB) in die Titelaufnahmen, die der Südwestverbund vorhält. Im Frühjahr 2002 verfügte der Südwestverbund über 1,6 Millionen Schlagwortketten an 1,3 Millionen Titeln. Bei der klassifikatorischen Sacherschließung durch die Regensburger Verbundklassifikation (RVK) verfügte der Verbund über lediglich 2% Erschließung. Nach der Anreicherung der Titeldaten durch Übernahme von Bayerischen Sacherschließungsdaten im Laufe des Jahres 2002 verfügten nunmehr 2.4 Millionen Titelaufnahmen über verbale Erschließung (24,9 % von derzeit 9,6 Millionen Titeln Gesamtbestand) und über 18,2 % klassifikatorische Erschließung mit RVK. Dieser Zugang an intellektueller Indexierung fließt derzeit in die Online-Kataloge der angeschlossenen Bibliotheken und eröffnet dort den Nutzern die sachlichen Zugänge zu ihren Schätzen. Abgerundet wurde die Thematik durch Berichte aus Bibliotheken und einer sachlich nahestehenden Einrichtung, so von Jiri Pika von der ETH-Bibliothek in Zürich, Kerstin Zimmerman vom Forschungszentrum Telekommunikation Wien, Horst Lindner von der Universitätsbibliothek der Brandenburgischen Technischen Universität Cottbus und Dörte Braune-Egloff von der UB der Freien Universität Berlin. Wobei Frau Braune-Egloff deutlich machte, dass die von Ihr vertretene Bibliothek zwar zentrale Aufgaben im Bereich der SWD-Kooperation im Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV). wahrnimmt, allerdings nicht komplett diejenigen einer "Verbundzentrale Sacherschliessung" im herkömmlichen Sinn. Die Vorträge bzw. Power-Point-Präsentationen von Cottbus werden bei Erscheinen des Mitgliederbriefes bereits auf dem Archivserver MONARCH der TU Chemnitz verfügbar sein. Die Adresse: http://archiv.tu-chemnitz.de. In der Sache ein klares Eingeständnis: Noch sind wir nicht so weit, dass sich beispielsweise eine Scan-Apparatur gleichsam in ein Buch versenkt und anschließend dem Online Katalog der besitzenden Bibliothek einen oder mehrere Erschließungsdatensätze hinzufügt. Zum Glück nicht, denn dann könnten die Bibliothekare die Reise nach Dortmund von vornherein unterlassen. So wie die Dinge liegen, gibt es noch viel Neues zu entdecken und Gedanken darüber auszutauschen. Daher schon jetzt mein Aufruf: Die Dortmunder Tagung vom Dienstag, 9. bis Donnerstag, 11. März 2004 vormerken!"
-
Booth, P.F.: Indexing : the manual of good practice (2001)
0.07
0.069515586 = product of:
0.13903117 = sum of:
0.04850641 = weight(_text_:und in 2968) [ClassicSimilarity], result of:
0.04850641 = score(doc=2968,freq=94.0), product of:
0.14436881 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0650926 = queryNorm
0.33598953 = fieldWeight in 2968, product of:
9.69536 = tf(freq=94.0), with freq of:
94.0 = termFreq=94.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=2968)
0.09052476 = weight(_text_:hierzu in 2968) [ClassicSimilarity], result of:
0.09052476 = score(doc=2968,freq=4.0), product of:
0.43423468 = queryWeight, product of:
6.6710296 = idf(docFreq=152, maxDocs=44421)
0.0650926 = queryNorm
0.20846967 = fieldWeight in 2968, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.6710296 = idf(docFreq=152, maxDocs=44421)
0.015625 = fieldNorm(doc=2968)
0.5 = coord(2/4)
- Footnote
- Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.7, S.440-442 (R. Fugmann): "Das Buch beginnt mit dem Kapitel "Myths about Indexing" und mit der Nennung von weit verbreiteten Irrtümern über das Indexieren, und zwar vorrangig über das Registermachen. Mit einem einzigen Satz ist die Problematik treffend skizziert, welcher das Buch gewidmet ist: "With the development of electronic documents, it has become possible to store very large amounts of information; but storage is not of much use without the capability to retrieve, to convert, transfer and reuse the information". Kritisiert wird die weit verbreitet anzutreffende Ansicht, das Indexieren sei lediglich eine Sache vom "picking out words from the text or naming objects in images and using those words as index headings". Eine solche Arbeitsweise führt jedoch nicht zu Registern, sondern zu Konkordanzen (d.h. zu alphabetischen Fundstellenlisten für Textwörter) und"... is entirely dependent an the words themselves and is not concerned with the ideas behind them". Das Sammeln von Information ist einfach. Aber die (Wieder-) Auffindbarkeit herzustellen muss gelernt werden, wenn mehr ermöglicht werden soll als lediglich das Wiederfinden von Texten, die man in allen Einzelheiten noch genau in Erinnerung behalten hat (known-item searches, questions of recall), die Details der sprachlichen Ausdrucksweise für die gesuchten Begriffe eingeschlossen. Die Verfasserin beschreibt aus ihrer großen praktischen Erfahrung, welche Schritte hierzu auf der gedanklichen und technischen Ebene unternommen werden müssen. Zu den erstgenannten Schritten rechnet die Abtrennung von Details, welche nicht im Index vertreten sein sollten ("unsought terms"), weil sie mit Sicherheit kein Suchziel darstellen werden und als "false friends" zur Überflutung des Suchenden mit Nebensächlichkeiten führen würden, eine Entscheidung, welche nur mit guter Sachkenntnis gefällt werden kann. All Dasjenige hingegen, was in Gegenwart und Zukunft (!) ein sinnvolles Suchziel darstellen könnte und "sufficiently informative" ist, verdient ein Schlagwort im Register. Man lernt auch durch lehrreiche Beispiele, wodurch ein Textwort unbrauchbar für das Register wird, wenn es dort als (schlechtes) Schlagwort erscheint, herausgelöst aus dem interpretierenden Zusammenhang, in welchen es im Text eingebettet gewesen ist. Auch muss die Vieldeutigkeit bereinigt werden, die fast jedem natursprachigen Wort anhaftet. Sonst wird der Suchende beim Nachschlagen allzu oft in die Irre geführt, und zwar um so öfter, je größer ein diesbezüglich unbereinigter Speicher bereits geworden ist.
Der Zugang zum Informationsspeicher ist auch von verwandten Begriffen her zu gewährleisten, denn der Suchende lässt sich gern mit seiner Fragestellung zu allgemeineren und vor allem zu spezifischeren Begriffen leiten. Verweisungen der Art "siehe auch" dienen diesem Zweck. Der Zugang ist auch von unterschiedlichen, aber bedeutungsgleichen Ausdrücken mithilfe einer Verweisung von der Art "siehe" zu gewährleisten, denn ein Fragesteller könnte sich mit einem von diesen Synonymen auf die Suche begeben haben und würde dann nicht fündig werden. Auch wird Vieles, wofür ein Suchender sein Schlagwort parat hat, in einem Text nur in wortreicher Umschreibung und paraphrasiert angetroffen ("Terms that may not appear in the text but are likely to be sought by index users"), d.h. praktisch unauffindbar in einer derartig mannigfaltigen Ausdrucksweise. All dies sollte lexikalisch ausgedrückt werden, und zwar in geläufiger Terminologie, denn in dieser Form erfolgt auch die Fragestellung. Hier wird die Grenze zwischen "concept indexing" gegenüber dem bloßen "word indexing" gezogen, welch letzteres sich mit der Präsentation von nicht interpretierten Textwörtern begnügt. Nicht nur ist eine solche Grenze weit verbreitet unbekannt, ihre Existenz wird zuweilen sogar bestritten, obwohl doch ein Wort meistens viele Begriffe ausdrückt und obwohl ein Begriff meistens durch viele verschiedene Wörter und Sätze ausgedrückt wird. Ein Autor kann und muss sich in seinen Texten oft mit Andeutungen begnügen, weil ein Leser oder Zuhörer das Gemeinte schon aus dem Zusammenhang erkennen kann und nicht mit übergroßer Deutlichkeit (spoon feeding) belästigt sein will, was als Unterstellung von Unkenntnis empfunden würde. Für das Retrieval hingegen muss das Gemeinte explizit ausgedrückt werden. In diesem Buch wird deutlich gemacht, was alles an außertextlichem und Hintergrund-Wissen für ein gutes Indexierungsergebnis aufgeboten werden muss, dies auf der Grundlage von sachverständiger und sorgfältiger Interpretation ("The indexer must understand the meaning of a text"). All dies lässt gutes Indexieren nicht nur als professionelle Dienstleistung erscheinen, sondern auch als Kunst. Als Grundlage für all diese Schritte wird ein Thesaurus empfohlen, mit einem gut strukturierten Netzwerk von verwandtschaftlichen Beziehungen und angepasst an den jeweiligen Buchtext. Aber nur selten wird man auf bereits andernorts vorhandene Thesauri zurückgreifen können. Hier wäre ein Hinweis auf einschlägige Literatur zur Thesaurus-Konstruktion nützlich gewesen.
Es wird auch die Frage erörtert, wer wegen seines Naturells lieber Abstand vom Indexieren nehmen sollte. Diese Ausführungen sind ebenso nützlich wie die konkrete Indexierungsanleitung. Es könnte manch einem erspart bleiben, sich einer Arbeit zuzuwenden, mit der er überfordert wäre. Hier klärt sich auch die oft gestellte Frage, wer ein Register erstellen soll, der Autor oder ein professioneller Indexer: Der Autor ist dieser Aufgabe gewachsen, sofern er das Indexieren gelernt hat, und zwar mehr als lediglich das Entnehmen von Textwörtern (oder ihrer morphologischen Varianten) und deren programmierte Weiterverarbeitung. Auch darf der Autor beim Indexieren nicht nur die eigene Terminologie im Kopf haben. Der professionelle Indexer ist dieser Aufgabe erst recht gewachsen, wenn er sich auf dem Sachgebiet der Texte gut auskennt. Manch ein Buchautor, der glaubt (oder sich einreden lässt), dass er zum Indexieren nur den Markierstift und die Kenntnis vom Alphabet braucht, müsste sich hier den Spiegel vorhalten, oder auch ein Verleger, der in solchen oder ähnlichen Primitivvarianten eine billige und vollwertige Alternative erblickt. Ein Buch dieser Art lädt zu einem Seitenblick auf die Situation der professionellen Indexierung hierzulande ein. Weder ist hier eine Indexierungs-Profession etabliert, noch scheint sie bei Verlegern und Autoren wenigstens so weit bekannt zu sein, dass sich eine solche Profession entwickeln könnte. Das Ergebnis sind Buchregister voller Anfängerfehler, zum Beispiel überfüllt mit unsinnigen Schlagwörtern (Beispiele hierzu sind in diesem Buch aufgeführt) oder mit Schlagwörtern in unvorhersehbaren und dadurch wertlosen Formulierungen, und dies selbst im informationswissenschaftlichen Lehrbuch oder in der Enzyklopädie. Viele Schlagwörter für wichtige Themen fehlen oftmals gänzlich. Das Nachschlagen gestaltet sich dann zur ungeliebten Mühe und Glücksache. Das Ergebnis sind demzufolge hierzulande Bücher meistens weit unter demjenigen Wert, den sie hätten, wenn sie durch ein gutes Register erschlossen wären.
Die interpretationslos zusammengestellten "Register" sind auch daran zu erkennen, dass ihnen die informativen, mit viel Sprachgefühl und Sachkenntnis formulierten Untereinträge fehlen, für deren Gestaltung im Buch zahlreiche Ratschläge gegeben werden. Das Resümee von Booth lautet: Wenn ein Indexierungsprogramm brauchbare Ergebnisse erbringen soll, dann kann es nicht vollautomatisch sein. Neben diesen Ausführungen zum gedanklichen Teil der Indexierungsarbeit bietet das Buch auch eine Fülle von Ratschlägen zum rein technischen Teil, speziell zur Orthographie und Typographie des Registers. Vieles, was für den anglo-amerikanischen Sprachraum gilt, könnte direkt für deutschsprachige Register übernommen werden. Dies betrifft z.B. die Singular/PluralFrage bei den Schlagwörtern, die Übersichtlichkeit der Registergestaltung, die Verwendung verschiedener Schriftarten, usw. Ratschläge für die praktische Arbeit werden reichlich gegeben, z.B. wie man sich verhält, wenn der Platz für das Register nachträglich eingeschränkt wird oder wenn zusätzlich Platz zur Verfügung gestellt wird. Man erfährt, wo man sich seine Ausbildung holt (und zwar eine, die über die naive Entnahme von Textwörtern und deren programmierte Weiterverarbeitung hinausgeht), wie man Arbeitsverträge abschließt und Kontakte knüpft, z.B. mit künftigen Auftraggebern oder auch mit Fachkollegen zum Erfahrungsaustausch, wie man sich einen gesunden Arbeitsplatz einrichtet und seine Arbeitszeit einteilen sollte, welche Gesellschaften zum Indexierungsproblem es weltweit gibt und welche Fachzeitschriften man sich halten sollte, um auf dem Laufenden zu bleiben. Es werden auch die Registerprobleme bei einer Neuauflage erörtert. Das Buch möchte eine Anleitung nicht nur zum Buchindexieren geben, sondern auch zum Indexieren von Datenbanken für Zeitschriften. Diesen Anspruch erfüllt das Buch jedoch weniger gut, denn auf die dort akuten Probleme wird nicht genügend eingegangen, wie z.B. auf die Problematik der Präkombinationen und einer retrievaltauglichen Syntax, auf das Problem des schleichenden Verlusts an Vokabularübersichtlichkeit, einer ausreichend hohen (anfänglich stets übertrieben erscheinenden) Indexierungsspezifität und des ständigen Kampfs mit den Controllern und Unternehmensberatern, welche glauben, vorrangig bei der Indexierung Kosten einsparen zu können, weil sie den Nutzen einer guten Indexierung nicht messen können, deswegen nicht zu würdigen wissen (und damit letztlich Fortbestand und Zukunft eines ganzen Dokumentationsunternehmens gefährden). Es ist wohltuend zu lesen, dass Perfektion beim Indexieren aus der Sicht späterer Nutzer "kaum" zu erreichen ist (was im angloamerikanischen Sprachgebrauch so viel bedeutet wie "überhaupt nicht").
Zwar ist das Register zu diesem Buch ein Vorbild, und dem Verlag sei gedankt, dass dem Register neun Prozent vom Buchumfang zugestanden worden sind. Aber auch hier vermisst man noch immer Schlagwörter wie z.B. "Interpretation" oder "Cutter's Rule" (für die Notwendigkeit, die jeweils besttreffenden Schlagwörter aus dem Indexsprachenwortschatz beim Indexieren zu benutzen), alles Themen, die im Buch abgehandelt sind. Wohltuend ist auch die undogmatische Art, in welcher verschiedene formale Indexierungsvarianten als zulässige Alternativen nebeneinander gestellt werden. Unkonventionell ist es beispielsweise im Register zu diesem Buch, dass ein Schlagwort dort auch schon dann durch Untereinträge aufgegliedert wird, wenn es weniger als fünf bis sechs Fundstellenangaben hat. Wohltuend auch die Unvoreingenommenheit, in welcher die Stärken von nicht interpretierter Volltextverarbeitung dort hervorgehoben werden, wo sie zum Zug kommen können, wie z.B. bei simplen Erinnerungs- und Namenrecherchen. Ein wenig ins Auge springender Ratschlag an jeden, der beruflichen oder privaten Schriftwechsel führt oder Fachliteratur liest, verdient hervorgehoben zu werden. Es ist ratsam, frühzeitig mit einer wenigstens rudimentären Indexierung seines Schrifttums zu beginnen, nicht erst dann, wenn einem seine private Sammlung über den Kopf gewachsen ist und wenn sich die Suchfehlschläge häufen und an den Nerven zu zehren beginnen. Die Erinnerung an den Wortlaut der gesuchten Dokumente, worauf man sich anfänglich noch stützen kann, ist nämlich bald verblasst und steht dann nicht mehr als Suchhilfe zur Verfügung. Allerdings wird man für den Eigenbedarf keine derartig ausführliche Einführung in die Theorie und Praxis des Indexierens benötigen, wie sie in diesem Buch geboten wird. Hierfür gibt es andernorts gute Kurzfassungen. Wer dieses Buch als Indexierungsneuling gelesen hat, wird die Indexierungsarbeit und ein Buchregister fortan mit anderen Augen ansehen, nämlich als einen wesentlichen Teil eines Buchs, besonders wenn es sich um ein Nachschlagewerk handelt. Schon eine kurze Einblicknahme in das Buch könnte das Management, einen Verleger oder einen Buchautor davor warnen, all denjenigen Glauben zu schenken, welche behaupten, den Indexer durch ihr vollautomatisches Computerprogramm ersetzen zu können. Das Indexieren umfasst das Übersetzen als einen Teilschritt, nämlich das Übersetzen der Essenz eines Textes oder eines Bildes in eine Indexsprache mit ihrem geregelten Wortschatz. Was man in der Praxis von vollautomatischen Übersetzungen her kennt, selbst von den bisher am weitesten entwickelten Programmen, sollte hier zur Warnung dienen."
-
Ansorge, K.: Das was 2007 (2007)
0.07
0.06502194 = product of:
0.13004388 = sum of:
0.05003054 = weight(_text_:und in 3405) [ClassicSimilarity], result of:
0.05003054 = score(doc=3405,freq=64.0), product of:
0.14436881 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0650926 = queryNorm
0.34654674 = fieldWeight in 3405, product of:
8.0 = tf(freq=64.0), with freq of:
64.0 = termFreq=64.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3405)
0.08001334 = weight(_text_:hierzu in 3405) [ClassicSimilarity], result of:
0.08001334 = score(doc=3405,freq=2.0), product of:
0.43423468 = queryWeight, product of:
6.6710296 = idf(docFreq=152, maxDocs=44421)
0.0650926 = queryNorm
0.1842629 = fieldWeight in 3405, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.6710296 = idf(docFreq=152, maxDocs=44421)
0.01953125 = fieldNorm(doc=3405)
0.5 = coord(2/4)
- Content
- Darin u.a: "Netzpublikationen - Die DNB hat mit Inkrafttreten des Gesetzes über die Deutsche Nationalbibliothek im Jahr 2006 den Auftrag der Sammlung, Erschließung, Verzeichnung und Archivierung von Netzpublikationen erhalten. Zum Sammelgebiet Netzpublikationen gehören alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden. Die Abgabepflicht umfasst sowohl Internetveröffentlichungen mit Entsprechungen zum Printbereich als auch webspezifische Medienwerke." "Kataloganreicherung - In Gesprächen mit dem Deutschen Bibliotheksverband und dem Börsenverein des Deutschen Buchhandels hatte sich die DNB bereiterklärt, die Rolle eines zentralen Dienstleisters bei der Verbreitung digitaler Zusatzinformationen zu bibliografischen Daten zu übernehmen. Für die Anreicherung der Daten der Deutschen Nationalbibliografie mit qualitativ hochwertigen Zusatzinformationen (recherchierbare PDF-Dokumente) konnten im Jahr 2007 die Weichen gestellt werden. Seit Jahresbeginn 2008 werden die Inhaltsverzeichnisse der jährlich rund 75.000 monografischen Neuerscheinungen des Verlagsbuchhandels gescannt und als ergänzende bibliografische Daten über das Internet und die Datendienste der DNB angeboten. Im Rahmen der bestehenden Kooperation mit der MVB Marketing- und Verlagsservice des Buchhandels GmbH werden zukünftig neben den Daten des VLB (Verzeichnis Lieferbarer Bücher) auch die entstehenden Zusatzinformationen ausgetauscht."
"Standardisierung - Auch 2007 ist die Arbeitsstelle für Standardisierung (AfS) auf dem Weg zur Internationalisierung der deutschen Regelwerke, Formate und Normdateien entscheidende Schritte vorangekommen. Im Mittelpunkt der Vorbereitungen für den Format-umstieg standen eine Konkordanz von MAB2 nach MARC 21 und die Festlegung neuer Felder, die für den Umstieg auf nationaler Ebene notwendig sind. Neben einer Vielzahl anderer Aktivitäten hat die DNB zwei Veranstaltungen zum Format-umstieg durchgeführt. In Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses wurden drei Stellungnahmen zu Entwürfen des Regelwerkes »Resource Description and Access (RDA)« erarbeitet; es fand eine Beteiligung an der internationalen Diskussion zu wichtigen Grundlagen statt. Der Erfüllung des Wunsches nach Einführung der Onlinekommunikation mit Normdateien ist die DNB im vergangenen Jahr deutlich nähergekommen: Änderungen an Normdaten sollen gleichzeitig in die zentral bei der DNB gehaltenen Dateien und in der Verbunddatenbank vollzogen werden. Seit Anfang September ist die erste Stufe der Onlinekommunikation im produktiven Einsatz: Die PND-Redaktionen in den Aleph-Verbünden arbeiten online zusammen. Das neue Verfahren wird sich auf alle bei der DNB geführten Normdaten erstrecken und in einem gestuften Verfahren eingeführt werden. Die DNB war in zahlreichen Standardisierungsgremien zur Weiterentwicklung von Metadatenstandards wie z.B. Dublin Core und ONIX (Online Information eXchange) sowie bei den Entwicklungsarbeiten für The European Library beteiligt. Die Projektarbeiten im Projekt KIM - Kompetenzzentrum Interoperable Metadaten wurden maßgeblich unterstützt. Im Rahmen der Arbeiten zum Gesetz über die Deutsche Nationalbibliothek wurde ein Metadatenkernset für die Übermittlung von Metadaten an die DNB entwickelt und in einer ersten Stufe mit einem ONIX-Mapping versehen. Innerhalb des Projektes »Virtual International Authority File - VIAF« entwickelten die Library of Congress (LoC), die DNB und OCLC - zunächst für Personennamen - gemeinsam eine virtuelle, internationale Normdatei, in der die Normdatensätze der nationalen Normdateien im Web frei zugänglich miteinander verbunden werden sollen. Die bisherigen Projektergebnisse haben die Machbarkeit einer internationalen Normdatei eindrucksvoll unter Beweis gestellt. Darum haben die Projektpartner in einem neuen Abkommen, das auch die Bibliothèque Nationale de France einschließt, im Oktober 2007 ihr Engagement für den VIAF nochmals bekräftigt und damit eine Konsolidierungs- und Erweiterungsphase eingeleitet."
"DDC-Deutsch - Bereits im Jahr 2006 wurde die Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung der in den Reihen B (Monografien und Periodika außerhalb des Verlagsbuchhandels) und H (Hochschulschriften) der Deutschen Nationalbibliografie angezeigten Publikationen eingeführt. Mit Heft 1/2007 hat die DDC auch in der Reihe A (Monografien und Periodika des Verlagsbuchhandels) Einzug gehalten. Die dort angezeigten Publikationen werden zusätzlich wie bisher vollständig mit RSWK Schlagwortketten erschlossen. Die DNB wird damit zum größten europäischen Lieferanten von Dewey-Notationen und nimmt nach der LoC weltweit die zweite Stelle ein. Durch die Integration der Daten der DNB in den WorldCat werden Sichtbarkeit und Nutzungsmöglichkeiten dieses Angebots auch über den deutschsprachigen Raum hinaus verbessert. Um den Informationsaustausch unter den europäischen DDC-Anwendern zu verbessern, europäische Belange in der Klassifikation stärker durchzusetzen und die Verbreitung in Europa gemeinsam mit OCLC zu koordinieren, wurde die EDUG (European DDC Users' Group) gegründet."
"CrissCross - Ende Januar 2006 startete das von der DNB und der Fachhochschule Köln gemeinsam betriebene und von der DFG geförderte Projekt CrissCross. Das Projekt soll ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular schaffen. Hierzu werden die Sachschlagwörter der Schlagwortnormdatei (SWD) mit den DDC-Notationen verbunden. Die Multilingualität wird durch die Verknüpfung mit ihren Äquivalenten in den beiden umfassenden Schlagwortnormdateien Library of Congress Subject Headings (LCSH) und Rameau (Répertoire d'autorité-matière encyclopédique et alphabétique unifié) erreicht. Die im Rahmen des Projekts erarbeiteten Festlegungen zur methodischen Vorgehensweise bei der Verknüpfung der DDC mit den SWD-Sachschlagwörtern wurden weiter präzisiert und fortentwickelt. Für die zweite Komponente des Projekts, die Anreicherung der in der Datenbank des MACS-Projekts vorliegenden Verbindungen zwischen LCSH und Rameau um den äquivalenten SWD-Terminus, wurde eine Vervollständigung und eine Verbesserung der Datenbasis erreicht und Tests der Verlinkung durchgeführt."
"DDC-vascoda - Das Projekt DDC-vascoda wurde 2007 abgeschlossen. Für den Sucheinstieg bei vascoda wurde bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungs-)Jahr kombiniert werden kann, angeboten. Die Suche konnte zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Vascoda verwendete die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument. Ziel des Projektes DDC-vascoda war es, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Weiterhin wurde ein HTML-Dienst entwickelt, der es Fachportalen und anderen Datenanbietern ermöglicht, ohne großen Programmieraufwand ein DDC-Browsing über die eigenen Daten bereitzustellen."
-
Braeckman, J.: ¬The integration of library information into a campus wide information system (1996)
0.06
0.06250946 = product of:
0.25003785 = sum of:
0.25003785 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.25003785 = score(doc=729,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.5450528 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=729)
0.25 = coord(1/4)
- Abstract
- Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven
-
Chang, S.-F.; Smith, J.R.; Meng, J.: Efficient techniques for feature-based image / video access and manipulations (1997)
0.06
0.06250946 = product of:
0.25003785 = sum of:
0.25003785 = weight(_text_:java in 756) [ClassicSimilarity], result of:
0.25003785 = score(doc=756,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.5450528 = fieldWeight in 756, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=756)
0.25 = coord(1/4)
- Abstract
- Describes 2 research projects aimed at studying the parallel issues of image and video indexing, information retrieval and manipulation: VisualSEEK, a content based image query system and a Java based WWW application supporting localised colour and spatial similarity retrieval; and CVEPS (Compressed Video Editing and Parsing System) which supports video manipulation with indexing support of individual frames from VisualSEEK and a hierarchical new video browsing and indexing system. In both media forms, these systems address the problem of heterogeneous unconstrained collections
-
Lo, M.L.: Recent strategies for retrieving chemical structure information on the Web (1997)
0.06
0.06250946 = product of:
0.25003785 = sum of:
0.25003785 = weight(_text_:java in 3611) [ClassicSimilarity], result of:
0.25003785 = score(doc=3611,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.5450528 = fieldWeight in 3611, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3611)
0.25 = coord(1/4)
- Abstract
- Discusses various structural searching methods available on the Web. some databases such as the Brookhaven Protein Database use keyword searching which does not provide the desired substructure search capabilities. Others like CS ChemFinder and MDL's Chemscape use graphical plug in programs. Although plug in programs provide more capabilities, users first have to obtain a copy of the programs. Due to this limitation, Tripo's WebSketch and ACD Interactive Lab adopt a different approach. Using JAVA applets, users create and display a structure query of the molecule on the web page without using other software. The new technique is likely to extend itself to other electronic publications
-
Kirschenbaum, M.: Documenting digital images : textual meta-data at the Blake Archive (1998)
0.06
0.06250946 = product of:
0.25003785 = sum of:
0.25003785 = weight(_text_:java in 4287) [ClassicSimilarity], result of:
0.25003785 = score(doc=4287,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.5450528 = fieldWeight in 4287, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4287)
0.25 = coord(1/4)
- Abstract
- Describes the work undertaken by the Wiliam Blake Archive, Virginia University, to document the metadata tools for handling digital images of illustrations accompanying Blake's work. Images are encoded in both JPEG and TIFF formats. Image Documentation (ID) records are slotted into that portion of the JPEG file reserved for textual metadata. Because the textual content of the ID record now becomes part of the image file itself, the documentary metadata travels with the image even it it is downloaded from one file to another. The metadata is invisible when viewing the image but becomes accessible to users via the 'info' button on the control panel of the Java applet
-
Priss, U.: ¬A graphical interface for conceptually navigating faceted thesauri (1998)
0.06
0.06250946 = product of:
0.25003785 = sum of:
0.25003785 = weight(_text_:java in 658) [ClassicSimilarity], result of:
0.25003785 = score(doc=658,freq=2.0), product of:
0.4587406 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0650926 = queryNorm
0.5450528 = fieldWeight in 658, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=658)
0.25 = coord(1/4)
- Abstract
- This paper describes a graphical interface for the navigation and construction of faceted thesauri that is based on formal concept analysis. Each facet of a thesaurus is represented as a mathematical lattice that is further subdivided into components. Users can graphically navigate through the Java implementation of the interface by clicking on terms that connect facets and components. Since there are many applications for thesauri in the knowledge representation field, such a graphical interface has the potential of being very useful