Search (1208 results, page 2 of 61)

  • × language_ss:"e"
  1. Hawk, J.: OCLC SiteSearch (1998) 0.09
    0.08904038 = product of:
      0.35616153 = sum of:
        0.35616153 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
          0.35616153 = score(doc=3079,freq=4.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.7708211 = fieldWeight in 3079, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3079)
      0.25 = coord(1/4)
    
    Abstract
    Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
  2. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.09
    0.08904038 = product of:
      0.35616153 = sum of:
        0.35616153 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
          0.35616153 = score(doc=2673,freq=4.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.7708211 = fieldWeight in 2673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2673)
      0.25 = coord(1/4)
    
    Abstract
    The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
  3. Schroeder, K.: Persistent Identifiers im Kontext der Langzeitarchivierung : EPICUR auf dem 2. Bibliothekskongress in Leipzig (2004) 0.08
    0.0842727 = product of:
      0.1685454 = sum of:
        0.04937386 = weight(_text_:und in 3787) [ClassicSimilarity], result of:
          0.04937386 = score(doc=3787,freq=24.0), product of:
            0.1454118 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06556286 = queryNorm
            0.33954507 = fieldWeight in 3787, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3787)
        0.11917153 = weight(_text_:hinter in 3787) [ClassicSimilarity], result of:
          0.11917153 = score(doc=3787,freq=2.0), product of:
            0.42046776 = queryWeight, product of:
              6.4132004 = idf(docFreq=197, maxDocs=44421)
              0.06556286 = queryNorm
            0.28342608 = fieldWeight in 3787, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4132004 = idf(docFreq=197, maxDocs=44421)
              0.03125 = fieldNorm(doc=3787)
      0.5 = coord(2/4)
    
    Abstract
    Mit elektronischem Publizieren werden folgende Eigenschaften verbunden: »schnell, kostengünstig, weltweit«. Aber ist das aus Nutzersicht bzw. aus der Perspektive der Autoren ausreichend, um eine Online-Veröffentlichung dauerhaft zu nutzen und zuverlässig zu zitieren? Ein Mechanismus, mit dem netzbasierte Publikationen eindeutig gekennzeichnet werden und jederzeit auffindbar sind, wird durch flüchtige Uniform Resource Locator (URLs) nicht bereitgestellt. Eine Lösung bieten Persistent Identifiers (Pls), wie z. B. Uniform Resource Names (URN)". Damit die Anwendung eines persistenten Adressierungsschemas wie den URNs langfristig gewährleistet werden kann, muss eine Infrastruktur mit einer institutionellen Unterstützung geschaffen werden. Ein wesentlicher Aspekt in diesem Kontext ist die Langzeitarchivierung der digitalen Objekte. Die Darstellung und Erläuterung der Schnittstellen zwischen Langzeitarchivierung und Pls sowie der damit verbundenen Aktivitäten und Ergebnisse des EPICUR-Projektes war Gegenstand des Vortrages von Kathrin Schroeder auf dem diesjährigen z. Bibliothekskongress in Leipzig im Rahmen des Workshops »Technische Aspekte der Langzeitarchivierung«". Es besteht ein enger Zusammenhang zwischen den Bereichen Pls (standortunabhängige, eindeutige Bezeichner für digitale Objekte) und Langzeitarchivierung (Maßnahmen, die dazu dienen, digitale Objekte für die Nachwelt dauerhaft zu erhalten): Pls werden als stabiler Zugriffsmechanismus für digitale Objekte verwendet, die in einem Depotsystem archiviert werden. Ein Depotsystem ist ein »( ...) Archiv für digitale Objekte, in dem Menschen und Systeme als 'Organisation' mit der Aufgabenstellung zusammenwirken, Informationen zu erhalten und einer definierten Nutzerschaft verfügbar zu machen.« Dazu gehören im erweiterten Sinne auch eine Infrastruktur vor der Eingangsschnittstelle des Depotsystems, die zum Transfer digitaler Objekte von den Produzenten in das Archiv dient, und die Infrastruktur der Endnutzer-Umgebungen hinter der Auslieferungsschnittstelle des Depotsystems, in denen die digitalen Objekte benutzt werden sollen. In diesem Umfeld werden Pls in folgenden Bereichen angewendet: - Metadaten, - Datenaustauschformate, - Automatisierte Lieferungen von Objekten in ein Archivsystem, - Depotsystem und - Nutzung von Pls als stabiler Zugriffsmechanismus auf ein Objekt als wichtigster Aspekt für den Endnutzer (Wissenschaftler und Autoren). Im Folgenden werden zu den einzelnen Bereichen die Ergebnisse des EPICUR-Projektes und die Aktivitäten Der Deutschen Bibliothek diskutiert.
  4. Hauer, M.: Collaborative catalog enrichment : 4. Benutzertreffen intelligentCAPTURE / dandelon.com (2007) 0.08
    0.08138552 = product of:
      0.16277105 = sum of:
        0.05849596 = weight(_text_:und in 1515) [ClassicSimilarity], result of:
          0.05849596 = score(doc=1515,freq=44.0), product of:
            0.1454118 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06556286 = queryNorm
            0.40227795 = fieldWeight in 1515, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1515)
        0.10427509 = weight(_text_:hinter in 1515) [ClassicSimilarity], result of:
          0.10427509 = score(doc=1515,freq=2.0), product of:
            0.42046776 = queryWeight, product of:
              6.4132004 = idf(docFreq=197, maxDocs=44421)
              0.06556286 = queryNorm
            0.24799782 = fieldWeight in 1515, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4132004 = idf(docFreq=197, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1515)
      0.5 = coord(2/4)
    
    Abstract
    dandelon.com hat im deutschsprachigen Raum die Suche nach wissenschaftlichen Büchern revolutioniert. Durch Scanning und Digitalisierung von Inhaltsverzeichnissen entsteht eine neue Qualität bei der wissenschaftlichen Literatursuche. Dahinter steckt mehr als eine einfache Volltextsuche, die Texte werden linguistisch analysiert und die Fragen mittels eines intellektuell konstruierten, großen semantischen Netzes mit 1,6 Millionen Fachbegriffen in 20 Sprachen interpretiert. Die gesamte Produktion geschieht kooperativ, länderübergreifend und ist offen für Bibliotheken, Dokumentationszentren, Verlage, Bücherhändler und andere Partner. Die Suche ist öffentlich und kostenfrei.
    Content
    "AGI - Information Management Consultants (www.agi-imc.de) hatte am 8. und 9. Mai 2007 zum vierten Mal Bibliotheken und Partner zum Erfahrungsaustausch nach Neustadt an der Weinstraße eingeladen. Die angereisten Teilnehmer betreiben bereits mittels intelligentCAPTURE die Produktion und über dandelon.com den Austausch und die Publikation (www.dandelon.com). Mittlerweile wird intelligentCAPTURE in Deutschland, Österreich, Liechtenstein, Italien und in der Schweiz eingesetzt. Die PDF-Dateien gelangen über einen Partner bis zur weltgrößten Bibliothek, der Library of Congress in Washington. In Deutschland ist der GBV - Gemeinsamer Bibliotheksverband in Göttingen (www.gbv.de) Partner von AGI und der größte Sekundärnutzer von dandelon.com. In dandelon.com sind derzeit über 220.000 Bücher suchbar, die Datenbank wächst täglich. Weitere 62.000 Titel werden nach einem Software-Update demnächst geladen; sie stammen aus Projekten mit der Staats-und Universitätsbibliothek Hamburg und der TIB Hannover. Vergleichbare Scanprojekte laufen derzeit in einer Spezialbibliothek in Hamburg, der UB Braunschweig und UB Mainz. AGI geht von 400 bis 500.000 Buchtiteln bis Ende 2007 aus. Erstmals sahen die Teilnehmer "intelligentCAPTURE mobile". Eine Lösung, welche die Scanner selbst zwischen die engsten Regale fährt und somit erheblich den Transportaufwand reduziert - der Scanner wird zum Buch transportiert, nicht Tonnen von Büchern zu Scannern. Gemeinsam mit dem führenden Anbieter von Bibliothekseinrichtungen Schulz Speyer (www.schulzspeyer.de) wurde intelligentCAPTURE mobil gemacht.
    Bis zu 530 Bücherinhaltsverzeichnisse wurden bisher von einer Person an einem Tag damit produziert. Rund 1.000 Bücher pro Tag ist die durchschnittliche Menge bei einem Scanteam mit drei Scanstationen. Digitalisiert wird immer nur der urheberrechtsfreie bzw. durch Lizenzierung zulässige Bereich. Neben Büchern werden auch Zeitschriften ausgewertet. So sind z.B. die Aufsätze aus der Zeitschrift "IWP - Information. Wissenschaft und Praxis" der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (http://www.dgi-info.de) komplett digital - und einige auch mit MP3Hördateien ergänzt. Anwendung finden seit 2006 die Lösungen von AGI auch in der Suche von Parlamentsmaterialien, also in der öffentlichen Verwaltung - konkret dem wirtschaftlich erfolgreichsten Bundesland Österreichs, Vorarlberg. Diese Leistung wird als Dienstleistung der Vorarlberger Landesbibliothek (http://vlb-katalog.vorarlberg.de) erbracht (www.vorarlberg.at/landtag/landtag/parlamentarischematerialien/recherche.htm)
    Das Highlight unter den Referaten bei dieser Tagung waren die Ausführungen des Vordenkers Andreas Prokoph, Lead Architect - Search Technologies and Portal Server Development, vom deutschen IBM Entwicklungslabor. Er sprach über Information Retrieval. Mit über 200 Patenten, darunter auch seinen eigenen, liegt IBM in diesem Forschungsfeld weit vorne. Die IBM Suchmaschine OMNIFIND soll möglichst bald die Suchtechnik hinter dandelon.com ersetzen und den Suchraum auf Kataloge, Open Archives, Verlage, Hochschul-Server ausdehnen. Schon heute basieren intelligentCAPTURE und dandelon.com weitgehend auf IBM-Technologien, konkret Lotus Notes & Domino und Lotus Sametime (www.ibm.corn/ lotus/hannover), aber auch auf integrierten Modulen anderer international führender Technologiespezialisten."
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.5, S.311
  5. Bell, S.S.: Librarian's guide to online searching (2006) 0.08
    0.08012357 = product of:
      0.16024715 = sum of:
        0.054913398 = weight(_text_:und in 1420) [ClassicSimilarity], result of:
          0.054913398 = score(doc=1420,freq=76.0), product of:
            0.1454118 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06556286 = queryNorm
            0.37764058 = fieldWeight in 1420, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1420)
        0.10533375 = weight(_text_:hinter in 1420) [ClassicSimilarity], result of:
          0.10533375 = score(doc=1420,freq=4.0), product of:
            0.42046776 = queryWeight, product of:
              6.4132004 = idf(docFreq=197, maxDocs=44421)
              0.06556286 = queryNorm
            0.25051564 = fieldWeight in 1420, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.4132004 = idf(docFreq=197, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1420)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Online-Mitteilungen 2007, Nr.90, S.18-21 (M. Katzmayr): "Suzanne S. Bell, Bibliothekarin und einschlägig Lehrende, hat ein bemerkenswertes und thematisch sehr breit angelegtes Lehrbuch zur Datenbankrecherche vorgelegt. Die 12 Kapitel lassen sich in drei thematisch zusammengehörende Teile gruppieren: Der erste Teil (Kap. 1-3) vermittelt Grundkenntnisse über Datenbanken. Nach einem kurzen Abriss zur historischen Entwicklung von gedruckten Referats- und Indexierungsdiensten zu kommerziellen Online-Recherchedatenbanken wird die Struktur von Datenbanken anhand des Zusammenhangs von Feldern, Datensätzen und Registerdateien erläutert. Anschließend werden Boolesche Operatoren und Klammersetzung, Verwendung kontrollierten Vokabulars, feldspezifische Suche, Nähesuche, Trunkierung etc. erklärt. Zusätzlich wird auch eine (leider etwas gespreizte) Einführung in die Berechnung von Relevanz- und Trefferquote gegeben. Im zweiten Teil (Kap. 4-8) werden prominente Datenbanken zu den Sozial-, Geistes- und Naturwissenschaften/Medizin vorgestellt, weiters werden Recherchen in Online-Bibliothekskatalogen bzw. Verbundkatalogen und statistischen Datensammlungen erklärt. Neben einigen eingestreuten wissenswerten Hintergrundinformationen (etwa zu Zitationsindizes oder eine kurze Einführung in die Statistikrecherche) werden die Funktionalitäten. ausgewählter Suchoberflächen mittels Beispielrecherchen und Abbildungen ziemlich detailliert veranschaulicht. Thesauri, Indexlisten und der feldspezifischen Suche wird-dabei viel Raum gewidmet. Hinsichtlich der Recherche in Bibliothekskatalogen bzw. Buchverzeichnissen ist auffallend, dass die Autorin ausschließlich für diese den Begriff bibliographische Datenbanken ("bibliographic databases") verwendet und sie dadurch von Referats- und Indexierungsdiensten abzugrenzen versucht, obwohl letztere in der gängigen Fachsprache (1) ebenfalls als bibliographische Datenbanken gehandelt werden. Unklar ist auch, warum dieses Kapitel ausgerechnet zwischen den Ausführungen zu den naturwissenschaftlich/medizinischen und geisteswissenschaftlichen Indexierungsdiensten platziert wurde.
    Der dritte Teil des Buches (Kap. 9-12) beschäftigt sich mit psychologischen, didaktischen und Managementaspekten. Ein sehr interessantes Kapitel ist dem Nutzungsverhalten und dem Auskunftsgespräch gewidmet: so belegen Studien, dass das Internet die erste Anlaufstelle bei Informationsbedürfnissen sei und die dort angewandte Suchstrategie auch bei anderen Recherchewerkzeugen verfolgt werde. Besonders beunruhigend: Bibliothekarlnnen seien für die meisten Studierenden mehr oder weniger die letzte Anlaufstelle für Recherchefragen. Diese Entwicklung habe allerdings die Bedeutung des Auskunftsinterviews nicht etwa verringert, sondern erhöht: So landen bei Bibliothekarinnen vorwiegend schwierig zu beantwortende Fragen, die entsprechende Fertigkeiten in der Kommunikation erfordern. Weiters könne eine erfolgreiche Rechercheberatung dazu führen, dass zukünftige Anfragen erneut an Bibliothekarlnnen herangetragen werden und somit ihr Stellenwert für Recherchefragen wieder steige. Eine wichtige Fähigkeit beim Auskunftsinterview sei, hinter der vordergründig gestellten Frage (z.B.: "wo stehen die Kochbücher?") das wirkliche Informationsbedürfnis ausfindig zu machen (z.B. möchte der Benutzer ein Kochseminar veranstalten und benötigt Informationen über den Aufbau einer Unterrichtseinheit), wozu es ein Zusammenspiel von offenen und geschlossenen Fragen brauche. Wissenswertes zur Anwendung von Chat und E-Mail im bibliothekarischen Auskunftsdienst rundet dieses Kapitel ab. Enttäuschend sind die Ausführungen zur richtigen Wahl der Recherchewerkzeuge, die auf der fragwürdigen Unterscheidung Datenbanken versus Web gründen und darüber hinaus sehr allgemein und auch missverständlich gehalten sind. Die Abgrenzung zwischen Datenbank und Web bleibt dabei unklar und erscheint beliebig: So werden z.B. die Internet Movie Database IMDb und der Buchkatalog Amazon.com dem "Web" zugeordnet, WorldCat und ERIC firmieren hingegen als "Datenbanken". Wissenschaftssuchmaschinen wie Google Scholar oder Scirus werden kaum erwähnt, detto wissenschaftliche Webkataloge, Fachinformationsführer und Virtuelle Fachbibliotheken. Open Access-Archive, die gemeinsam über den Verbundkatalog OAIster abgefragt werden können (unklar ist, wo die Autorin diesen zugeordnet hätte), bleiben ebenfalls ungenannt. Hinsichtlich der Evaluation von Datenbanken wird neben einer Auflistung allgemeiner Charakteristika auch auf das Testen und Vergleichen von Produkten eingegangen. Hierzu ist der Autorin ein vielschichtiger und weitgehend vollständiger Überblick gelungen.
    Das letzte Kapitel beschäftigt sich mit der Vermittlung von Recherchekenntnissen: "Teaching and presenting are a vital part of librarianship [...] Our profession may not be in crisis, but we certainly are challenged by the Internet as almost no other profession is. The Internet is ,free`, and libraries are expensive: we are cost centers, not profit centers. It's difficult to quantify the value we give back" (239). Angesichts knapper werdender Budgets müssen sich Bibliotheken immer mehr in Szene setzen, um ihre Existenz zu rechtfertigen - nicht zuletzt mittels Präsentationen und Schulungen. Hierzu werden einige allgemeine Unterrichtsprinzipien sowie Hinweise zu verschiedenen Schulungstypen (Einzelberatungen am Auskunftsschalter, Präsentationen und über ein Semester gehende Lehrveranstaltungen) gegeben. Jedes Kapitel beinhaltet kurze Zusammenfassungen und Verständnisfragen, wobei sich letztere gut in die Lehre integrieren lassen. Am Ende des Bandes befinden sich ein nach Kapiteln geordnetes Literaturverzeichnis (was das Nachschlagen darin unnötig erschwert) und ein umfangreiches Register. Auffallend an diesem Buch ist die Vernachlässigung des Kommandoretrievals bzw. des Umgangs mit klassischen Hosts wie z.B. DIALOG, womit ein völlig anderer Schwerpunkt gesetzt wird als bei aktuellen deutschsprachigen Einführungs- (2) und Lehrtexten (3) zur Thematik. Der Fokus der Autorin liegt auf den für Enduser konzipierten Abfragemasken (z.B. von EBSCO oder OVID) und spiegelt zwar somit zweifellos die praktischen Anforderungen der modernen Bibliothekswelt wider, wo spezifische Abfragesprachen zunehmend an Bedeutung verlieren; allerdings sollten Basiskenntnisse in diesem Bereich nach wie vor zur Allgemeinbildung angehender Bibliothekarlnnen gehören und hätten zumindest in Grundzügen Erwähnung finden sollen. Schließlich gibt es auch didaktische Gründe, das Kommandoretrieval zu lehren, fördert es doch das Verständnis dafür, wie Abfragen "hinter" der Suchoberfläche verarbeitet werden (4). Fazit: der Autorin ist trotz der erwähnten Kritikpunkte ein wirklich gutes Lehrbuch zum breiten Feld der Online-Recherche geglückt, womit auch eine schon seit längerem klaffende Marktlücke geschlossen werden konnte. Wissenschaftliche Bibliotheken werden nicht umhin können, dieses Werk - und sei es nur zum internen Gebrauch - zu erwerben. Einschlägigen Ausbildungsstätten kann darüber hinaus empfohlen werden, es als Basislektüre und Lehrtext im Grundstudium zu verwenden.
  6. Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998) 0.08
    0.07632033 = product of:
      0.3052813 = sum of:
        0.3052813 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
          0.3052813 = score(doc=4593,freq=4.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.6607038 = fieldWeight in 4593, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=4593)
      0.25 = coord(1/4)
    
    Abstract
    Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
  7. Reed, D.: Essential HTML fast (1997) 0.07
    0.071955495 = product of:
      0.28782198 = sum of:
        0.28782198 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
          0.28782198 = score(doc=6851,freq=2.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.62291753 = fieldWeight in 6851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6851)
      0.25 = coord(1/4)
    
    Abstract
    This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
  8. Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997) 0.07
    0.071955495 = product of:
      0.28782198 = sum of:
        0.28782198 = weight(_text_:java in 171) [ClassicSimilarity], result of:
          0.28782198 = score(doc=171,freq=2.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.62291753 = fieldWeight in 171, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=171)
      0.25 = coord(1/4)
    
    Abstract
    Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
  9. Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996) 0.07
    0.071955495 = product of:
      0.28782198 = sum of:
        0.28782198 = weight(_text_:java in 604) [ClassicSimilarity], result of:
          0.28782198 = score(doc=604,freq=2.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.62291753 = fieldWeight in 604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=604)
      0.25 = coord(1/4)
    
    Abstract
    Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
  10. Ameritech releases Dynix WebPac on NT (1998) 0.07
    0.071955495 = product of:
      0.28782198 = sum of:
        0.28782198 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
          0.28782198 = score(doc=2782,freq=2.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.62291753 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=2782)
      0.25 = coord(1/4)
    
    Abstract
    Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
  11. OCLC completes SiteSearch 4.0 field test (1998) 0.07
    0.071955495 = product of:
      0.28782198 = sum of:
        0.28782198 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
          0.28782198 = score(doc=3078,freq=2.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.62291753 = fieldWeight in 3078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=3078)
      0.25 = coord(1/4)
    
    Abstract
    OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
  12. Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998) 0.07
    0.071955495 = product of:
      0.28782198 = sum of:
        0.28782198 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
          0.28782198 = score(doc=4618,freq=2.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.62291753 = fieldWeight in 4618, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=4618)
      0.25 = coord(1/4)
    
    Abstract
    Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
  13. Bates, C.: Web programming : building Internet applications (2000) 0.07
    0.071955495 = product of:
      0.28782198 = sum of:
        0.28782198 = weight(_text_:java in 130) [ClassicSimilarity], result of:
          0.28782198 = score(doc=130,freq=2.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.62291753 = fieldWeight in 130, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=130)
      0.25 = coord(1/4)
    
    Object
    Java
  14. Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003) 0.07
    0.07169358 = product of:
      0.14338715 = sum of:
        0.107933246 = weight(_text_:java in 55) [ClassicSimilarity], result of:
          0.107933246 = score(doc=55,freq=2.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.23359407 = fieldWeight in 55, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
        0.035453904 = weight(_text_:und in 55) [ClassicSimilarity], result of:
          0.035453904 = score(doc=55,freq=22.0), product of:
            0.1454118 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06556286 = queryNorm
            0.24381724 = fieldWeight in 55, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
      0.5 = coord(2/4)
    
    Content
    "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
    Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
  15. Weiße, A.: AG Dezimalklassifikation (AG DK) (2002) 0.07
    0.06672682 = product of:
      0.13345364 = sum of:
        0.044074982 = weight(_text_:und in 2693) [ClassicSimilarity], result of:
          0.044074982 = score(doc=2693,freq=34.0), product of:
            0.1454118 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06556286 = queryNorm
            0.30310458 = fieldWeight in 2693, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2693)
        0.08937865 = weight(_text_:hinter in 2693) [ClassicSimilarity], result of:
          0.08937865 = score(doc=2693,freq=2.0), product of:
            0.42046776 = queryWeight, product of:
              6.4132004 = idf(docFreq=197, maxDocs=44421)
              0.06556286 = queryNorm
            0.21256956 = fieldWeight in 2693, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4132004 = idf(docFreq=197, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2693)
      0.5 = coord(2/4)
    
    Abstract
    Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim statt. Das Programm bot ein breites Spektrum der klassifikatorischen Sacherschließung. In ihrem Vortrag unter dem Thema "Aktuelle Anwendungen und Entwicklungen der DDC" berichtete Frau Esther Scheven (DDB Frankfurt) über die Projekte "RENARDUS" und "DDC Deutsch". Das EU-Projekt RENARDUS (http://www.renardus.org) ist ein Recherchesystem für Internet-Fachinformationsführer mit einer gemeinsamen Suchoberfläche, in dem die DDC als CrossBrowse-Instrument eingesetzt wird. Die RENARDUS-Partner haben jeweils eine Konkordanztabelle von ihrer lokalen Klassifikation zur DDC erstellt. Das Klassifikationssystem DDC wurde deshalb bevorzugt, weil es online verfügbar ist, in verschiedene europäische Sprachen übersetzt wurde, einen weltweiten Anwenderkreis habe und zum Cross-Browsen besser geeignet sei als das Klassifikationssystem UDC. Anhand von geographischen Schlagwörtern wurde untersucht, inwieweit DDC-Notationen die Interoperabilität der Erschließung mit Schlagwörtern verschiedener Gateways mit unterschiedlichen Sprachen verbessern. Die DDC wird als Suchelement im Geographischen Index benutzt. Zum Projekt "DDC Deutsch" (http://www.ddb.de/professionell/ ddc info.htm) gab Frau Scheven einen kurzen Überblick über die wichtigsten Tätigkeiten und Entwicklungen. Dazu gehören die Übersetzung der 22. Auflage der DDC, die Überarbeitung der Table 2 für Deutschland und Österreich, die Überarbeitung der Sachgebiete Geschichte Deutschland, Geschichte Österreich, Parteiensysteme Deutschland. Nach Abschluß der Arbeiten wird ab 2005 in der Deutschen Nationalbibliographie (Reihe A, B und H) die DDC als Klassifikationssystem für wissenschaftliche relevante bzw. international wichtige Publikationen verwendet. Desweiteren ist vorgesehen, Schlagwörter der Schlagwortnormdatei (SWD) mit DDCNotationen zu verknüpfen. Herr Dr. Holger Flachmann (ULB Münster) stellte in seinem Vortrag "Digitale Reproduktion systematischer Zettelkataloge: Praxis, Gewinn und Grenzen am Beispiel des UDK-Kataloges der ULB Münster" ein interessantes und nachahmenswertes Projekt vor. In der ULB Münster wurde der bis 1990 nach UDK geführte Systematische Katalog (1,4 Millionen Katalogkarten mit 80 000 Systemstellen) als Imagekatalog konvertiert. Die elektronisch erfassten Systemstellen (UDK-Notationen) sind recherchierbar und mit den dazugehörigen Titeln verknüpft, die als digitale Bilder der Katalogzettel gespeichert sind. Ebenso ist die Suche mit Stichwörtern möglich.
    Das Recherchesystem bietet eine Übersicht der Fachgebiete nach UDK, ein Register der Fächer (z.B. Register A-Z Wirtschaftswissenschaften), eine alphabetische Auflistung der Fächer und die systematische Gliederung der Fachgebiete mit Anzeige der Anzahl der Titelnachweise. Der von der Firma Mikro Univers GmbH Berlin erstellte digitalisierte Katalog wurde ab 1.8.02 frei geschaltet (http://altkataloge.uni-muenster.de/de/index sys.htm). Das von der ULB Münster realisierte Projekt könnte für andere Universitätsbibliotheken Anregung sein, konventionelle Systematische Zettelkataloge, die vor allem ältere wissenschaftliche Literatur nachweisen und erfahrungsgemäß in dieser Form wenig genutzt werden, in digitalisierter Form einem über die Grenzen der jeweiligen Universitätsbibliothek erweiterten Nutzerkreis zur Verfügung zu stellen. Herr Dr. Jiri Pika (ETH Zürich) referierte in seinem Vortrag "Anwendung der UDK in NEBIS in der Schweiz: ein Ausblick" über die seit etwa 20 Jahren praktizierte inhaltliche Erschließung von Dokumenten nach UDK im neuen Bibliothekssystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz http://www.nebis.ch/index.html), das das Bibliothekssystem ETHICS ablöste. Wie im System ETHICS beruht die Abfrage auf Deskriptoren in drei Sprachen (deutsch, englisch, französisch) und einer Anzahl weiterer Begriffe (Synonyme, Akronyme), womit ein benutzerfreundlicher den Gegebenheiten der multilingualen Schweiz angepasster Einstieg in die Recherche ermöglicht wird. Hinter den Deskriptoren steht eine einzige DK-Zahl, die im Hintergrund die mit ihr verknüpften Titel zusammenführt. Das von Fachreferenten gepflegte Sachregister beinhaltet etwa 63 513 Grundbegriffe (Stand 27.3.2002) mit einer DK-Zahl, die Anzahl der Zusatzbegriffe beträgt das 5 - 8fache. Die Vorzüge des Systems bestehen darin, dass unter Verwendung von Deskriptoren bei der Recherche der Zugriff sowohl auf gedruckte als auch auf elektronische Medien (etwa 2 Millionen Dokumente) möglich ist, ohne dass Kenntnisse des Klassifikationssystems erforderlich sind. Mit der Umstellung von ETHICS auf NEBIS im Jahre 1999 wurde eine neue Benutzeroberfläche angeboten und eine wesentliche Verkürzung der Antwortzeiten erreicht. Zum Anwenderkreis gehören etwa 60 Bibliotheken von Hochschulen, Fachhochschulen und Forschungsanstalten aus allen Regionen der Schweiz, z.B. ETH Zürich, Ecole Polytechnique Federale de Lausanne, weitere Schweizer Verbundbibliotheken, sowie in der Suchmaschine GERHARD (German Harvest Automated Retrieval Directory http://www.gerhard.de/gerold/owa/gerhard.create_ Index html?form-language=99). Der im Programm ausgewiesene Vortrag von Herrn Dr. Bernd Lorenz (München) zum Thema "Konkordanz RVK (Regensburger Verbundklassifikation) - DDC (Dewey Decimal Classification): Notwendigkeit und Vorüberlegungen" wurde vertretungsweise von Herrn Dr. Hans-Joachim Hermes (Chemnitz) übernommen. Bereits seit Beginn der Überlegungen, die DDC in der Deutschen Nationalbibliographie als Klassifikationssystem zu verwenden, werden auch Vorstellungen über eine Konkordanz zwischen den beiden Klassifikationssystemen RVK und DDC geäußert. Die geplante Konkordanz wird die Nutzung beider Klassifikationssysteme vergrößern. In der Darstellung wurden Probleme auf der sprachlichterminologischen Ebene, die bei den Benennungen der Notationen sichtbar werden, aufgezeigt. Nach den Fachvorträgen fand die turnusmäßige Neuwahl des Leiters der AG Dezimalklassifikationen statt. Zum neuen Vorsitzenden wurde Herr Dr. Bernd Lorenz (Bayerische Beamtenfachhochschule München) gewählt.
  16. Oehlschläger, S.: Treffpunkt Standardisierung : Der Standardisierungsausschuss beim 94. Deutschen Bibliothekartag in Düsseldorf (2005) 0.06
    0.0646978 = product of:
      0.1293956 = sum of:
        0.054913398 = weight(_text_:und in 4691) [ClassicSimilarity], result of:
          0.054913398 = score(doc=4691,freq=76.0), product of:
            0.1454118 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06556286 = queryNorm
            0.37764058 = fieldWeight in 4691, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4691)
        0.0744822 = weight(_text_:hinter in 4691) [ClassicSimilarity], result of:
          0.0744822 = score(doc=4691,freq=2.0), product of:
            0.42046776 = queryWeight, product of:
              6.4132004 = idf(docFreq=197, maxDocs=44421)
              0.06556286 = queryNorm
            0.1771413 = fieldWeight in 4691, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4132004 = idf(docFreq=197, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4691)
      0.5 = coord(2/4)
    
    Content
    "Nach Augsburg, Bielefeld und Leipzig hat der Standardisierungsausschuss beim 94. Deutschen Bibliothekartag in Düsseldorf zum vierten Mal in Folge eine Veranstaltung zum Themenfeld Standardisierung durchgeführt, die vom Vorsitzenden, Berndt Dugall, moderiert wurde. Auch in diesem Jahr konnten dafür wieder zwei Referenten aus dem Ausland gewonnen werden, die einen Einblick in internationale Aktivitäten gewährten. Den Auftakt bildete Jeffrey Garrett von der Northwestern University Library in Evanston, Illinois mit seinem Vortrag »Entscheidend auch hier der Einstieg - Wandel und Kontinuität im Ethos des Katalogisierens in den USA«. Zunächst erläuterte der Referent die Losung aus dem Titel, die aus dem Werk »Bücherlabyrinthe: Suchen und Finden im alexandrinischen Zeitalter« von Nikolaus Wegmann stammt. Dieses Buch erinnere daran, dass der Katalog in der Nachfolge von Schrettinger und Dewey den Einstieg des Benutzers in die ansonsten gewaltige Unordnung der Bibliothek ermögliche, und dadurch die »Sichtbarkeit« der modernen Forschungsbibliothek erst her- bzw. sicherstellt. Garrett stellte die Frage nach dem Sinn von Katalogen im elektronischen Zeitalter, einer Zeit, in der bibliografische Angaben beziehungsweise Schlagworte durch Volltextrecherchen, die sich gleichzeitig auf mehrere tausend Publikationen erstrecken können, umgangen werden können, und in welcher der Inhalt eines Textes in ständigem Wandel begriffen ist. In seinem Vortrag hat der Referent einige Entwicklungen auf dem Gebiet des Katalogisierens in den USA teils theoretisch, teils konkret nachgezeichnet, in der Absicht, sowohl den Wandel als auch die Kontinuität im Bereich der Erschließung aufzuzeigen. Die bisweilen geäußerte Feststellung, dass Kataloge auf den Müllhaufen der Geschichte gehörten, bezeichnete Garrett als maßlos übertrieben und nur angesichts des »Google-Schocks« in den USA zu erklären. Der Katalog diene nach wie vor als Beschreibung des Volltexts. Der Moderator kommentierte dazu, dass der Gedanke des »Vanishing catalogue« vergleichbar sei mit dem Traum vom papierlosen Büro. Patrick Le Boeuf, der Vorsitzende der IFLA FRBR Review Group, referierte in seinem Vortrag »Zwischen Traum und Wirklichkeit« über die Functional Requirements for Bibliographic Records (FRBR). Anhand von leicht verständlichen Beispielen erläuterte er, was die FRBR mit den vier Entitäten der Gruppe 1: Werk (work), Fassung (expression), Erscheinungsform (manifestation) und Exemplar (item) sind. Ausführlich ging er auch darauf ein, was die FRBR nicht sind und was sie nicht leisten können. Es handelt sich dabei weder um eine Norm, noch um ein Datenmodell oder gar ein Format. Dennoch haben die FRBR Einfluss auf die Standardisierungsaktivitäten auf internationaler wie nationaler Ebene. In einigen Systemen, Prototypen und Projekten lässt sich das Potenzial des FRBRModells für bibliografische Informationen bereits aufzeigen. Ganz konkret werden die FRBR in die Überlegungen der IFLA Meetings of Experts an an International Cataloguing Code einbezogen und haben Einzug in die »Frankfurt principles« gefunden, deren Ziel eine Aktualisierung der »Paris principles« ist, und die bei nachfolgenden Regionaltreffen bis 2007 von Kolleginnen und Kollegen aus allen Teilen der WeIt weiter diskutiert und modifiziert werden. Durch die gegenwärtige Revision der Anglo-American Cataloguing Rules (AACR) werden die FRBR auch Einzug in das internationale Regelwerk halten.
    Mit großer Spannung wurde der Vortrag von Elisabeth Niggemann und Reiner Diedrichs über das weitere Vorgehen nach Abschluss des Projekts »Umstieg auf internationale Formate und Regelwerke (MARC21, AACR2)« erwartet. Unter dem programmatischen Titel »Hinter dem Horizont geht es weiter« stellten der Vorsitzende der Arbeitsgemeinschaft der Verbundsysteme und die Generaldirektorin Der Deutschen Bibliothek vor, wie die Internationalisierung der deutschen Standards im Einzelnen aussehen soll, und welche Maßnahmen erforderlich sind. Die Arbeitsgemeinschaft der Verbundsysteme hatte in ihrer Herbstsitzung 2004 verschiedene Beschlüsse getroffen, welche die Zusammenarbeit der Verbundsysteme fördern und erleichtern sollen. Dazu gehören u. a. die Entwicklung eines prototypischen Verfahrens für einen Neukatalogisierungsdienst mit einheitlichen Datenstrukturen und einheitlichen Formatanwendungen, die Verwendung von MARC21 als einheitlichem Austauschformat und die Entwicklung eines Matchkey-Verfahrens zur verbundübergreifenden Titelerkennung. Außerdem wurden grundsätzliche Anforderungen an das künftige Regelwerk und für eine Reorganisation der Normdatenarbeit formuliert, die die Ziele der Arbeitsgemeinschaft effektiv unterstützen sollen. Der Standardisierungsausschuss hat diese Beschlüsse in seiner 9. Sitzung im Dezember 2004 begrüßt, bestätigt und konkretisiert. Nun gilt es, die Beschlüsse zügig umzusetzen, um die gesteckten Ziele zu verfolgen: einfacher Zugang zu bibliografischer Information national wie international für wissenschaftliche und andere persönliche Nutzer, leichte Austauschbarkeit von bibliografischer Information zwischen professionellen Benutzergruppen und Anwendern und last but not least Kostenreduktion bei der Erschließung. Im Anschluss stellte Renate Gömpel, Die Deutsche Bibliothek, die IFLA-CDNL Allianz für Bibliografische Standards (ICABS) vor, die während des Weltkongresses Bibliothek und Information in Berlin als ein neues strategisches Vorhaben ins Leben gerufen wurde. Mit ICABS streben die National Library of Australia, die Library of Congress, die British Library, die Koninklijke Bibliotheek der Niederlande und Die Deutsche Bibliothek gemeinsam mit der Biblioteca Nacional Portugals, der IFLA und der Conference of Directors of National Libraries (CDNL) die Fortsetzung und Unterstützung von Schlüsselaktivitäten im Bereich der bibliografischen und der Ressourcenkontrolle sowie damit zusammenhängender Formatstandards an. Die Allianz führt damit die Arbeit der Geschäftsstellen der früheren IFLA-Kernprogramme UBCIM (Universal Bibliographic Control and International MARC) und UDT (Universal Dataflow and Telecommunications) fort. In dem Vortrag wurde ein Überblick über Ziele und Vorhaben von ICABS, ihre Organisation sowie deren Arbeit als Dach für facettenreiche Aktivitäten im Bereich bibliografischer Standards gegeben. Koordiniert wird die Arbeit von ICABS durch das Advisory Board, das aus Vertretern aller beteiligten Institutionen und Organisationen besteht und dessen Vorsitz gegenwärtig ebenso wie das Sekretariat bei Der Deutschen Bibliothek angesiedelt ist. Der Standardisierungsausschuss hat bereits erste Planungen für eine Veranstaltung beim 95. Deutschen Bibliothekartag in Dresden angestellt. Dort soll über den Stand der Internationalisierung des deutschen Regelwerks, den Umstieg auf MARC21 und die Weiterentwicklung der Normdateien berichtet werden. Darüber hinaus erwartet die Teilnehmerinnen und Teilnehmer ein Bericht aus dem Joint Steering Committee for Revision of Anglo-American Cataloguing Rules (JSC) über den Stand der AACR3. Es wird sicherlich spannend, merken Sie sich diesen Termin vor."
  17. Braeckman, J.: ¬The integration of library information into a campus wide information system (1996) 0.06
    0.06296106 = product of:
      0.25184423 = sum of:
        0.25184423 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.25184423 = score(doc=729,freq=2.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.5450528 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=729)
      0.25 = coord(1/4)
    
    Abstract
    Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven
  18. Chang, S.-F.; Smith, J.R.; Meng, J.: Efficient techniques for feature-based image / video access and manipulations (1997) 0.06
    0.06296106 = product of:
      0.25184423 = sum of:
        0.25184423 = weight(_text_:java in 756) [ClassicSimilarity], result of:
          0.25184423 = score(doc=756,freq=2.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.5450528 = fieldWeight in 756, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=756)
      0.25 = coord(1/4)
    
    Abstract
    Describes 2 research projects aimed at studying the parallel issues of image and video indexing, information retrieval and manipulation: VisualSEEK, a content based image query system and a Java based WWW application supporting localised colour and spatial similarity retrieval; and CVEPS (Compressed Video Editing and Parsing System) which supports video manipulation with indexing support of individual frames from VisualSEEK and a hierarchical new video browsing and indexing system. In both media forms, these systems address the problem of heterogeneous unconstrained collections
  19. Lo, M.L.: Recent strategies for retrieving chemical structure information on the Web (1997) 0.06
    0.06296106 = product of:
      0.25184423 = sum of:
        0.25184423 = weight(_text_:java in 3611) [ClassicSimilarity], result of:
          0.25184423 = score(doc=3611,freq=2.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.5450528 = fieldWeight in 3611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3611)
      0.25 = coord(1/4)
    
    Abstract
    Discusses various structural searching methods available on the Web. some databases such as the Brookhaven Protein Database use keyword searching which does not provide the desired substructure search capabilities. Others like CS ChemFinder and MDL's Chemscape use graphical plug in programs. Although plug in programs provide more capabilities, users first have to obtain a copy of the programs. Due to this limitation, Tripo's WebSketch and ACD Interactive Lab adopt a different approach. Using JAVA applets, users create and display a structure query of the molecule on the web page without using other software. The new technique is likely to extend itself to other electronic publications
  20. Kirschenbaum, M.: Documenting digital images : textual meta-data at the Blake Archive (1998) 0.06
    0.06296106 = product of:
      0.25184423 = sum of:
        0.25184423 = weight(_text_:java in 4287) [ClassicSimilarity], result of:
          0.25184423 = score(doc=4287,freq=2.0), product of:
            0.46205473 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06556286 = queryNorm
            0.5450528 = fieldWeight in 4287, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4287)
      0.25 = coord(1/4)
    
    Abstract
    Describes the work undertaken by the Wiliam Blake Archive, Virginia University, to document the metadata tools for handling digital images of illustrations accompanying Blake's work. Images are encoded in both JPEG and TIFF formats. Image Documentation (ID) records are slotted into that portion of the JPEG file reserved for textual metadata. Because the textual content of the ID record now becomes part of the image file itself, the documentary metadata travels with the image even it it is downloaded from one file to another. The metadata is invisible when viewing the image but becomes accessible to users via the 'info' button on the control panel of the Java applet

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 773
  • m 309
  • el 102
  • s 92
  • i 21
  • n 17
  • x 12
  • r 10
  • b 7
  • ? 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications