Search (13211 results, page 3 of 661)

  1. Blake, P.; Nelson, M.: Ovid unveils Java search client (1996) 0.14
    0.13870429 = product of:
      0.55481714 = sum of:
        0.55481714 = weight(_text_:java in 45) [ClassicSimilarity], result of:
          0.55481714 = score(doc=45,freq=8.0), product of:
            0.44533753 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06319079 = queryNorm
            1.2458351 = fieldWeight in 45, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=45)
      0.25 = coord(1/4)
    
    Abstract
    Ovid Technologies is launching its Java search client to enable users to access Ovid's scientific databases on the Web with full search capabilities irrespective of the type of computer used. Explains the differences between Java and HTML. The Java client increases search speed by several orders of magnitude. The Ovid client does not need to wait for individual pages to load and incorporates multi-tasking. The interface includes tree displays; thesauri; mapping; explode/implode; search fields and context sensitive help. Display; save; and e-mail are available from the client
  2. Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010) 0.13
    0.1333864 = product of:
      0.2667728 = sum of:
        0.24273248 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
          0.24273248 = score(doc=1604,freq=2.0), product of:
            0.44533753 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06319079 = queryNorm
            0.5450528 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1604)
        0.024040326 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
          0.024040326 = score(doc=1604,freq=2.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.17153187 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1604)
      0.5 = coord(2/4)
    
    Abstract
    iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  3. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.13
    0.13242206 = product of:
      0.26484412 = sum of:
        0.19615747 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.19615747 = score(doc=217,freq=4.0), product of:
            0.44533753 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06319079 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.06868665 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.06868665 = score(doc=217,freq=50.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  4. DIN-Terminologiedatenbank : DIN-Term ; Science, Normung [Elektronische Ressource] (2004) 0.13
    0.13132067 = product of:
      0.26264134 = sum of:
        0.056951966 = weight(_text_:und in 5215) [ClassicSimilarity], result of:
          0.056951966 = score(doc=5215,freq=22.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.4063621 = fieldWeight in 5215, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5215)
        0.20568937 = weight(_text_:hause in 5215) [ClassicSimilarity], result of:
          0.20568937 = score(doc=5215,freq=2.0), product of:
            0.48505983 = queryWeight, product of:
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.06319079 = queryNorm
            0.4240495 = fieldWeight in 5215, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5215)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: ZfBB 52(2005) H.5, S.287-288 (D. Geiß): "Die Nutzung von Normen und technischen Regelwerken gehört in technologieorientierten Produktionsbetrieben und Handelsunternehmen zur täglichen Routine. Für viele dieser Unternehmen sind nicht nur die deutschsprachigen Regeln, sondern auch die internationalen Standards der ISO und der Europäischen Union, die nationalen technischen Regeln unserer Nachbarländer wie auch die vielseitigen fachspezifischen Regelwerke der Standardisierungsinstitute der USA unverzichtbar. Das Deutsche Institut für Normung bemüht sich auf breiter Ebene mit Hilfe und Unterstützung von 33 Ausschüssen und der Mitwirkung in internationalen Gremien das Normenwerk dem Stand der Technik anzupassen, es mit Hilfe entsprechender elektronischer Tools für ihre Kunden transparent zu machen und optimal zu erschließen. Die vorliegende DIN-Terminologiedatenbank ist ein solches Werkzeug, das die digitalen Auskunftsdienste des Deutschen Instituts für Normung erweitert und neben der Erschließung von technischen Begriffen auch eine Art bibliografisches Nachschlagewerk darstellt. Im Angebot sind 210.000 Begriffe in deutscher, englischer und zum Teil auch französischer Sprache aus DIN-Normen, DIN-Entwürfen, europäischen und international geltenden Normen sowie Begriffen aus dem IEV-Terminologiekonvolut (International Electrical Vocabulary) des IEC (International Electrical Committee). In praktischer und handlicher Form auf CD-ROM, installierbar auf jedem Laptop oder PC mit einer benutzerfreundlichen Oberfläche und einer sehr überschaubaren Kurzbedienungsanleitung sowie einem ausführlichen Handbuch im PDF-Format, bereit für eine vielseitige Nutzung im Büro,für unterwegs oder auch für die Arbeit zu Hause bietet diese CD einen echten Mehrwert. ..."
  5. Friedrich, J.: Kritik der vernetzten Vernunft : Philosophie für Netzbewohner (2012) 0.13
    0.12999547 = product of:
      0.25999093 = sum of:
        0.054301564 = weight(_text_:und in 24) [ClassicSimilarity], result of:
          0.054301564 = score(doc=24,freq=20.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.38745102 = fieldWeight in 24, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=24)
        0.20568937 = weight(_text_:hause in 24) [ClassicSimilarity], result of:
          0.20568937 = score(doc=24,freq=2.0), product of:
            0.48505983 = queryWeight, product of:
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.06319079 = queryNorm
            0.4240495 = fieldWeight in 24, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.0390625 = fieldNorm(doc=24)
      0.5 = coord(2/4)
    
    Abstract
    Das Buch wendet sich an Menschen, die im Netz zu Hause sind, die nicht mehr zwischen online und offline unterscheiden, die in Blogs Kommentare posten und mit dem Kollegen über Fußball diskutieren, die Online-Zeitungen lesen und dabei mit dem Lebenspartner über das Wetter reden. Sie sind Netzwerker - nicht nur, wenn sie im Internet unterwegs sind. Ihr soziales Netz ist dicht geknüpft, die Online-Welt wird darin immer fester eingewoben. Sie ziehen ihr Wissen aus dem Netz, handeln in Netzwerken und indem sie sich vernetzen und sie hoffen auf Problemlösungen durch technische Vernetzungen. Netzwerke sind die Basis unserer modernen Welt, aber Netze machen diese Welt auch immer komplexer und undurchschaubarer. Das Buch widmet sich den Herausforderungen der Vernunft in der vernetzten Welt. Es sucht die Antworten auf die großen philosophischen Fragen von Immanuel Kant, die in die Welt der vernetzten Vernunft passen: - Wie hängt unser Wissen von den Techniken der Vernetzung ab, und warum glauben wir dem Netz oft mehr als den eigenen Erfahrungen? - Ist Handeln in einem richtungslosen Netz noch möglich, und kann man auch daraus ausbrechen, sich aus Knoten und Schlingen befreien? - Gibt das Netz uns Grund zur Hoffnung und wird eine Welt technischer Vernetzungen unsere Wünsche erfüllen? - Was macht den vernetzten Menschen aus, ändert er sein Wesen?
  6. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.13
    0.1292653 = product of:
      0.2585306 = sum of:
        0.20805642 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.20805642 = score(doc=977,freq=2.0), product of:
            0.44533753 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06319079 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.050474174 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.050474174 = score(doc=977,freq=12.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  7. Bauer, E.: Wissen griffbereit : Mediawiki & Wikipedia lokal installieren (2004) 0.13
    0.12606925 = product of:
      0.2521385 = sum of:
        0.01942752 = weight(_text_:und in 3906) [ClassicSimilarity], result of:
          0.01942752 = score(doc=3906,freq=4.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.1386187 = fieldWeight in 3906, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3906)
        0.23271097 = weight(_text_:hause in 3906) [ClassicSimilarity], result of:
          0.23271097 = score(doc=3906,freq=4.0), product of:
            0.48505983 = queryWeight, product of:
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.06319079 = queryNorm
            0.47975725 = fieldWeight in 3906, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.03125 = fieldNorm(doc=3906)
      0.5 = coord(2/4)
    
    Abstract
    Man hat es sich irgendwo notiertdoch wo? Wenn man seine Notizen auf der Festplatte nicht mehr überblickt, schafft ein Wiki Abhilfe. Im Browser lassen sich die Infos von überall im lokalen Netz abrufen, ergänzen und miteinander verlinken.
    Content
    "Hallo! Sie haben da eine Riesensicherheitslücke! Ich kann alle Seiten auf Ihrer Homepage ändern." - solche Mails entlocken den Betreibern der Online-Enzyklopädie Wikipedia nur noch ein müdes Lächeln. Was dem einen eine Sicherheitslücke ist, hat sich mittlerweile eine ganze Reihe von Websites zum Prinzip gemacht. So genannte Wikis gestatten es jedem Besucher, die Inhalte einer Homepage im Browser zu bearbeiten. Was sich im ersten Moment verrückt anhört, funktioniert tatsächlich: Neben Wikipedia, die inzwischen über eine Million in Zusammenarbeit entstandene Artikel zählt, setzen auch immer mehr Open-Source-Projekte auf Wikis, um gemeinschaftlich Dokumentation zu verfassen. Wiki für den Hausgebrauch Auch zu Hause ist die Wiki-Software nützlich. Wer wollte nicht schon einmal die Stapel seiner Notizen und Dokumente untereinander verknüpfen? Mit einem Wiki ist das eine simple Sache: Eine spezielle Syntax verwandelt einen Begriff im Text in einen Link auf eine neue oder schon existierende Seite. Weit über 50 Wiki-Engines in den unterschiedlichsten Programmiersprachen umfasst mittlerweile die Liste im Ur-Wiki, dem Portland Pattern Repository. Eine der meistverbreiteten ist das ursprünglich für Wikipedia geschriebene, aber auch auf zahlreichen anderen Sites eingesetzte Mediawiki. Dieser Artikel erklärt, wie Sie Mediawiki selbst aufsetzen, sei es als Wiki für den Hausgebrauch oder - mit den importierten Datenbeständen der deutschen Wikipedia - als Enzyklopädie zum bequemen Offline-Lesen. Als Server-Applikation birgt Mediawiki gewisse Sicherheitsrisiken. Die hier vorgestellte Installation ist für einen durch eine Firewall geschützten Rechner zu Hause gedacht, nicht für den Betrieb im Internet, für den Sie zusätzliche Sicherheitsmaßnahmen treffen sollten."
  8. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.124114946 = product of:
      0.24822989 = sum of:
        0.17338036 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.17338036 = score(doc=50,freq=2.0), product of:
            0.44533753 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06319079 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.07484954 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.07484954 = score(doc=50,freq=38.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  9. Oberhauser, O.: Card-Image Public Access Catalogues (CIPACs) : a critical consideration of a cost-effective alternative to full retrospective catalogue conversion (2002) 0.12
    0.1234807 = product of:
      0.2469614 = sum of:
        0.043339316 = weight(_text_:und in 2703) [ClassicSimilarity], result of:
          0.043339316 = score(doc=2703,freq=26.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.3092335 = fieldWeight in 2703, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2703)
        0.20362209 = weight(_text_:hause in 2703) [ClassicSimilarity], result of:
          0.20362209 = score(doc=2703,freq=4.0), product of:
            0.48505983 = queryWeight, product of:
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.06319079 = queryNorm
            0.4197876 = fieldWeight in 2703, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2703)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: ABI-Technik 21(2002) H.3, S.292 (E. Pietzsch): "Otto C. Oberhauser hat mit seiner Diplomarbeit eine beeindruckende Analyse digitalisierter Zettelkataloge (CIPACs) vorgelegt. Die Arbeit wartet mit einer Fülle von Daten und Statistiken auf, wie sie bislang nicht vorgelegen haben. BibliothekarInnen, die sich mit der Digitalisierung von Katalogen tragen, finden darin eine einzigartige Vorlage zur Entscheidungsfindung. Nach einem einführenden Kapitel bringt Oberhauser zunächst einen Überblick über eine Auswahl weltweit verfügbarer CIPACs, deren Indexierungsmethode (Binäre Suche, partielle Indexierung, Suche in OCR-Daten) und stellt vergleichende Betrachtungen über geographische Verteilung, Größe, Software, Navigation und andere Eigenschaften an. Anschließend beschreibt und analysiert er Implementierungsprobleme, beginnend bei Gründen, die zur Digitalisierung führen können: Kosten, Umsetzungsdauer, Zugriffsverbesserung, Stellplatzersparnis. Er fährt fort mit technischen Aspekten wie Scannen und Qualitätskontrolle, Image Standards, OCR, manueller Nacharbeit, Servertechnologie. Dabei geht er auch auf die eher hinderlichen Eigenschaften älterer Kataloge ein sowie auf die Präsentation im Web und die Anbindung an vorhandene Opacs. Einem wichtigen Aspekt, nämlich der Beurteilung durch die wichtigste Zielgruppe, die BibliotheksbenutzerInnen, hat Oberhauser eine eigene Feldforschung gewidmet, deren Ergebnisse er im letzten Kapitel eingehend analysiert. Anhänge über die Art der Datenerhebung und Einzelbeschreibung vieler Kataloge runden die Arbeit ab. Insgesamt kann ich die Arbeit nur als die eindrucksvollste Sammlung von Daten, Statistiken und Analysen zum Thema CIPACs bezeichnen, die mir bislang begegnet ist. Auf einen schön herausgearbeiteten Einzelaspekt, nämlich die weitgehende Zersplitterung bei den eingesetzten Softwaresystemen, will ich besonders eingehen: Derzeit können wir grob zwischen Komplettlösungen (eine beauftragte Firma führt als Generalunternehmung sämtliche Aufgaben von der Digitalisierung bis zur Ablieferung der fertigen Anwendung aus) und geteilten Lösungen (die Digitalisierung wird getrennt von der Indexierung und der Softwareerstellung vergeben bzw. im eigenen Hause vorgenommen) unterscheiden. Letztere setzen ein Projektmanagement im Hause voraus. Gerade die Softwareerstellung im eigenen Haus aber kann zu Lösungen führen, die kommerziellen Angeboten keineswegs nachstehen. Schade ist nur, daß die vielfältigen Eigenentwicklungen bislang noch nicht zu Initiativen geführt haben, die, ähnlich wie bei Public Domain Software, eine "optimale", kostengünstige und weithin akzeptierte Softwarelösung zum Ziel haben. Einige kritische Anmerkungen sollen dennoch nicht unerwähnt bleiben. Beispielsweise fehlt eine Differenzierung zwischen "Reiterkarten"-Systemen, d.h. solchen mit Indexierung jeder 20. oder 50. Karte, und Systemen mit vollständiger Indexierung sämtlicher Kartenköpfe, führt doch diese weitreichende Designentscheidung zu erheblichen Kostenverschiebungen zwischen Katalogerstellung und späterer Benutzung. Auch bei den statistischen Auswertungen der Feldforschung hätte ich mir eine feinere Differenzierung nach Typ des CIPAC oder nach Bibliothek gewünscht. So haben beispielsweise mehr als die Hälfte der befragten BenutzerInnen angegeben, die Bedienung des CIPAC sei zunächst schwer verständlich oder seine Benutzung sei zeitaufwendig gewesen. Offen beibt jedoch, ob es Unterschiede zwischen den verschiedenen Realisierungstypen gibt.
  10. Studie zum Web-OPAC der Stadtbibliothek Greven : ein neues Bibliothekssystem für kleine und mittlere Bibliotheken (2004) 0.12
    0.122043185 = product of:
      0.24408637 = sum of:
        0.038397003 = weight(_text_:und in 3287) [ClassicSimilarity], result of:
          0.038397003 = score(doc=3287,freq=10.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.27396923 = fieldWeight in 3287, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3287)
        0.20568937 = weight(_text_:hause in 3287) [ClassicSimilarity], result of:
          0.20568937 = score(doc=3287,freq=2.0), product of:
            0.48505983 = queryWeight, product of:
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.06319079 = queryNorm
            0.4240495 = fieldWeight in 3287, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3287)
      0.5 = coord(2/4)
    
    Abstract
    Eine Studie des Instituts für Wirtschaftsinformatik der Westfälischen Wilhelms-Universität Münster beurteilte den Online-Katalog (Web-OPAC von BOND) der Stadtbibliothek Greven als besonders gut gelungen. Die Studie beleuchtete die Online-Auftritte der 70 Kommunen des Münsterlandes hinsichtlich der elektronischen Bürgerdienste. Bewertet wurden neben dem allgemeinen Erscheinungsbild der kommunalen Web-Seiten vor allem die Qualität der bereitgestellten Bürgerdienste in den Bereichen Strukturiertheit, Entwicklungsgrad, Navigation und Bürgerfreundlichkeit. Die Ergebnisse der Studie wurden am 12. Februar 2004 in Münster vorgestellt. Die Stadtbibliothek Greven setzt seit Dezember 2002 den Web-OPAC von BOND ein. Via Internet können die Benutzer der Bibliothek von zu Hause aus recherchieren, Medien vorbestellen und verlängern. Auf BIBLIOTHECA2000 vertraut die Grevener Bibliothek bereits seit 1998 und meldet Jahr für Jahr steigende Ausleihzahlen. Im Jahr 2003 stieg die Ausleihe um 3,5% auf 286.866 Medien. Jedes Medium wurde damit im Durchschnitt 7 mal im Jahr ausgeliehen. In den vergangenen 10 Jahren haben sich die Ausleihen sogar verdoppelt (+ 102%). Eine neue Lichtschranke am Eingang zählte 130.506 Besucher im Jahr 2003. Auch diese Zahl belegt die hohe Akzeptanz, die die Stadtbibliothek in Greven hat. Die höchsten Zuwachsraten (+ 196%) gibt es bei der Ausleihe von Kinder- und Jugendbüchern. Dieser Anstieg ist sogar deutlich höher als der der AV-Medien.
  11. Schönfelder, N.: Mittelbedarf für Open Access an ausgewählten deutschen Universitäten und Forschungseinrichtungen : Transformationsrechnung (2019) 0.12
    0.122043185 = product of:
      0.24408637 = sum of:
        0.038397003 = weight(_text_:und in 427) [ClassicSimilarity], result of:
          0.038397003 = score(doc=427,freq=10.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.27396923 = fieldWeight in 427, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=427)
        0.20568937 = weight(_text_:hause in 427) [ClassicSimilarity], result of:
          0.20568937 = score(doc=427,freq=2.0), product of:
            0.48505983 = queryWeight, product of:
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.06319079 = queryNorm
            0.4240495 = fieldWeight in 427, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.0390625 = fieldNorm(doc=427)
      0.5 = coord(2/4)
    
    Abstract
    Die Transformation subskriptionsbasierter, wissenschaftlicher Fachzeitschriften in den Open Access wird Änderungen in der finanziellen Belastung wissenschaftlicher Einrichtungen in Deutschland nach sich ziehen. Artikelbearbeitungsgebühren (APCs) sind im Bereich der international sichtbaren und in einschlägigen bibliographischen Datenbanken indexierten Open-Access-Zeitschriften das derzeit dominierende Geschäftsmodell. Wenn sich dieses Geschäftsmodell (APC) auch bei zurzeit hybriden Zeitschriften durchsetzen, kommt es zu einer Umverteilung von Ausgaben für Fachzeitschriften. Einrichtungen mit wenigen Publikationen werden voraussichtlich finanziell entlastet, Einrichtungen mit vielen Publikationen zusätzlich belastet. Um auf die Open-Access- Transformation adäquat im eigenen Hause zu reagieren und diese aktiv mitzugestalten, sind gesicherte Abschätzungen zu finanziellen Ent- bzw. Belastungen im Hinblick auf die zu erwartenden institutionellen APC-Gesamtausgaben der einzelnen Einrichtungen nach einer umfassenden Transformation von Zeitschriften in den Open Access unverzichtbar. An dieser Stelle setzt der vorliegende Bericht an.
    Für fünf deutsche Universitäten sowie ein Forschungsinstitut werden auf Basis der Publikationsdaten des Web of Science Abschätzungen zu den Gesamtausgaben für APCs erstellt und mit den derzeitigen Subskriptionsausgaben verglichen. Der Bericht zeigt, dass die Kostenübernahme auf Basis der projizierten Ausgaben für Publikationen aus nicht-Drittmittel-geförderter Forschung für alle hier betrachteten Einrichtungen ohne Probleme aus den derzeitigen bibliothekarischen Erwerbungsetats für Zeitschriften bestritten werden könnte. Dies setzt jedoch voraus, dass Drittmittelgeber neben der üblichen Forschungsförderung auch für die APCs der aus diesen Projekten resultierenden Publikationen aufkommen. Trifft dies nicht zu und die wissenschaftliche Einrichtung muss für sämtliche Publikationen die APCs selbst tragen, so hängen die budgetären Auswirkungen wesentlich von der zukünftigen Entwicklung der Artikelbearbeitungsgebühren ab.
  12. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.12187353 = product of:
      0.24374706 = sum of:
        0.20805642 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20805642 = score(doc=1181,freq=2.0), product of:
            0.44533753 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06319079 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.03569063 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.03569063 = score(doc=1181,freq=6.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  13. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.12187249 = product of:
      0.24374498 = sum of:
        0.19615747 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19615747 = score(doc=1761,freq=4.0), product of:
            0.44533753 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06319079 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.04758751 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.04758751 = score(doc=1761,freq=24.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  14. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.12136624 = product of:
      0.48546496 = sum of:
        0.48546496 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.48546496 = score(doc=5463,freq=8.0), product of:
            0.44533753 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06319079 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  15. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.12136624 = product of:
      0.48546496 = sum of:
        0.48546496 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.48546496 = score(doc=86,freq=2.0), product of:
            0.44533753 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06319079 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  16. lrs: Bibliotheken müssen sich in Mediatheken wandeln : Experte: Internet schadet Bibliothek nicht (2001) 0.12
    0.12001635 = product of:
      0.2400327 = sum of:
        0.034343325 = weight(_text_:und in 500) [ClassicSimilarity], result of:
          0.034343325 = score(doc=500,freq=8.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.24504554 = fieldWeight in 500, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=500)
        0.20568937 = weight(_text_:hause in 500) [ClassicSimilarity], result of:
          0.20568937 = score(doc=500,freq=2.0), product of:
            0.48505983 = queryWeight, product of:
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.06319079 = queryNorm
            0.4240495 = fieldWeight in 500, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.0390625 = fieldNorm(doc=500)
      0.5 = coord(2/4)
    
    Content
    Die deutschen Bibliotheken erfreuen sich nach Darstellung eines Experten trotz der zunehmenden Bedeutung des Internets wachsender Nachfrage. Die Besucherzahlen stiegen bundesweit, sagte der Freiburger Bibliotheken-Fachmann Konrad Heyde in einem Gespräch mit der Deutschen Presse-Agentur (dpa) in Neustadt. Grund dafür sei vermutlich auch die Einführung neuer Medien in den Bibliotheken. Das Angebot an neuen Technologien sei allerdings in vielen Einrichtungen noch zu gering, kritisierte der Leiter der Staatlichen Fachstelle für das öffentliche Bibliothekswesen im Regierungsbezirk Freiburg. Sie müssten daher besser ausgestattet und in "Mediatheken" umgeandelt werden, forderte Heyde. "Wir hatten in den Bibliotheken immer einen Einbruch bei den Jugendlichen", berichtete Heyde. Seit Einführung der neuen Technologien wie Internet, Video und CD-ROM verschwinde diese "Delle" jedoch, erläuterte er, ohne Zahlen zu nennen. Das Verhältnis der neuen zu den alten gedruckten Medien sei in den Bibliotheken allerdings noch nicht befriedigend. "Bei den normalen Bibliotheken ist das Verhältnis 15 zu 85 oder noch schlechter", sagte er. Um den Anforderungen gerecht zu werden, solle es mindestens 30 zu 70 betragen. "In absehbarer Zeit - in zehn Jahren - sollte sich ein Verhältnis von 50 zu 50 einpendeln." Es müsse auch Internet-Arbeitsplätze und -Schulungen geben. Bibliotheken sollten zudem verstärkt Dienstleistungen per Internet anbieten, forderte Heyde. Dazu solle auch die Möglichkeit gehören, Bücher oder Bilder von zu Hause aus auf den eigenen Computer herunterladen zu können. Zudem sollte der elektronische Katalog nicht nur über den Inhalt eines Buches, sondern auch über Rezensionen und Kommentare von Lesern informieren. Um die dafür benötigte Arbeitskraft zu gewinnen, müsse das Personal von Routineaufgaben wie dem Erfassen der Besucher oder dem Katalogisieren befreit werden. Zeit raubende Arbeiten wie das Katalogisieren könnten an externe Firmen vergeben werden
  17. Vonhoegen, H.: Einstieg in XML (2002) 0.12
    0.1170482 = product of:
      0.2340964 = sum of:
        0.17163779 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.17163779 = score(doc=5002,freq=4.0), product of:
            0.44533753 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06319079 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.0624586 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.0624586 = score(doc=5002,freq=54.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  18. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.12
    0.116307065 = product of:
      0.46522826 = sum of:
        0.46522826 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.46522826 = score(doc=6217,freq=10.0), product of:
            0.44533753 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06319079 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  19. Zeitz, G.: Wissenschaftliche Informationen per Mausklick : Bibliotheken und Forschungsinstitute eröffnen fächerübergreifendes Internetportal - Hessische Einrichtungen sind beteiligt (2003) 0.11
    0.109750405 = product of:
      0.21950081 = sum of:
        0.054949317 = weight(_text_:und in 2800) [ClassicSimilarity], result of:
          0.054949317 = score(doc=2800,freq=32.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.39207286 = fieldWeight in 2800, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2800)
        0.1645515 = weight(_text_:hause in 2800) [ClassicSimilarity], result of:
          0.1645515 = score(doc=2800,freq=2.0), product of:
            0.48505983 = queryWeight, product of:
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.06319079 = queryNorm
            0.3392396 = fieldWeight in 2800, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.03125 = fieldNorm(doc=2800)
      0.5 = coord(2/4)
    
    Abstract
    Wer schnell wissenschaftliche Informationen zu Hause. auf seinem PC benötigt, kann, künftig bei www.vascoda.de fündig werden: Unter dieser Internet-Adresse. haben 37 deutsche Bibliotheken, Forschungsinstitute und Informationseinrichtungen ein fächerübergreifendes Internetportal eingerichtet. Angeschlossen sind auch das Deutsche Institut für Internationale Pädagogische Forschung in Frankfurt und das Institut für Soziologie der TU Darmstadt.
    Content
    "Wissenschaftler brauchen fundierte Informationen aus Quellen, auf die man sich verlassen kann. Die Suche nach solchen Quellen, wissenschaftlichen Aufsätzen, Dissertationen, Büchern, Datenbanken und Linklisten gestaltete sich bislang schwierig: Bibliotheken oder Verlage von Fachzeitschriften mussten einzeln angesteuert werden, einen zentralen, einheitlichen und einfachen Zugang gab es bislang, nicht. Das soll sich jetzt ändern: Das vom Bundesministerium für Bildung und Forschung (BMBF) und von der Deutschen; Forschungsgemeinsehaft (DFG) geförderte Internetportal "vascoda", das nach dem Willen seiner Initiatoren auch Grundbaustein für die "Digitale Bibliothek Deutschland" sein soll, will Forschern Zugang zu wissenschaftlicher Information unterschiedlichster Fachrichtungen und unterschiedlichster Formate bieten. Das ist bundesweit in dieser Form ebenso einzigartig wie die Tatsache, dass die an vascoda angeschlossenen Datenbanken ausschließlich ;,geprüfte" Informationen liefern sollen: "Fachbibliothekare und Fachwissenschaftler der Anbieter, die sich unter dem vascoda-Dach zusammengeschlossen haben, prüfen, welche Texte vdrfügbar gemacht werden", sagt Christine Burblies von der vascoda-Geschäftsstelle in Hannover. "So können wir gewährleisten, dass die Informationen wissenschaftlichen Ansprüchen genügen." Das macht dann auch den wesentlichen Unterschied zu anderen Suchmaschinen aus: Die Suchmaske des Wissenschaftsportals ist zwar ähnlich einfach zu handhaben wie die Internet-Suchmaschine Google - vascoda verirrt sich aber nicht im World Wide Web. Und während andere Internet-Suchmaschinen nicht den Zugriff auf das so genannte "invisible web" bieten, also beispielsweise auf Bibliothekskataloge, ermöglicht vascoda auch den Zugriff auf dieses unsichtbare Netz. Das Wissenschaftsportal ist unentgeltlich nutzbar, und auch ein Großteil der Informationen ist kostenlos zu beziehen. Es sind aber auch kostenpflichtige Informationen verfügbar - zum Beispiel aus Verlagsangeboten und kommerziellen Datenbanken. Wer Informationen etwa zu soziologischen Fragen sucht, landet sicher auch auf den Internetseiten des Instituts für Soziologie in Darmstadt (www.ifs.tu-darmstadt.de/forsch.htm), das ebenso zu den vascoda-Anbietern gehört wie das Deutsche Institut für Internationale Pädagogik (DIPF) in Frankfurt (www.dipfde/index_1024.htm). In vascoda eingebunden sind zur Zeit 23 virtuelle Fachbibliotheken (ViFas), die vier großen Informationsverbünde EconDoc (Wirtschaft), GetInfo (Naturwissenschaften und Technik), infoconnex (Pädagogik, Sozialwissenschaften, Psychologie) und Medizin sowie die Elektronische Zeitschriftenbibliothek (EZB), ein kooperativer Service von 209 Bibliotheken zur Bereitstellung von elektronischen Zeitschriften, -die im Internet publiziert werden. "Wir planen überdies die Erweiterung um das Fach Germanistik, und wenn es soweit ist, wird die Stadt- und Universitätsbibliothek Frankfurt diesen Service bereitstellen", sagt Burblies."
  20. Lokales Bibliotheksportal "SISIS-InfoGuide" (2005) 0.11
    0.109750405 = product of:
      0.21950081 = sum of:
        0.054949317 = weight(_text_:und in 4217) [ClassicSimilarity], result of:
          0.054949317 = score(doc=4217,freq=32.0), product of:
            0.14015079 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06319079 = queryNorm
            0.39207286 = fieldWeight in 4217, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4217)
        0.1645515 = weight(_text_:hause in 4217) [ClassicSimilarity], result of:
          0.1645515 = score(doc=4217,freq=2.0), product of:
            0.48505983 = queryWeight, product of:
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.06319079 = queryNorm
            0.3392396 = fieldWeight in 4217, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.676116 = idf(docFreq=55, maxDocs=44421)
              0.03125 = fieldNorm(doc=4217)
      0.5 = coord(2/4)
    
    Content
    "Mit SISIS-InfoGuide stellt die Sisis Informationssysteme GmbH Bibliotheken eine attraktive Lösung zum Aufbau eines lokalen Informationsportals zur Verfügung. Das Portal verbindet die Stärken einer Meta-Suchmaschine mit den Vorteilen komfortabler Services einer benutzerorientierten Bibliothek. SISIS-InfoGuide (www.sisis.de/infoguide) ermöglicht umfassende Recherchemöglichkeiten im lokalen Bestand wie auch in verschiedensten externen Informationsquellen und das rund um die Uhr und ohne die gewohnte Suchoberfläche zu verlassen. Die Suchergebnisse werden benutzerfreundlich und übersichtlich präsentiert. Die benutzerbezogene Verfügbarkeitsprüfung weist durch entsprechende Meldungstexte den schnellsten Weg zum gewünschten Medium oder Dokument. Mit der Erweiterung der Recherchemöglichkeiten und der Integration von Dienstleistungen der Fremdsysteme ergeben sich über das lokale Angebot hinaus natürlich auch erweiterte Bestell- und Lieferfunktionen. Die in SISIS-InfoGuide integrierten Schnittstellen erlauben es, direkt aus SISIS-InfoGuide Dokumentenlieferdienste wie subito, Volltextanzeige, Fernleihfunktionen oder andere OpenURL-Dienste wie z.B. SFX zu nutzen. Die Option der personalisierten Anmeldung eröffnet dem Benutzer eine Vielzahl individueller Einstellungsmöglichkeiten. Die Voreinstellung des Suchmodus (einfach, erweitert, thematisch) ist ebenso wählbar wie die Anzahl und Art der zu durchsuchenden Datenquellen. Hierzu kann er aus der Liste, der von der Bibliothek konfigurierten Datenquellen wie z.B. Bibliothekskatalogen, Onlinedatenbanken, elektronischen Zeitschriften, Online-Buchhändlern etc., ein für seine Suche relevantes Profil zusammenstellen und für weitere Sitzungen abspeichern. Als weitere Einstellungsvarianten gehören dazu: Das Speichern von Merklisten, das Speichern der Suchhistorie und das Anlegen und Bearbeiten von Suchdiensten, die ihn automatisch über neue Treffer informieren. Auf diese Weise kann er sich für seine Suche seine ganz persönliche Wunschumgebung ("Mylibrary") einrichten. Die bereits im SISIS-SunRise webOPAC verfügbaren Selbstbedienungsfunktionen (Kontoübersicht, Möglichkeiten der Bestellung und Verlängerung von entliehenen Medien etc.), erweitert SISIS-InfoGuide um weitere individuelle Dienste. Zusätzliche SISIS-InfoGuide Funktionen wie "Aktuelles" und "weitere Angebote" lassen der Bibliothek freie Hand für Öffentlichkeitsarbeit, individuelle Informationsangebote, Veranstaltungshinweise, Auskunftsdienste oder interessante Links im Sinne der Bibliothek und ihrer Kunden. "Auskunftsdienst" und "Anschaffungsvorschläge" laden den Benutzer zum Dialog mit der Bibliothek ein. Viele verschiedene Dienste - ein Einstieg, intuitive Benutzerführung und Direkthilfen. So fühlt sich jeder Benutzer schnell "zu Hause". Durch die vollständige Integration in die SISIS-SunRise Produktlinie nutzt SISIS-InfoGuide die lokale Benutzerverwaltung für die Rechtevergabe und Kontoverwaltung und kann somit über die SISIS-SunRise Administration an die lokalen Belange angepasst werden."

Authors

Languages

Types

  • a 9353
  • m 2234
  • el 1009
  • x 591
  • s 555
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications