Search (13232 results, page 4 of 662)

  1. Hahn, U.; Reimer, U.: Informationslinguistische Konzepte der Volltextverarbeitung in TOPIC (1983) 0.14
    0.14062603 = product of:
      0.5625041 = sum of:
        0.5625041 = weight(_text_:hahn in 518) [ClassicSimilarity], result of:
          0.5625041 = score(doc=518,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            1.1715949 = fieldWeight in 518, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.109375 = fieldNorm(doc=518)
      0.25 = coord(1/4)
    
  2. Hahn, U.: Informationslinguistik : I: Einführung in das linguistische Information Retrieval (1985) 0.14
    0.1394232 = product of:
      0.2788464 = sum of:
        0.051560417 = weight(_text_:und in 4115) [ClassicSimilarity], result of:
          0.051560417 = score(doc=4115,freq=28.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.36675057 = fieldWeight in 4115, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4115)
        0.227286 = weight(_text_:hahn in 4115) [ClassicSimilarity], result of:
          0.227286 = score(doc=4115,freq=4.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.47339582 = fieldWeight in 4115, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.03125 = fieldNorm(doc=4115)
      0.5 = coord(2/4)
    
    Abstract
    Als Bestandteil des Ausbildungsprogramms im Aufbaustudiun Informationswissenschaft an der Universitaet Konstanz (vgl. VOGEL 1984) ist ein Veranstaltungszyklus zur Informationslinguistik entwickelt worden. Die curriculare Planung zu diesem informationswissenschaftlichen Teilgebiet war stark eingebunden in die gesamte Organisation des Aufbaustudiums bzw. Diplomstudiengangs Informationswissenschaft, wobei insbesondere zwei Faktoren einen bestimmenden Einfluss auf die Definition der Lehrinhalte hatten: - die inhaltlichen Anforderungen des entwickelten Berufsbilds Informationsvermittlung und Informationsmanagemsnt - der zulaessige Zeitrahmen des Diplom-Studiengangs Informationswissenschaft (2 Jahre) und die nicht geringen Aufwaende fuer das uebrige Ausbildungsprogramm Die Informationslinguistik ist somit aus einer stark funktionalen Sicht heraus definiert worden, die den Leistungsbeitrag zur umfassenden informationswissenschaftlichen Ausbildung letztlich mehr betont als dis ziplinaere Eigendynamik. Die jetzt realisierte Verbindung aus obligatorischen und fakultativen Veranstaltungen zur Informationslinguistik erlaubt jedoch den an entsprechenden Fachfragen interessierten Studenten durchaus eine qualitativ ausreichende Vertiefung im Rahmen des informationswissenschaftlichen Lehrangebots, das ggf. noch durch Veranstaltungen der unterschiedlichen linguistischen Abteilungen an der Universitaet Konstanz ergaenzt werden kann. Schliesslich ist einer der Forschungsschwerpunkte des Lehrstuhls fuer Informationswissenschaft, das automatische Abstracting-Projekt TOPIC (HAHN/REIMER 1985), eindeutig dem Bereich Informationslinguistik zuzuordnen, der engagierten Studenten weitere Optionen fuer eine spezialisierte Ausbildung und - im Rahmen von durch Studien- und Diplomarbeiten klar abgesteckten Aufgaben - eigenstaendige Forschungs- und Entwicklungstaetigkeit eroeffnet. Informationslinguistik wird am Lehrstuhl fuer Informationswissenschaft der Universitaet Konstanz nun in folgender Konstellation gelehrt:
    (1) "Informationslinguistik I: Einfuehrung in das linguistische Information Retrieval" (2) "Informationslinguistik II: linguistische und statistische Verfahren im experimentellen Information Retrieval" (3) "Intelligente Informationssysteme: Verfahren der Kuenstlichen Intelligenz im experimentellen Information Retrieval" Kursabschnitt zu natuerlichsprachlichen Systemen (4) Spezialkurse zum automatischen Uebersetzen, Indexing und Retrieval, Abstracting usf. dienen zur Vertiefung informationslinguistischer Spezialthemen Die Kurse (1) und (3) gehoeren zu dem Pool der Pflichtveranstaltungen aller Studenten des Diplom-Studiengangs Informationswissenschaft, waehrend (2) und (4) lediglich zu den Wahlpflichtveranstaltungen zaehlen, die aber obligatorisch fuer die Studenten des Diplomstudiengangs sind, die ihren Schwerpunkt (z.B. in Form der Diplomarbeit) im Bereich Informationslinguistik suchen - fuer alle anderen Studenten zaehlen diese Kurse zum Zusatz angebot an Lehrveranstaltungen.
    Das vorliegende Skript entspricht dem Inhalt des Kurses "Informationslinguistik I" im WS 1982/83. Es ist im Maerz 1983 inhaltlich abgeschlossen und im Januar 1985 lediglich redaktionell ueberarbeitet worden. Die Erstellung des Skripts entspricht einem dezidierten Auftrag des Projekts "Informationsvermittlung", der die Entwicklung geeigneter Lehrmaterialien zum informationswissenschaftlichen Aufbaustudium vorsah. Aufgrund des engen Projektzeitrahmens (1983-85) kann das Skript nicht in dem Masse voll ausgereift und ausformuliert sein, wie es gaengigen Standards entspraeche. Dennoch hat es sich in den jaehrlichen Neuauflagen des Kurses trotz wechselnder Dozenten als weitgehend stabiles inhaltliches Geruest bewaehrt. Nichtsdestotrotz sollte gerade die Veroeffentlichung des Skripts als Anregung dienen, kritische Ko mmentare, Anmerkungen und Ergaenzungen zu diesem curricularen Entwurf herauszufordern, um damit die weitere disziplinaere Klaerung der Informationslinguistik zu foerdern.
    Content
    2. Teil u.d.T.: Linguistische und statistische Verfahren im experimentellen Information Retrieval
  3. Fisher, Y.: Better CGI scripts (i.V.) 0.14
    0.13913614 = product of:
      0.55654454 = sum of:
        0.55654454 = weight(_text_:java in 6015) [ClassicSimilarity], result of:
          0.55654454 = score(doc=6015,freq=2.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            1.2458351 = fieldWeight in 6015, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.125 = fieldNorm(doc=6015)
      0.25 = coord(1/4)
    
    Object
    JAVA
  4. Blake, P.; Nelson, M.: Ovid unveils Java search client (1996) 0.14
    0.13913614 = product of:
      0.55654454 = sum of:
        0.55654454 = weight(_text_:java in 45) [ClassicSimilarity], result of:
          0.55654454 = score(doc=45,freq=8.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            1.2458351 = fieldWeight in 45, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=45)
      0.25 = coord(1/4)
    
    Abstract
    Ovid Technologies is launching its Java search client to enable users to access Ovid's scientific databases on the Web with full search capabilities irrespective of the type of computer used. Explains the differences between Java and HTML. The Java client increases search speed by several orders of magnitude. The Ovid client does not need to wait for individual pages to load and incorporates multi-tasking. The interface includes tree displays; thesauri; mapping; explode/implode; search fields and context sensitive help. Display; save; and e-mail are available from the client
  5. Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010) 0.13
    0.13380171 = product of:
      0.26760343 = sum of:
        0.24348824 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
          0.24348824 = score(doc=1604,freq=2.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            0.5450528 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1604)
        0.024115177 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
          0.024115177 = score(doc=1604,freq=2.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.17153187 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1604)
      0.5 = coord(2/4)
    
    Abstract
    iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  6. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.13
    0.13283436 = product of:
      0.26566872 = sum of:
        0.19676821 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.19676821 = score(doc=217,freq=4.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.06890051 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.06890051 = score(doc=217,freq=50.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  7. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.13
    0.12966777 = product of:
      0.25933555 = sum of:
        0.20870422 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.20870422 = score(doc=977,freq=2.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.05063133 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.05063133 = score(doc=977,freq=12.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  8. Grundlagen der praktischen Information und Dokumentation : Handbuch zur Einführung in die Informationswissenschaft und -praxis (2013) 0.13
    0.12897256 = product of:
      0.25794512 = sum of:
        0.05906988 = weight(_text_:und in 5382) [ClassicSimilarity], result of:
          0.05906988 = score(doc=5382,freq=48.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.42016557 = fieldWeight in 5382, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5382)
        0.19887525 = weight(_text_:hahn in 5382) [ClassicSimilarity], result of:
          0.19887525 = score(doc=5382,freq=4.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.41422135 = fieldWeight in 5382, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5382)
      0.5 = coord(2/4)
    
    Abstract
    Seit vierzig Jahren vermittelt das Standardwerk Wissenschaftlern, Praktikern und Studierenden Grundlagen der professionellen, wissenschaftlich fundierten Informationsarbeit. Mit der 6., völlig neu gefassten Auflage reagieren die Herausgeber Rainer Kuhlen, Wolfgang Semar und Dietmar Strauch auf die erheblichen technischen, methodischen und organisatorischen Veränderungen auf dem Gebiet der Information und Dokumentation und tragen damit der raschen Entwicklung des Internets und der Informationswissenschaft Rechnung. Die insgesamt über fünfzig Beiträge sind vier Teilen - Grundlegendes (A), Methodisches (B), Informationsorganisation (C) und Informationsinfrastrukturen (D) - zugeordnet.
    Content
    Enthält die Beiträge: A: Grundlegendes Rainer Kuhlen: Information - Informationswissenschaft - Ursula Georgy: Professionalisierung in der Informationsarbeit - Thomas Hoeren: Urheberrecht und Internetrecht - Stephan Holländer, Rolf A. Tobler: Schweizer Urheberrecht im digitalen Umfeld - Gerhard Reichmann: Urheberrecht und Internetrecht: Österreich - Rainer Kuhlen: Wissensökologie - Wissen und Information als Commons (Gemeingüter) - Rainer Hammwöhner: Hypertext - Christa Womser-Hacker, Thomas Mandl: Information Seeking Behaviour (ISB) - Hans-Christoph Hobohm: Informationsverhalten (Mensch und Information) - Urs Dahinden: Methoden empirischer Sozialforschung für die Informationspraxis - Michael Seadle: Ethnografische Verfahren der Datenerhebung - Hans-Christoph Hobohm: Erhebungsmethoden in der Informationsverhaltensforschung
    B: Methodisches Bernard Bekavac: Web-Technologien - Rolf Assfalg: Metadaten - Ulrich Reimer: Wissensorganisation - Thomas Mandl: Text Mining und Data Mining - Harald Reiterer, Hans-Christian Jetter: Informationsvisualisierung - Katrin Weller: Ontologien - Stefan Gradmann: Semantic Web und Linked Open Data - Isabella Peters: Benutzerzentrierte Erschließungsverfahre - Ulrich Reimer: Empfehlungssysteme - Udo Hahn: Methodische Grundlagen der Informationslinguistik - Klaus Lepsky: Automatische Indexierung - Udo Hahn: Automatisches Abstracting - Ulrich Heid: Maschinelle Übersetzung - Bernd Ludwig: Spracherkennung - Norbert Fuhr: Modelle im Information Retrieval - Christa Womser-Hacker: Kognitives Information Retrieval - Alexander Binder, Frank C. Meinecke, Felix Bießmann, Motoaki Kawanabe, Klaus-Robert Müller: Maschinelles Lernen, Mustererkennung in der Bildverarbeitung
    C: Informationsorganisation Helmut Krcmar: Informations- und Wissensmanagement - Eberhard R. Hilf, Thomas Severiens: Vom Open Access für Dokumente und Daten zu Open Content in der Wissenschaft - Christa Womser-Hacker: Evaluierung im Information Retrieval - Joachim Griesbaum: Online-Marketing - Nicola Döring: Modelle der Computervermittelten Kommunikation - Harald Reiterer, Florian Geyer: Mensch-Computer-Interaktion - Steffen Staab: Web Science - Michael Weller, Elena Di Rosa: Lizenzierungsformen - Wolfgang Semar, Sascha Beck: Sicherheit von Informationssystemen - Stefanie Haustein, Dirk Tunger: Sziento- und bibliometrische Verfahren
    D: Informationsinfrastruktur Dirk Lewandowski: Suchmaschinen - Ben Kaden: Elektronisches Publizieren - Jens Olf, Uwe Rosemann: Dokumentlieferung - Reinhard Altenhöner, Sabine Schrimpf: Langzeitarchivierung - Hermann Huemer: Normung und Standardisierung - Ulrike Spree: Wörterbücher und Enzyklopädien - Joachim Griesbaum: Social Web - Jens Klump, Roland Bertelmann: Forschungsdaten - Michael Kerres, Annabell Preussler, Mandy Schiefner-Rohs: Lernen mit Medien - Angelika Menne-Haritz: Archive - Axel Ermert, Karin Ludewig: Museen - Hans-Christoph Hobohm: Bibliothek im Wandel - Thomas Breyer-Mayländer: Medien, Medienwirtschaft - Helmut Wittenzellner: Transformation von Buchhandel, Verlag und Druck - Elke Thomä, Heike Schwanbeck: Patentinformation und Patentinformationssysteme
    RSWK
    Information und Dokumentation
    Subject
    Information und Dokumentation
  9. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.124501385 = product of:
      0.24900277 = sum of:
        0.17392018 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.17392018 = score(doc=50,freq=2.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.075082585 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.075082585 = score(doc=50,freq=38.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  10. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.122252986 = product of:
      0.24450597 = sum of:
        0.20870422 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20870422 = score(doc=1181,freq=2.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.035801757 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.035801757 = score(doc=1181,freq=6.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  11. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.12225194 = product of:
      0.24450389 = sum of:
        0.19676821 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19676821 = score(doc=1761,freq=4.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.047735672 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.047735672 = score(doc=1761,freq=24.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  12. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.12174412 = product of:
      0.48697647 = sum of:
        0.48697647 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.48697647 = score(doc=5463,freq=8.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  13. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.12174412 = product of:
      0.48697647 = sum of:
        0.48697647 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.48697647 = score(doc=86,freq=2.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  14. Hahn, T.B.; Buckland, M.: Historical studies in information science (1998) 0.12
    0.1205366 = product of:
      0.4821464 = sum of:
        0.4821464 = weight(_text_:hahn in 5080) [ClassicSimilarity], result of:
          0.4821464 = score(doc=5080,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            1.0042242 = fieldWeight in 5080, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.09375 = fieldNorm(doc=5080)
      0.25 = coord(1/4)
    
  15. Hahn, W. von; Angelova, G.: Combining terminology, lexical semantics and knowledge representation in machine aided translation (1996) 0.12
    0.1205366 = product of:
      0.4821464 = sum of:
        0.4821464 = weight(_text_:hahn in 6419) [ClassicSimilarity], result of:
          0.4821464 = score(doc=6419,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            1.0042242 = fieldWeight in 6419, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.09375 = fieldNorm(doc=6419)
      0.25 = coord(1/4)
    
  16. Hahn, U.; Chater, N.: Concepts and similarity (1997) 0.12
    0.1205366 = product of:
      0.4821464 = sum of:
        0.4821464 = weight(_text_:hahn in 462) [ClassicSimilarity], result of:
          0.4821464 = score(doc=462,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            1.0042242 = fieldWeight in 462, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.09375 = fieldNorm(doc=462)
      0.25 = coord(1/4)
    
  17. Hahn, H.: Harley Hahn's Internet & Web Yellow pages 1997 edition (1996) 0.12
    0.1205366 = product of:
      0.4821464 = sum of:
        0.4821464 = weight(_text_:hahn in 1288) [ClassicSimilarity], result of:
          0.4821464 = score(doc=1288,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            1.0042242 = fieldWeight in 1288, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.09375 = fieldNorm(doc=1288)
      0.25 = coord(1/4)
    
  18. Hermann, S.; Hahn, U.; Gärtner, M.; Fritze, F.: Nachträglich ist nicht gleich nachnutzbar : Ansätze für integrierte Prozessdokumentation im Forschungsalltag (2018) 0.12
    0.117672294 = product of:
      0.23534459 = sum of:
        0.034450255 = weight(_text_:und in 484) [ClassicSimilarity], result of:
          0.034450255 = score(doc=484,freq=8.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.24504554 = fieldWeight in 484, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=484)
        0.20089433 = weight(_text_:hahn in 484) [ClassicSimilarity], result of:
          0.20089433 = score(doc=484,freq=2.0), product of:
            0.4801183 = queryWeight, product of:
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.063387536 = queryNorm
            0.41842672 = fieldWeight in 484, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.574333 = idf(docFreq=61, maxDocs=44421)
              0.0390625 = fieldNorm(doc=484)
      0.5 = coord(2/4)
    
    Abstract
    Um Forschungsdaten auffindbar zu machen, müssen diese mit ausreichend Metadaten beschrieben werden. Damit die durch die Metadaten beschriebenen Forschungsdaten für andere Wissenschaftlerinnen und Wissenschaftler reproduzierbar sind, ist es notwendig, den Kontext ihrer Entstehung mit abzubilden. Gerade die Dokumentation dieses Entstehungsprozesses wird aber oft durch mangelnde Zeit im Forschungsalltag vernachlässigt. Auch fehlt es hier noch an niederschwelliger Unterstützung im Arbeitsprozess. Einige Methoden sind gerade dabei sich zu etablieren oder befinden sich in der Entwicklung. Im Folgenden werden Softwareanwendungen, die die Dokumentation erleichtern sollen, vorgestellt und mit der aktuell im Projekt RePlay-DH entwickelten Lösung verglichen. Der Ansatz der Virtuellen Forschungsumgebung setzt auf die Zusammenarbeit über eine gemeinsame Plattform. Das Elektronische Laborbuch unterstützt die Dokumentation im Labor. Das Workflow-Management definiert, im Gegensatz zum Workflow-Tracking, einen Workflow vor der Ausführung der einzelnen Arbeitsschritte. Dabei steht die prozessbegleitende Dokumentation im Mittelpunkt. Der Lösungsansatz, der im Projekt RePlay-DH verfolgt wird, besteht in der unterstützenden Dokumentation des Forschungsprozesses mit Metadaten durch ein vereinfachtes Workflow-Tracking. Die Integration in bestehende Arbeitsabläufe von Wissenschaftlerinnen und Wissenschaftlern und die einfache Bedienbarkeit stehen dabei im Vordergrund.
  19. Vonhoegen, H.: Einstieg in XML (2002) 0.12
    0.11741263 = product of:
      0.23482525 = sum of:
        0.17217219 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.17217219 = score(doc=5002,freq=4.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.062653065 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.062653065 = score(doc=5002,freq=54.0), product of:
            0.14058715 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.063387536 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  20. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.12
    0.11666919 = product of:
      0.46667677 = sum of:
        0.46667677 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.46667677 = score(doc=6217,freq=10.0), product of:
            0.44672412 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.063387536 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range

Authors

Languages

Types

  • a 9367
  • m 2241
  • el 1010
  • x 591
  • s 555
  • i 169
  • r 116
  • ? 66
  • n 55
  • b 48
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications