Search (13210 results, page 3 of 661)

  1. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.11926058 = product of:
      0.23852116 = sum of:
        0.16659912 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.16659912 = score(doc=50,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.071922034 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.071922034 = score(doc=50,freq=38.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  2. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.11710683 = product of:
      0.23421367 = sum of:
        0.19991896 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.19991896 = score(doc=1181,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.034294706 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.034294706 = score(doc=1181,freq=6.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  3. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.117105834 = product of:
      0.23421167 = sum of:
        0.1884854 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.1884854 = score(doc=1761,freq=4.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.045726273 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.045726273 = score(doc=1761,freq=24.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  4. Groß, M.: Warum Ordnung keinen Sinn mehr macht (2003) 0.12
    0.11669741 = product of:
      0.23339482 = sum of:
        0.04620013 = weight(_text_:und in 3437) [ClassicSimilarity], result of:
          0.04620013 = score(doc=3437,freq=32.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.34306374 = fieldWeight in 3437, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3437)
        0.18719469 = weight(_text_:hefte in 3437) [ClassicSimilarity], result of:
          0.18719469 = score(doc=3437,freq=2.0), product of:
            0.5421551 = queryWeight, product of:
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.060719278 = queryNorm
            0.34527886 = fieldWeight in 3437, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3437)
      0.5 = coord(2/4)
    
    Content
    "Ich gebe es zu: Ich bin ein manischer Jäger und Sammler von Informationen. Bis heute habe ich keine einzige Fotokopie eines Fachartikels weggeworfen. Aber meine Sammelwut geht viel weiter: Meine Archive enthalten auch Artikel über die ehemalige Konzertpianistin, die 20 Jahre in einem Autowrack in einem Londoner Villenviertel lebte, bis es die Nachbarn verschrotten ließen. Ferner horte ich Berichte über naturkundliche Kuriositäten sowie Theater- und Konzertprogramme. Hinzu kommen Kritiken von Filmen, die ich gesehen habe. Und alle Spektrum-Hefte seit 1985 in Jahrgangsboxen. Bis vor kurzem waren diese Informationsschätze in einem voluminösen, sinnreich geordneten Archiv aus Dutzenden von Pappkartons, Stehsammlern, Hängeordnern und Ringbüchern relativ leicht auffindbar. Nach mehreren Büroumzügen ist dieses System jetzt allerdings ein wenig durchgeschüttelt. Und ich fürchte, es wird seine glorreichen Tage nie wieder sehen. Denn vor einigen Monaten fiel es mir wie Schuppen von den Augen: Dank der Suchmaschine Google hat das Ordnen von Informationen grundsätzlich jeden Sinn verloren. »Wer Ordnung hält, ist nur zu faul zum Suchen«, sagte meine selige Großtante immer. Dabei konnte sie nicht ahnen, dass der zum Suchen nötige Aufwand eines Tages gegen null gehen würde. Noch vor gut fünf Jahren waren InternetRecherchen tatsächlich mühselig. Man hatte die Wahl zwischen Suchmaschinen, die einen mit nutzlosen Ergebnissen überschütteten, und endlosen Verzeichnissen, die nach Kategorien geordnet waren und wie die gelben Seiten funktionierten: Region / Dienstleistungen /Klempner -Heureka! In jener finsteren Zeit lohnte es sich noch, öffentlich zugängliche Informationen für den Hausgebrauch zusammenzustellen und nach einem durchdachten System zu archivieren. Ich hatte auf meiner Website ein Verzeichnis von Hunderten von Weblinks, wohlsortiert nach Kategorien und Unterkategorien. Heute benutze ich es kaum noch, weil es viel zu viel Arbeit wäre, es auf dem neuesten Stand zu halten, und weil ich die Links über Google mindestens genauso schnell finde. Vom »Guardian« zu einem der sieben Weltwunder des Internets erklärt, erkundet die aus einem Forschungsprojekt an der Stanford-Universität hervorgegangene Suchmaschine nicht nur, welche Informationen die einzelnen Websites anbieten, sondern auch, wie relevant sie für andere sind. Damit gelingt, was wie Hexerei anmutet: Die gewünschte Verbindung taucht praktisch immer ganz vorne in der Liste auf. Die Folgen sind revolutionär: Wir haben den Punkt erreicht, wo das geordnete Archivieren öffentlich zugänglicher Information unnütz geworden ist. Mich trifft das schwer. Meine gesammelten Zeitungsausschnitte sind Makulatur. Die meisten stammen aus dem »Guardian«, und der unterhält eines der besten Zeitungsarchive auf dem Netz. Da finde ich Artikel, an die ich mich dunkel erinnere, leichter als in meinen Pappkartons. Informationen über Bücher und Filme braucht man ebenso wenig aufzuheben -Amazon und die Internet Movie Database erledigen das. Aber was mache ich nun mit meinen ehemals wertvollen, hochgradig geordneten Informationen? Einfach wegwerfen? Das bringe ich nicht über mich. Bedenken Sie nur, um wie viel das die Entropie des Universums unwiederbringlich erhöhen würde! Derzeit erprobe ich ein neues, vereinfachtes Ordnungsschema mit nur drei Kategorien, bei dem ich die Papiere einfach chronologisch staple. Ab und zu, wenn ich auf der Suche nach einem Glossenthema bin, stöbere ich so einen Stapel durch. Und wenn Einsturzgefahr droht, kann ich jeweils den untersten Meter zusammenschnüren und zum Altpapier geben. Oder vielleicht doch auf dem Dachboden lagern? Man kann ja nie wissen ..."
  5. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.116619386 = product of:
      0.46647754 = sum of:
        0.46647754 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.46647754 = score(doc=5463,freq=8.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  6. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.116619386 = product of:
      0.46647754 = sum of:
        0.46647754 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.46647754 = score(doc=86,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  7. Fassbender, J.: Professionelle Registererstellung : Das DNI informierte auf der Frankfurter Buchmesse 2006 (2007) 0.11
    0.11441946 = product of:
      0.22883892 = sum of:
        0.041644234 = weight(_text_:und in 903) [ClassicSimilarity], result of:
          0.041644234 = score(doc=903,freq=26.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.3092335 = fieldWeight in 903, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=903)
        0.18719469 = weight(_text_:hefte in 903) [ClassicSimilarity], result of:
          0.18719469 = score(doc=903,freq=2.0), product of:
            0.5421551 = queryWeight, product of:
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.060719278 = queryNorm
            0.34527886 = fieldWeight in 903, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.02734375 = fieldNorm(doc=903)
      0.5 = coord(2/4)
    
    Content
    "Wie bereits in den Vorjahren hielt das Deutsche Netzwerk der Indexer (DNI) auf der Frankfurter Buchmesse 2006 sein Jahrestreffen ab - diesmal im Rahmen der Jahreskonferenz der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis (DGI). Im Mittelpunkt des Treffens stand eine offene Informationsveranstaltung mit Präsentationen zu Aspekten professioneller Registererstellung, die sehr gut besucht war. Neben Gästen aus der Publikationsbranche sowie von der DGI kamen Indexer vom Niederländischen Indexer-Netzwerk sowie spezielle Gäste aus den USA und Großbritannien. Jochen Fassbender vom DNI hielt einen Vortrag über grundsätzliche Thesen zur Lage des Indexing in Deutschland. Die im internationalen Vergleich noch erhebliche Defizite aufweisende Situation im deutschsprachigen Raum wurde durch vier Bereiche beleuchtet. 1. Registererstellung beschränkt sich keineswegs nur - wie immer noch weitläufig angenommen - auf das bloße Anstreichen von Textwörtern. Eine derartige Vorgehensweise führt zu konkordanzähnlichen Verzeichnissen statt zu Registern. Es geht vielmehr darum, das Gemeinte aus dem Text in Registereinträge umzusetzen und diese mit einem Beziehungsgeflecht zu verbinden. 2. Die Erstellung von Registern durch Autoren, Herausgebern oder gar Hilfskräften - womöglich kurz vor Ende eines Projektes - hat oft erhebliche Mängel zur Folge, da aus Fachkreisen immer wieder bestätigt wird, dass derartige Personengruppen - im Gegensatz zu professionellen Indexern - kaum über adäquates Fachwissen zur methodischen Vorgehensweise bei der Registererstellung noch über geeignete Indexing-Programme verfügen. 3. Moderne Registererstellung muss keineswegs mit Tools wie Word oder Layout-Programmen durchgeführt werden, deren Einsatz aus Indexer-Sicht z. T. erhebliche Nachteile mit sich bringt. Der weitaus größte Teil der weltweit arbeitenden Indexer arbeitet mit so genannter Dedicated Indexing Software, welche die vielfachen Aspekte bei der Registererstellung hervorragend unterstützt.
    4. Ferner wurde darauf aufmerksam gemacht, dass mit dem DNI auch im deutschsprachigen Raum eine Plattform für professionelles Indexing vorhanden ist, die sowohl hervorragende Kontakte zu den weltweit führenden angloamerikanischen Fachverbänden unterhält als auch Indexerinnen und Indexer für die Registererstellung für Fach- und Sachbücher als auch Periodika und Online-Medien bereitstellt. Maureen MacGlashan von der britischen Society of Indexers (SI) hielt einen Vortrag über die Fachzeitschrift The Indexer, das internationale Fachblatt der Indexing-Szene schlechthin. Maureen MacGlashan ist die derzeitige Hauptherausgeberin und erläuterte die Entstehungsgeschichte und Inhalte dieser bereits 1958 gegründeten Zeitschrift sowie deren Website www. theindexer.org, auf der ein Online-Index zur Verfügung steht. Ferner machte sie auf die im Oktober 2006 erscheinende Ausgabe aufmerksam, die als Schwerpunkt viele Aspekte des Indexing außerhalb des englischen Sprachraums beinhaltet. An dieser Ausgabe hatte auch das DNI als Gastherausgeber mitgearbeitet. Ein absolutes Debüt auf der Buchmesse war der Vortrag von Frances Lennie aus den USA, die mit CINDEX erstmals eine Dedicated Indexing Software vorstellte. Jede Person, die derartige Software kennen gelernt hat, weiß um den großen Unterschied zu der mühseligen Indexerstellung in Word. Frances Lennie zeigte, wie leicht und elegant Haupt- und Untereinträge sowie Querverweise mit CINDEX erstellt werden können. Die mit dieser Software viel effizienter erstellten Registereinträge lassen sich anschließend sogar in Word-Dokumente einbetten. Ein reichlich gedeckter Tisch mit InfoMaterial (z. B. Hefte von The Indexer, CDs mit einer Demo-Version von CINDEX) und der Hinweis, dass sowohl Mitglieder des DNI als auch die Society of Indexers Seminare zum professionellen Indexing anbieten, rundete die gelungene Veranstaltung ab. Weitere Informationen zum DNI und zur Registererstellung finden sich auf der DNI-Website www.d-indexer.org."
    Source
    Information - Wissenschaft und Praxis. 58(2007) H.1, S.6
  8. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.112470224 = product of:
      0.22494045 = sum of:
        0.16492471 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16492471 = score(doc=5002,freq=4.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.06001573 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.06001573 = score(doc=5002,freq=54.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  9. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.11
    0.11175808 = product of:
      0.44703233 = sum of:
        0.44703233 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.44703233 = score(doc=6217,freq=10.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  10. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.100995354 = product of:
      0.40398142 = sum of:
        0.40398142 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.40398142 = score(doc=6014,freq=6.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  11. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.10
    0.100995354 = product of:
      0.40398142 = sum of:
        0.40398142 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.40398142 = score(doc=4612,freq=6.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java
  12. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.100995354 = product of:
      0.40398142 = sum of:
        0.40398142 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.40398142 = score(doc=6896,freq=6.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  13. Kolodziejczyk, M.: Sehen Sie ruhig nach : Immer mehr Magazin- und Zeitungsarchive sind offen und kostenlos (2008) 0.10
    0.10063572 = product of:
      0.20127144 = sum of:
        0.04081886 = weight(_text_:und in 2309) [ClassicSimilarity], result of:
          0.04081886 = score(doc=2309,freq=34.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.30310458 = fieldWeight in 2309, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2309)
        0.16045259 = weight(_text_:hefte in 2309) [ClassicSimilarity], result of:
          0.16045259 = score(doc=2309,freq=2.0), product of:
            0.5421551 = queryWeight, product of:
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.060719278 = queryNorm
            0.2959533 = fieldWeight in 2309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.928879 = idf(docFreq=15, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2309)
      0.5 = coord(2/4)
    
    Content
    "Ob Hippies oder RAF, ob Mauerfall oder 11. September - wer derlei Phänomenen und Ereignissen in der zeitaktuellen Presse nachspüren will, muss meist einiges an Aufwand und Kosten auf sich nehmen. Recherche in Printmedien heißt entweder in stickigen Bibliotheken stöbern und zahllose Zeitungen zerfleddern oder eben: im Internet Artikel ordern und dafür etliche Euro berappen. Am 14. Januar verkündete nun der Focus, er stelle als "erstes Nachrichtenmagazin Deutschlands" sein Print-Archiv kostenfrei online. Sämtliche Themen können seither über eine Suchmaske recherchiert, alle Artikel und Hefte aus 15 Jahrgängen per Mausklick abgerufen werden. Laut Focus-Herausgeber Helmut Markwort ist dieses Novum eine Art Geschenk an die Leser, pünktlich zum 15. Geburtstag der Zeitschrift. "Focus dankt seinen Lesern. Wir beschenken sie daher mit dem Kostbarsten, was wir besitzen: Alle unsere kompetent recherchierten Artikel", hieß es in der Presseerklärung. Offenbar wird das Präsent gern angenommen, wie Focus-Sprecher Uwe Barfknecht der FR mitteilt: "Die Zugriffszahlen übertreffen unsere Erwartungen um Größenordnungen." Nun hoffe man, dass weitere Verlage nachziehen, je mehr, "desto spannender wird das freie Internet für umfassende historische Recherchen". Die Spannung steigt zwar nicht rasant, aber stetig. Blogger und Online-Foren bejubeln mit zunehmender Frequenz, dass wieder ein Presse-Archiv "geknackt" sei. Es könnte sich zu einem Trend entwickeln. So bietet die New York Times seit vergangenen September auf nytimes.com ihr Material aus neun Dekaden kostenlos an: vom Gründungsjahr 1851 bis 1922 sowie von 1986 bis heute. Auch andere haben ihre Print-Archive entsperrt, komplett oder zumindest teilweise: The Economist zum Beispiel oder die spanischen Tageszeitungen El Mundo und El País.
    In Deutschland war es allerdings de facto nicht der Focus, der in Sachen Öffnung einsam vorangeprescht ist. Bereits seit Juni 2007 stehen sämtliche Beiträge der Zeit von 1995 an im Netz. Die Meldung der Wochenzeitung, im Dezember das vollständige Archiv von 1946 bis heute frei zu schalten, ging etwas unter. Wohl auch, weil zeit.de kein großes Buhei darum machte, sondern die Freigabe der Archive schlicht für "eine Konsequenz bestehender Verhältnisse" hält. Schließlich, so sagt der stellvertretende Chefredakteur Steffen Richter, hätten sich Recherche-Kultur und Medienrezeption grundlegend gewandelt. Der Spiegel geht bald noch einen Schritt weiter: In einem Joint Venture mit der Bertelsmann-Tochter Wissen Media Group werkeln die Mitarbeiter seit vergangenem Herbst an einem umfangreichen Recherche- und Informations-Portal, in dem nicht nur sämtliche bislang kostenpflichtigen Archiv-Inhalte seit Gründung des Blattes 1947 frei zugänglich sein werden. Wer bei Spiegel Wissen ein Suchwort eingibt, bekommt neben den entsprechenden Spiegel-Artikeln zusätzlich Texte aus Bertelsmann-Lexika und -Wörterbüchern serviert. Hinzu kommen Einträge aus der freien Enzyklopädie Wikipedia. Die Plattform soll im Frühjahr online gehen. Der genaue Termin stehe noch nicht fest, nach Einschätzung von Hauke Janssen, Geschäftsführer von Spiegel Wissen, könnte es jedoch eher klappen, als geplant. Bleibt die Frage, was denn eigentlich die Printmedien davon haben, ihre kostbaren Texte nun kostenlos ins Netz zu stellen. "Diese Frage ist so alt wie der Online-Journalismus", sagt Janssen. Spiegel-Online habe selbst lange mit "paid content" (etwa: kostenpflichtiger Inhalt) experimentiert und dann auf ein werbefinanziertes Portal gesetzt. "Die Archiv-Inhalte haben wir allerdings bepreist gelassen."
    Bislang. Doch der Umsatz aus dem paid content stagniere und sei ohnehin kaum relevant. Statt abzusperren, sei es daher "klüger für die Marke Spiegel", den Nutzer im Internet mit Printartikeln zu versorgen und das Angebot über Werbung zu finanzieren. Lediglich das aktuelle Heft soll im Netz weiterhin kostenpflichtig sein. Janssen spricht von "Chancengleichheit" und davon, dass der "gesellschaftliche Mehrwert" wachse. "Jeder, der etwas wissen möchte, hat Zugriff auf die notwendigen Informationsquellen." Ähnlich sieht es der Deutsche Journalisten Verband (DJV). "Aus unserer Sicht ist die Öffnung der Archive generell zu begrüßen, da dem Bürger journalistische Inhalte einfacher zugänglich sind", sagt DJV-Sprecherin Nicole von Stockert. Auch Frank Thomsen, Chefredakteur von stern.de, ist von diesem "spannenden Ansatz" sehr angetan. "Dass wir ihn derzeit nicht verfolgen, hat einen einfachen Grund: Wir haben im Moment andere Prioritäten." Wenn es um Neuerungen im Online-Journalismus geht, dauert es meist nicht lange, bis sich Kritiker erheben, die um den Verkauf der Druckauflage und die Zukunft der Presse überhaupt bangen. Doch die Freigabe der Archive - hierin sind sich die Medienhäuser ebenso einig wie in ihrem Entzücken für die Sache - stellt wohl keine Gefahr dar."
  14. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.09995948 = product of:
      0.3998379 = sum of:
        0.3998379 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.3998379 = score(doc=1743,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  15. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.09995948 = product of:
      0.3998379 = sum of:
        0.3998379 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.3998379 = score(doc=2137,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  16. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.09995948 = product of:
      0.3998379 = sum of:
        0.3998379 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.3998379 = score(doc=2035,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  17. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.09995948 = product of:
      0.3998379 = sum of:
        0.3998379 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.3998379 = score(doc=2050,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  18. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.09979961 = product of:
      0.19959922 = sum of:
        0.16659912 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.16659912 = score(doc=729,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.033000093 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.033000093 = score(doc=729,freq=8.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  19. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.098292224 = product of:
      0.19658445 = sum of:
        0.1332793 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.1332793 = score(doc=2567,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.063305154 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.063305154 = score(doc=2567,freq=46.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  20. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.09758902 = product of:
      0.19517805 = sum of:
        0.16659912 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.16659912 = score(doc=617,freq=2.0), product of:
            0.42791957 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.060719278 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.02857892 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.02857892 = score(doc=617,freq=6.0), product of:
            0.13466923 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.060719278 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können

Authors

Languages

Types

  • a 9351
  • m 2236
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 49
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications