Search (13215 results, page 3 of 661)

  1. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.13
    0.12618695 = product of:
      0.2523739 = sum of:
        0.20310172 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.20310172 = score(doc=977,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.049272172 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.049272172 = score(doc=977,freq=12.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  2. Balakrishnan, U,; Soergel, D.; Helfer, O.: Representing concepts through description logic expressions for knowledge organization system (KOS) mapping (2020) 0.12
    0.12146831 = product of:
      0.48587325 = sum of:
        0.48587325 = weight(_text_:helfer in 1145) [ClassicSimilarity], result of:
          0.48587325 = score(doc=1145,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.93286943 = fieldWeight in 1145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.078125 = fieldNorm(doc=1145)
      0.25 = coord(1/4)
    
  3. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.12115925 = product of:
      0.2423185 = sum of:
        0.16925144 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.16925144 = score(doc=50,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.073067054 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.073067054 = score(doc=50,freq=38.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  4. Rötzer, F.: KI-Programm besser als Menschen im Verständnis natürlicher Sprache (2018) 0.12
    0.12040178 = product of:
      0.24080355 = sum of:
        0.04645425 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.04645425 = score(doc=217,freq=24.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.33954507 = fieldWeight in 217, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.1943493 = weight(_text_:helfer in 217) [ClassicSimilarity], result of:
          0.1943493 = score(doc=217,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.3731478 = fieldWeight in 217, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Abstract
    Jetzt scheint es allmählich ans Eingemachte zu gehen. Ein von der chinesischen Alibaba-Gruppe entwickelte KI-Programm konnte erstmals Menschen in der Beantwortung von Fragen und dem Verständnis von Text schlagen. Die chinesische Regierung will das Land führend in der Entwicklung von Künstlicher Intelligenz machen und hat dafür eine nationale Strategie aufgestellt. Dazu ernannte das Ministerium für Wissenschaft und Technik die Internetkonzerne Baidu, Alibaba und Tencent sowie iFlyTek zum ersten nationalen Team für die Entwicklung der KI-Technik der nächsten Generation. Baidu ist zuständig für die Entwicklung autonomer Fahrzeuge, Alibaba für die Entwicklung von Clouds für "city brains" (Smart Cities sollen sich an ihre Einwohner und ihre Umgebung anpassen), Tencent für die Enwicklung von Computervision für medizinische Anwendungen und iFlyTec für "Stimmenintelligenz". Die vier Konzerne sollen offene Plattformen herstellen, die auch andere Firmen und Start-ups verwenden können. Überdies wird bei Peking für eine Milliarde US-Dollar ein Technologiepark für die Entwicklung von KI gebaut. Dabei geht es selbstverständlich nicht nur um zivile Anwendungen, sondern auch militärische. Noch gibt es in den USA mehr KI-Firmen, aber China liegt bereits an zweiter Stelle. Das Pentagon ist beunruhigt. Offenbar kommt China rasch vorwärts. Ende 2017 stellte die KI-Firma iFlyTek, die zunächst auf Stimmerkennung und digitale Assistenten spezialisiert war, einen Roboter vor, der den schriftlichen Test der nationalen Medizinprüfung erfolgreich bestanden hatte. Der Roboter war nicht nur mit immensem Wissen aus 53 medizinischen Lehrbüchern, 2 Millionen medizinischen Aufzeichnungen und 400.000 medizinischen Texten und Berichten gefüttert worden, er soll von Medizinexperten klinische Erfahrungen und Falldiagnosen übernommen haben. Eingesetzt werden soll er, in China herrscht vor allem auf dem Land, Ärztemangel, als Helfer, der mit der automatischen Auswertung von Patientendaten eine erste Diagnose erstellt und ansonsten Ärzten mit Vorschlägen zur Seite stehen.
  5. Kusenberg, P.: Freilwillige vor! : Bei Helpedia im Internet gibt es Ehrenämter für alle (2008) 0.12
    0.11941293 = product of:
      0.23882586 = sum of:
        0.04447656 = weight(_text_:und in 286) [ClassicSimilarity], result of:
          0.04447656 = score(doc=286,freq=22.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.32508966 = fieldWeight in 286, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=286)
        0.1943493 = weight(_text_:helfer in 286) [ClassicSimilarity], result of:
          0.1943493 = score(doc=286,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.3731478 = fieldWeight in 286, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.03125 = fieldNorm(doc=286)
      0.5 = coord(2/4)
    
    Content
    "Eine pensionierte Grundschullehrerin aus Köln-Lindenthal möchte etwas tun, um anderen Menschen helfen. Sie kann sich beim Deutschen Roten Kreuz erkundigen, bei der Arbeiterwohlfahrt, der Caritas - oder sie ruft im Internet die Seite www.helpedia.org auf. Hier gibt sie ihre Wunsch-Tätigkeit ein, etwa Helferin in der Altenpflege, und sucht Köln-weit nach entsprechenden Angeboten. Tausende Jobs in der Datenbank Die Helpedia-Website enthält immerhin eines der umfassendsten Angebote gemeinnütziger Jobs und Veranstaltungen in Deutschland. Der Berliner Volkswirt Sebastian Schwiecker (siehe Interview) gründete die anerkannt gemeinnützige Organisation Helpedia im Sommer vergangenen Jahres und bemüht sich mit freiwilligen Helfern darum, das Angebot auszubauen. Vorbild sind amerikanische Internetplattformen wie www.networkforgood.org ünd www.volunteermatch.org, die als ehrenamtliche Netzwerke Millionen Nutzer aufweisen und sich zu ersten Anlaufstellen für hilfsbereite Amerikaner mausern. Auf der Suche nach vergleichbaren Angeboten in Deutschland sei er nicht fündig geworden, erklärt Schwiecker. Als ihm die Größe des gemeinnützigen Sektors klar wurde, begann er, Ideen weiterzuentwickeln und zusätzliche Mitstreiter zu gewinnen. Die Entscheidung, Helpedia zu gründen, veranlasste Schwiecker schließlich, seinen bisherigen Job zu kündigen, "da ich nicht glaube, dass man ein professionelles Angebot als Hobby betreiben kann." Helpedia beherbergt derzeit Tausende Job Angebote in seiner Datenbank: bei der Freiwilligen Feuerwehr in Dittelbrunn-Hambach, als ehrenamtlicher Blutspende-Helfer fürs Rote Kreuz oder als Koordinatoren beim Kinderferienparadies 2008. Die Helpedia-Betreiber weisen zudem auf gemeinnützige Veranstaltungen hin und bemühen sich um Partner, die die Datenbank des Portals bereichern und unterstützen. Derzeit arbeiten weniger als ein Dutzend junge Menschen für Helpedia - außer Geschäftsführer Schwiecker alle ehrenamtlich.
    Helpedia leidet darunter, dass Internet-Betrüger gern vorgeben, gemeinnützig zu sein. Schwiecker kämpft daher besonders vehement um ein seriöses Image: "Das Finanzamt hat uns als gemeinnützige Organisation anerkannt", sagt er: "Bei neuen Partnern orientieren wir uns im Zweifelsfall daran, ob die entsprechende Organisation offiziell gemeinnützig und in einem der von uns vorgegebenen Bereiche tätig ist, damit keine schwarzen Schafe in unsere Datenbank geraten." Alle Helpedia-Aktionen macht Schwiecker im Internet publik, alle Einträge in der Datenbank enthalten nötige Kontakt-Daten sowie das Logo der jeweiligen Organisation, sei es "Brot für die Welt" oder die Deutsche Lebensrettungsgesellschaft. Hilfs-Beitrag in der realen Welt Helpedia funktioniert schon jetzt gut, wie sich herausstellt: Besagte Kölner Lehrerin erhält auf ihre Anfrage immerhin zehn Treffer, darunter einen, der auf eine Betreuer-Arbeit bei einer unweiten Caritas-Dienststelle hinweist und gleich E-Mail-Adresse und Telefonnummer enthält. Wer sich bei Helpedia registrieren möchte, kann dies kostenlos und unverbindlich tun. Im Forum darf jeder Besucher Verbesserungsvorschläge machen, auf schwarze Schafe hinweisen - oder das Angebot loben, das im Gegensatz zu Quatsch-Portalen ä la StudiVZ einen Hilfs-Beitrag in der realen Welt zu leisten vermag."
  6. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.118971206 = product of:
      0.23794241 = sum of:
        0.20310172 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20310172 = score(doc=1181,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.03484069 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.03484069 = score(doc=1181,freq=6.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  7. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.11897019 = product of:
      0.23794039 = sum of:
        0.19148614 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19148614 = score(doc=1761,freq=4.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.04645425 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.04645425 = score(doc=1761,freq=24.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  8. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.118475996 = product of:
      0.47390398 = sum of:
        0.47390398 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.47390398 = score(doc=5463,freq=8.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  9. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.118475996 = product of:
      0.47390398 = sum of:
        0.47390398 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.47390398 = score(doc=86,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  10. Menge-Sonnentag, R.: Google veröffentlicht einen Parser für natürliche Sprache (2016) 0.12
    0.11837802 = product of:
      0.23675604 = sum of:
        0.042406734 = weight(_text_:und in 3941) [ClassicSimilarity], result of:
          0.042406734 = score(doc=3941,freq=20.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.3099608 = fieldWeight in 3941, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3941)
        0.1943493 = weight(_text_:helfer in 3941) [ClassicSimilarity], result of:
          0.1943493 = score(doc=3941,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.3731478 = fieldWeight in 3941, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.03125 = fieldNorm(doc=3941)
      0.5 = coord(2/4)
    
    Abstract
    SyntaxNet zerlegt Sätze in ihre grammatikalischen Bestandteile und bestimmt die syntaktischen Beziehungen der Wörter untereinander. Das Framework ist Open Source und als TensorFlow Model implementiert. Ein Parser für natürliche Sprache ist eine Software, die Sätze in ihre grammatikalischen Bestandteile zerlegt. Diese Zerlegung ist notwendig, damit Computer Befehle verstehen oder Texte übersetzen können. Die digitalen Helfer wie Microsofts Cortana, Apples Siri und Google Now verwenden Parser, um Sätze wie "Stell den Wecker auf 5 Uhr!" richtig umzusetzen. SyntaxNet ist ein solcher Parser, den Google als TensorFlow Model veröffentlicht hat. Entwickler können eigene Modelle erstellen, und SnytaxNet bringt einen vortrainierten Parser für die englische Sprache mit, den seine Macher Parsey McParseface genannt haben.
    Content
    "Syntaktische Beziehungen Der Parser teilt den Wörtern eine syntaktische Funktion zu und untersucht die syntaktischen Beziehungen zwischen den Einzelteilen. Den englischen Beispielsatz aus dem Blog-Beitrag "Alice saw Bob" analysiert er folgendermaßen: "Alice" und "Bob" sind Substantive, und "saw" ist ein Verb. Letzteres ist gleichzeitig die Wurzel (ROOT), von der die restlichen Beziehungen ausgehen. Alice ist das zugehörige Subjekt (nsubj) und Bob das Objekt (dobj). Längere Sätze werden leicht mehrdeutig. Beispielsweise ist im Satz "Alice sah Bob mit dem Fernglas" nicht erkennbar, wer von den beiden das Fernglas in der Hand hält. Rein syntaktisch ist auch der Satz "Peter schneidet das Brot mit Sonnenblumenkernen" mehrdeutig. Das menschliche Gehirn erkennt die richtige Bedeutung recht zuverlässig, aber für maschinelle Parser stellen sie eine Herausforderung dar.
    SyntaxNet nutzt zur Entscheidung neuronale Netze und versucht die Abhängigkeiten richtig zuzuordnen. Damit "lernt" der Parser, dass es schwierig ist, Sonnenblumenkerne zum Schneiden einzusetzen, und sie somit wohl eher Bestandteil des Brots als ein Werkzeug sind. Die Analyse beschränkt sich jedoch auf den Satz selbst. Semantische Zusammenhänge berücksichtigt das Modell nicht. So lösen sich manche Mehrdeutigkeiten durch den Kontext auf: Wenn Alice im obigen Beispiel das Fernglas beim Verlassen des Hauses eingepackt hat, wird sie es vermutlich benutzen. Trefferquote Mensch vs. Maschine Laut dem Blog-Beitrag kommt Parsey McParseface auf eine Genauigkeit von gut 94 Prozent für Sätze aus dem Penn Treebank Project. Die menschliche Quote soll laut Linguisten bei 96 bis 97 Prozent liegen. Allerdings weist der Beitrag auch darauf hin, dass es sich bei den Testsätzen um wohlgeformte Texte handelt. Im Test mit Googles WebTreebank erreicht der Parser eine Genauigkeit von knapp 90 Prozent."
  11. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.114260785 = product of:
      0.22852157 = sum of:
        0.16755037 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16755037 = score(doc=5002,freq=4.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.0609712 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.0609712 = score(doc=5002,freq=54.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  12. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.11
    0.113537304 = product of:
      0.45414922 = sum of:
        0.45414922 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.45414922 = score(doc=6217,freq=10.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  13. Kurzweil, A.: ¬Die Leidenschaften eines Bibliothekars : Roman (2002) 0.11
    0.109919205 = product of:
      0.21983841 = sum of:
        0.049782775 = weight(_text_:und in 2481) [ClassicSimilarity], result of:
          0.049782775 = score(doc=2481,freq=36.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.36387405 = fieldWeight in 2481, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2481)
        0.17005564 = weight(_text_:helfer in 2481) [ClassicSimilarity], result of:
          0.17005564 = score(doc=2481,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.32650432 = fieldWeight in 2481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2481)
      0.5 = coord(2/4)
    
    Abstract
    Ein Bibliothekar an der New York Library gerät in den Bann eines exzentrischen älteren Herrn, der einen ganz besonderen Auftrag für ihn hat - ein spannender intellektueller Thriller voll Witz, Charme und Phantasie, ein sicherer Hit für Fans von Lawrence Norfolks Lemprières Wörterbuch und andere Leseratten.
    Content
    Alexander Short ist mit Haut und Haaren den Büchern verfallen. Der junge Bibliothekar ist ein eigenwilliger Mensch: Er läuft mit einem Beutelbuch durch die Gegend, wie es früher Mönche im Mittelalter bei sich getragen haben. Während die Diener Gottes solche Beutelbücher trugen, um zu jeder Zeit und an jedem Ort mit dem Wort des Herrn gewappnet zu sein, nutzt Alexander Short sein Buch für Notizen. Daneben kann er schönen oder auffälligen Bestellscheinen nicht widerstehen. Er hat sogar ein kleines Buch mit dem Titel "Liebe Scheine" verfasst. Seine junge Frau Nic sieht die Marotten ihres Mannes gar nicht gerne. Die gebürtige Französin, die erotische Klappkarten gestaltet, leidet unter Liebesentzug. Alexander widmet seinen Büchern und Bestellscheinen mehr Aufmerksamkeit als seiner Frau. All ihre raffinierten Versuche, erotischen Schwung ins Ehebett zu bekommen, scheitern. Die Ehekrise spitzt sich zu, als Alexander in seiner Bibliothek den Sammler Henry James Jesson III. kennenlernt. Der kauzige, alte Mann interessiert sich, wie Alexander, für Geheimfächer. Er zeigt dem jungen Büchernarren seine umfangreiche Sammlung von mechanischen Geräten und einen Kuriositätenkasten mit zehn Fächern. Alle Fächer sind gefüllt, nur das zehnte Fach ist leer. Jesson hat einen Auftrag für Alexander: Er soll herausfinden, was sich in dem zehnten Fach befand und soll diesen Gegenstand beschaffen. Voller Eifer stürzt sich Alexander in die Suche und wird schon bald fündig. Bei dem fehlenden Teil handelt es sich um eine mechanische Taschenuhr von Abraham-Louis Breguet, die er angeblich für Königin Marie-Antoinette angefertigt hatte. Um an das kostbare Stück zu gelangen, ist Jesson jedes Mittel recht. Sein Helfer Alexander muss in staubigen Archiven suchen, er schließt Bekanntschaft mit einem fanatischen Marie-Antoinette-Anhänger und riskiert sogar seinen Job, als er ein kostbares Buch aus seiner eignen Bibliothek entwendet. Seine Frau Nic betrachtet das alles mit Argwohn und wirft Alexander schließlich aus der gemeinsamen Wohnung. Unterschlupf findet er bei seinem Sammlerfreund Jesson. Als der Bibliothekar eines Tages durch die wertvolle Sammlung streift, macht er eine böse Entdeckung. Jesson hat ihn gezielt ausgesucht und hintergangen. Alexander schwört Rache und tüftelt einen raffinierten Plan aus. Mit viel Humor erzählt der amerikanische Autor Allen Kurzweil in seinem zweiten Roman von merkwürdigen Leuten: Sammler, Bibliothekare und andere Exzentrikern stehen im Mittelpunkt der Handlung. Ob nun die raffinierten, erotischen Verführungskünste von Nic, ob der skurrile Bibliothekshausmeister, der die Dewey-Dezimalklassifikation aus dem Effeff beherrscht oder die eigenwillige Bibliotheksbetriebsfeier, bei der "Bestellscheinrennen" oder "Schiffeversenken an der Anzeigetafel" auf dem Programm stehen - all das verführt zum Schmunzeln. Leider bleiben aber gerade die beiden Hauptfiguren - Jesson und Alexander Short - merkwürdig flach in ihrer Darstellung. Kurzweils Nebenfiguren wirken oft plastischer als die eigentlichen Akteure des Geschehens. Zudem sollte man sich nicht vom Klappentext verwirren lassen, der einen "spannenden, intellektuellen Thriller" verspricht. Nervenzerrende Spannung kommt beim Lesen sicher nicht auf, eher plätschert die Geschichte fröhlich und munter vor sich hin. Die eingestreuten, literarischen Anspielungen, etwa auf Samuel Johnson und seinen Freund und Biografen James Boswell, wirken auch so: Mehr eingeworfen als mit Absicht gesetzt. Fazit: "Die Leidenschaften eines Bibliothekars" ist ein kurzweiliger Roman, der an der Oberfläche bleibt. So kann das Buch auch gelesen werden: Als charmantes Intermezzo für Bücher- und Sammlerfreunde. - Original u.d.T.: The grand complication, 2001
  14. Gömpel, R.; Frodl, C.; Hengel, C.; Kunz, M.; Münnich, M.; Werner, C.: Aus den Veranstaltungen der Division IV Bibliographic Control des Weltkongresses Bibliothek und Information, 69. IFLA-Generalkonferenz in Berlin (2003) 0.11
    0.109919205 = product of:
      0.21983841 = sum of:
        0.049782775 = weight(_text_:und in 2940) [ClassicSimilarity], result of:
          0.049782775 = score(doc=2940,freq=36.0), product of:
            0.13681321 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06168595 = queryNorm
            0.36387405 = fieldWeight in 2940, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2940)
        0.17005564 = weight(_text_:helfer in 2940) [ClassicSimilarity], result of:
          0.17005564 = score(doc=2940,freq=2.0), product of:
            0.52083737 = queryWeight, product of:
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.06168595 = queryNorm
            0.32650432 = fieldWeight in 2940, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.443371 = idf(docFreq=25, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2940)
      0.5 = coord(2/4)
    
    Abstract
    Unter dem Motto "Bibliothek als Portal: Medien - Information - Kultur" fand vom 1.-9. August 2003 in Berlin die 69. IFLA-Generalkonferenz erstmals unter ihrem neuen Namen "Weltkongress Bibliothek und Information" statt. Der Weltverband der Bibliothekarinnen und Bibliothekare gastierte damit nach 1956 (München), 1968 (Frankfurt am Main), 1981 (Leipzig) und 1983 (München) bereits zum fünften Mal in Deutschland. Die Veranstaltung war von der IFLA und dem nationalen Organisationskomitee hervorragend organisier und wies mit 4.582 Teilnehmerinnen und Teilnehmern aus 131 Ländern eine erfreulich hohe Teilnehmerzahl auf. Bemerkenswert hoch war auch die deutsche Beteiligung mit über 972 Teilnehmerinnen und Teilnehmern. In dieser Zahl berücksichtigt sind auch die 197 freiwilligen Helferinnen und Helfer, die die erfolgreiche Durchführung des Kongresses überhaupt erst möglich machten. Die hohe deutsche Teilnehmerzahl ist ein eindeutiges Indiz dafür, dass seitens des IFLA-Nationalkomitees und des IFLA 2003Sekretariats sehr erfolgreich Überzeugungsarbeit geleistet wurde. Es bleibt zu hoffen, dass dieser Schwung auch das künftige deutsche Engagement bei den Weltkongressen dauerhaft positiv beeinflussen wird. Nachdem es erstmals in Glasgow im letzten Jahr gelungen war, die Konferenzzeitschrift "IFLA Express" in deutscher Sprache zu veröffentlichen, wurde auch in Berlin täglich eine deutsche Ausgabe produziert. Wie in den Vorjahren soll hier über die Veranstaltungen der Division IV Bibliographic Control berichtet werden'. Die Arbeit der Division mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing bildet einen der Schwerpunkte der IFLA-Arbeit, die dabei erzielten konkreten Ergebnisse und Empfehlungen haben maßgeblichen Einfluss auf die tägliche Arbeit der Bibliothekarinnen und Bibliothekare. Die Tätigkeit der Division wird auch in Zukunft ergänzt durch Kernaktivitäten. Nachdem das bisherige Kernprogramm "Universal Bibliographic Control and International MARC (UBCIM)", dessen Büro von 1990 bis Februar 2003 an der Deutschen Bibliothek Frankfurt am Main angesiedelt war, mit dem Eintritt der bisherigen Leiterin Marie-France Plassard in den Ruhestand endete, eruieren die verantwortlichen IFLA-Gremien bereits in den Vorjahren Möglichkeiten, wie die Betreuung des Formates UNIMARC und die Fortführung eines Programms, das sich mit der universellen bibliographischen Kontrolle beschäftigt, sichergestellt werden könnten. Die portugiesische Nationalbibliothek hat nunmehr zu Beginn diesen Jahres die Pflege und Entwicklung von UNIMARC sowie die Herausgabe der Publikation "International Cataloguing and Bibliographic Control (ICBC)" übernommen. Darüber hinaus gelang es, mit der IFLA-CDNL Alliance for Bibliographic Standards (ICABS) ein neues strategisches Vorhaben für bibliographische Standards ins Leben zu rufen. Die feierliche Unterzeichnung der ICABS-Vereinbarung fand am 7. August 2003 im Rahmen der IFLA-Konferenz statt. Mit ICABS setzen die National Library of Australia, die Library of Congress, die British Library, die Koninklijke Bibliotheek und Die Deutsche Bibliothek gemeinsam mit der Biblioteca Nacional de Portugal, der IFLA und der Conference of Directors of National Libraries (CDNL) die Koordination und Unterstützung von Schlüsselaktivitäten im Bereich der bibliographischen und der Ressourcen-Kontrolle sowie damit zusammenhängender Formatstandards fort.
  15. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.102603234 = product of:
      0.41041294 = sum of:
        0.41041294 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.41041294 = score(doc=6014,freq=6.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  16. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.10
    0.102603234 = product of:
      0.41041294 = sum of:
        0.41041294 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.41041294 = score(doc=4612,freq=6.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java
  17. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.102603234 = product of:
      0.41041294 = sum of:
        0.41041294 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.41041294 = score(doc=6896,freq=6.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  18. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.10155086 = product of:
      0.40620345 = sum of:
        0.40620345 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.40620345 = score(doc=1743,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  19. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.10155086 = product of:
      0.40620345 = sum of:
        0.40620345 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.40620345 = score(doc=2137,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  20. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.10155086 = product of:
      0.40620345 = sum of:
        0.40620345 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.40620345 = score(doc=2035,freq=2.0), product of:
            0.43473217 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06168595 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    

Authors

Languages

Types

  • a 9357
  • m 2234
  • el 1009
  • x 591
  • s 555
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications