Search (13210 results, page 3 of 661)

  1. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.13
    0.12568924 = product of:
      0.25137848 = sum of:
        0.20230065 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.20230065 = score(doc=977,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.049077835 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.049077835 = score(doc=977,freq=12.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  2. Bhattacharjee, E.: Unter der Lupe : die CD-ROM-Retrieval-Software Knowledge Finder (1995) 0.12
    0.12452841 = product of:
      0.49811363 = sum of:
        0.49811363 = weight(_text_:heben in 718) [ClassicSimilarity], result of:
          0.49811363 = score(doc=718,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.9464153 = fieldWeight in 718, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.078125 = fieldNorm(doc=718)
      0.25 = coord(1/4)
    
    Abstract
    Die neue Version des CD-ROM-Retrieval-Systems Knowledge Finder hat sich die ehrgeizige Aufgabe gestellt, das Heben auch verborgenster Literaturschätze der medizinischen Mammutdatenbank Medline zu ermöglichen. Allem Anschein nach wurde diese Aufgabe zufriedenstellend gelöst
  3. bs: Desktop-Schnüffler (2006) 0.12
    0.12452841 = product of:
      0.49811363 = sum of:
        0.49811363 = weight(_text_:heben in 5958) [ClassicSimilarity], result of:
          0.49811363 = score(doc=5958,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.9464153 = fieldWeight in 5958, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.078125 = fieldNorm(doc=5958)
      0.25 = coord(1/4)
    
    Abstract
    So manche Festplatte gleicht einem verstaubten, chaotischen Keller, in dessen finsteren Eingeweiden man nur ungern wühlt. Wer wertvolle Informationen trotzdem heben will, greift zur Desktop-Suchmaschine.
  4. Mal sehen, was Google hat : Suchmaschinen (2001) 0.12
    0.12275823 = product of:
      0.24551646 = sum of:
        0.046271026 = weight(_text_:und in 776) [ClassicSimilarity], result of:
          0.046271026 = score(doc=776,freq=24.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.33954507 = fieldWeight in 776, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=776)
        0.19924544 = weight(_text_:heben in 776) [ClassicSimilarity], result of:
          0.19924544 = score(doc=776,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.37856612 = fieldWeight in 776, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.03125 = fieldNorm(doc=776)
      0.5 = coord(2/4)
    
    Abstract
    Zumindest eine Suche hat ein Ende: die nach der besten Suchmaschine. Die Stiftung Warentest hat sie gefunden. Sie heißt www.google.de und hat in, der Untersuchung alle anderen Suchhilfen ziemlich alt aussehen lassen. Denn Google ist kinderleicht zu bedienen, übersichtlich und vor allem treffsicher. Google empfiehlt sich für fast alle Anfragen als erste Anlaufstelle. Darüber hinaus sollte man aber auch andere Suchhilfen konsultieren. Altavista, Lycos und Metager bieten sich als nächste an. Eine erweiterte Recherche kann die Zahl der interessanten Treffer durchaus erhöhen. Mitunter ist es auch ratsam; in enem Katalog zu stöbern.: Vor allem dann, wenn der Suchende kein genaues Ziel hat und: sich nur einen Überblick darüber verschaffen will, was es im Netz so alles gibt. Webkataloge sind im Unterschied zu den Volltextsuch-maschinen von Menschen erstellte Verzeichnisse. Das erhöht die Qualität und stellt sicher, dass zu einem Stichwort ausschließlich relevante Seiten aufgeführt werden. Das Informationsangebot der Kataloge ist jedoch vergleichsweise niedrig. Deshalb leiten sie Anfragen, die sie nicht aus ihrem Fundus beantworten können, meist an eine Suchmaschine weiter. Diejenigen, die glauben, mit Meta-Suchmaschinen mehrere Fliegen mit einer Klappe zu schlagen, werden enttäuscht. Zwar grasen Metager und Co. immer gleichzeitig mehrere Suchmaschinen und Kataloge ab, zu perfekten Ergebnissen führt das aber kaum. Am besten schafft es noch Metager von der Uni Hannover, die den vierten Platz im Test errungen konnte. Um herauszubekommen, welche Suchmaschinen die besten Schätze aus dem unüberschaubaren Datenmeer des weltweiten Netzes heben, haben die Tester 21 elektronische Spürnasen, darunter fünf Metasuchmaschinen und sechs Kataloge, ausführlich ins Verhör genommen. An jede wurden zehn identische Anfragen gerichtet. Die Ergebnisse zeigen, dass die Internetsuche häufig noch einem Stochern um Nebel gleicht. Obwohl für jede Suchmaschine und jede Aufgabe immer von mehreren Anfragemöglichkeiten die mit den besten Ergebnissen gewertet wurde, hatte insgesamt über die Hälfte der angezeigten Treffer rein gar nichts mit dem gesuchten Thema zu tun. Nur eine Suchmaschine, nämlich Google, schaffte es, für alle zehn Fragen wenigstens eine völlig zutreffende Antwort zu finden. Altavista und Metager brachten es immerhin auf neun beantwortete Fragen und Lycos auf acht. MSN Search hatte dagegen nur für eine Frage die richtigen Links parat, und Acoon hinterließ völlige Ratlosigkeit: kein wirklich guter Treffer.
  5. Hinckeldey, S. von; Fischer, G.: Psychotraumatologie der Gedächtnisleistung : Diagnostik, Begutachtung und Therapie traumatischer Erinnerungen (2002) 0.12
    0.120742455 = product of:
      0.24148491 = sum of:
        0.042239472 = weight(_text_:und in 2341) [ClassicSimilarity], result of:
          0.042239472 = score(doc=2341,freq=20.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.3099608 = fieldWeight in 2341, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2341)
        0.19924544 = weight(_text_:heben in 2341) [ClassicSimilarity], result of:
          0.19924544 = score(doc=2341,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.37856612 = fieldWeight in 2341, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.03125 = fieldNorm(doc=2341)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Gehirn & Geist 2002, H.3, S.96 (M. Springer: "Hinter dem trockenen Titel verbirgt sich ein faktenreiches, streckenweise richtig spannendes Buch über ein Thema, das uns (fast) alle angeht: Nicht weniger als sechzig bis neunzig Prozent aller Menschen erleiden in ihrem Leben ein psychisches Trauma - das heißt eine seelische Verletzung durch ein extrem bedrohliches Ereignis, bei dem man sich als hilfloses Opfer erlebt. Traumatisierende Erschütterungen können durch buchstäblich niederschmetternde Geschehnisse wie Unfälle, Naturkatastrophen oder Gewaltverbrechen-ausgelöst werden. Aber viel mehr Menschen erleiden eine so genannte sekundäre Traumatisierung: als hilflose Zuschauer eines Unfalls, als Angehörige eines Todkranken, als Rettungskräfte, Pfleger in Intensivstationen - oder sogar als Therapeuten von Trauma-Opfern. Bei acht bis neun Prozent aller Betroffenen hinterlassen solche Erlebnisse einen bleibenden seelischen Defekt, im Fachjargon eine "psychotraumatische Belastungsstörung" (PTBS). Das traumatisierende Ereignis löst beim Opfer eine so tiefe und dauerhafte Erschütterung seines -Selbst- und Weltverständnisses aus, dass ein normales Einbauen des Erlebten ins Gedächtnis nicht stattfinden kann. Das zutiefst verletzende Geschehen wird abgekapselt, verdrängt, durch Dissoziation des Gedächtnisses aus dem bewussten Erinnern herausgehalten. Solche Erkenntnisse sind im Prinzip nicht neu: Schon 1887 erklärte der Pariser Arzt Jean-Martin Charcot die hysterischen Symptome seiner Patientinnen durch traumatische Erlebnisse, und sein Schüler Pierre Janet interpretierte ihre verräterischen Gedächtnislücken als dissoziierte Erinnerungsfragmente an eine frühere, überwältigend schmerzliche Erfahrung.
    Doch erst vor kurzem hat sich die Psychotraumatologie als eigene Disziplin etabliert. Einschlägiger Forschungsbedarf entstand Ende der 1970er Jahre in den USA, als nach dem Vietnamkrieg zehntausende Veteranen zu versorgen waren, die nicht nur körperliche, sondern auch tiefe seelische Verletzungen davongetragen hatten. In Deutschland erschien erst 1998 das erste Lehrbuch der neuen Disziplin, dessen Koautor Gottfried Fischer heute das Deutsche Institut für Psychotraumatologie in Köln leitet. Eine wichtige Rolle spielen Trauma-Forscher als Gutachter vor Gericht. Wie ist die Glaubwürdigkeit eines Opfers von Kindesmissbrauch zu bewerten, das erst nach langen Jahren und nur mit therapeutischer Unterstützung seine Erinnerungen auszusprechen vermag? Die amerikanische Psychologin Elizabeth Loftus hat das Phänomen der "falschen Erinnerungen" untersucht, die durch suggestive Befragung erzeugt werden können. Das Buch geht auf solche Einwände ein, bewertet sie fair und warnt sowohl vor dem Kunstfehler, dem Trauma-Patienten Erlebnisse zu suggerieren, als auch vor generellem Misstrauen gegenüber dessen Aussagen. Anhand eines. Kriterienkatalogs werden Indizien angeführt, die für oder gegen die Plausibilität verschütteter Erinnerungen sprechen. Immer wieder lockern Fallbeispiele den Lehrbuchcharakter des Textes auf. All diese erschütternden Geschichten ha ben immerhin einen tröstlichen Aspekt: Wenn das Trauma-Opfer erst einmal so weit ist, seine schrecklichen Erinnerungen zur Sprache zu bringen, haben The-. rapeut und Patient einen guten Teil des Wegs zur Heilung hinter sich. Dieses Heben der Erinnerung lässt sich aber nicht immer erreichen - und schon gar nicht durch Insistieren erzwingen. Viele Traumatisierte, zum Beispiel Holocaust-Überlebende, leben jahrzehntelang mit unausgesprochenen und nicht bewussten Erinnerungen, und manche nehmen den sprachlosen Schrecken mit ins Grab. Denn für Trauma-Opfer gilt: Die Zeit heilt keine Wunden.")
  6. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.120681375 = product of:
      0.24136275 = sum of:
        0.16858388 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.16858388 = score(doc=50,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.072778866 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.072778866 = score(doc=50,freq=38.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  7. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.11850196 = product of:
      0.23700392 = sum of:
        0.20230065 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20230065 = score(doc=1181,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.034703273 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.034703273 = score(doc=1181,freq=6.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  8. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.118500955 = product of:
      0.23700191 = sum of:
        0.19073088 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19073088 = score(doc=1761,freq=4.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.046271026 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.046271026 = score(doc=1761,freq=24.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  9. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.11800871 = product of:
      0.47203484 = sum of:
        0.47203484 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.47203484 = score(doc=5463,freq=8.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  10. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.11800871 = product of:
      0.47203484 = sum of:
        0.47203484 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.47203484 = score(doc=86,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  11. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.11381012 = product of:
      0.22762024 = sum of:
        0.16688952 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16688952 = score(doc=5002,freq=4.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.060730718 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.060730718 = score(doc=5002,freq=54.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  12. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.11
    0.113089494 = product of:
      0.45235798 = sum of:
        0.45235798 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.45235798 = score(doc=6217,freq=10.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  13. Delahaye, J.-P.: PI: Die Story (1999) 0.11
    0.107413456 = product of:
      0.21482691 = sum of:
        0.040487148 = weight(_text_:und in 2705) [ClassicSimilarity], result of:
          0.040487148 = score(doc=2705,freq=24.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.29710194 = fieldWeight in 2705, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2705)
        0.17433977 = weight(_text_:heben in 2705) [ClassicSimilarity], result of:
          0.17433977 = score(doc=2705,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.33124536 = fieldWeight in 2705, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2705)
      0.5 = coord(2/4)
    
    Abstract
    Der berühmte Physiker Richard P. Feynman sagte einmal: "In einem Glas Wein steckt das ganze Universum". Die ganze Mathematik steckt dagegen, so könnte man nach der Lektüre von Pi, die Story von Jean-Paul Delahaye meinen, in der Zahl Pi. Tatsache: Was den Physikern ihr Doppelspaltexperiment, ist dem Mathematiker die Kreiszahl -- eigentlich sollte sie nur das Verhältnis zwischen Umfang und Durchmesser eines Kreises definieren, aber im Laufe der Jahrhunderte entpuppte sie sich als Störenfried, der Rechengelehrten das Leben gehörig zur Hölle machte. Wie kann eine einfache Zahl Generationen von Mathematikern zur Verzweiflung treiben? Wieso verbrachten Gelehrte Jahrzehnte damit, wenige Nachkommastellen dieser Zahl auszurechnen -- wie zum Beispiel der Mathematiker Rutherford, der sich dummerweise ab der 152. Stelle verrechnete und daher genausogut fünf Jahre seines Lebens auf den Bahamas hätte Urlaub machen können? Wieso verbringen erwachsene Menschen ihre Zeit damit, in engen, mit Computern vollgestopften Zimmern zu hausen, die nicht beheizt, aber trotzdem warm sind von der Abwärme von Computerprozessoren, die auf der Suche nach Regelmäßigkeiten in der Zahl Pi sind? Genau das ist Delahayes Thema, und genau das hebt sein Werk aus der Masse vieler populärwissenschaftlicher Bücher zu ähnlichen Themen heraus: Der Autor macht nicht nur Forschung begreifbar, sondern steckt regelrecht an mit seiner Begeisterung für Pi. Wußten Sie, daß die Zahl Pi in den bisher gefundenen Nachkommastellen dieser Zahl -- statistisch verschlüsselt -- ihrerseits verborgen ist? Daß Pi in der Bibel vorkommt (allerdings mit einem lausigen Näherungswert)? Daß es eine Formel gibt, die Nachkommastellen liefert, die bis zur 42 Milliardsten Nachkommastelle mit denen von Pi identisch sind, danach aber nicht mehr -- und niemand weiß warum? Dies und noch viel, viel mehr Staunenswertes breitet Delahaye vor seinen Lesern aus, er stellt Mathematiker vor, die sich über Pi und ähnliche Zahlenmonster den Kopf zerbrochen haben: Leibnitz, Euler, Ramanujan -- dieses früh verstorbene Genie, das "mal eben" Formeln auf Notizblätter werfen konnte, die Mathematikern bis heute die Tränen in die Augen schießen lassen. Delahaye zeigt die brillianten Ideen, mit denen er und seine Kollegen heute ihren Problemen zu Leibe rücken, erklärt elegante Beweise, durchdachte Computeralgorithmen und faszinierende Skurrilitäten, wie zum Beispiel eine Zahl, die man zwar definieren, aber niemals berechnen kann. Wer sich auf dieses Buch einläßt, braucht als Nichtmathematiker schon etwas Mut -- denn Delahaye fordert seinen Lesern einiges ab: Unendliche Reihen, Zahlentheorie, wirklich knackige Algebra. Und manchmal geht der Computerexperte mit ihm durch -- möglich, daß nicht alle seine Kollegen alles unterschreiben würden, was er z.B. in Sachen rechnergestützte Mathematik von sich gibt. Aber viele der Schätze in diesem Buch kann man auch heben, ohne sich ein mathematisches Handbuch an die Seite legen zu müssen: Hier ist eben der gesunde Menschenverstand endlich wieder gefragt. "Pi ist ein Spielverderber", "Pi ist überall", "Pi ist eine Falle". Dieses Buch auch -- und eine Herausforderung.
    Classification
    SG 590 Mathematik / Biographien, Geschichte und Philosophie der Mathematik / Geschichte der Mathematik / Geschichte einzelner Probleme
    RVK
    SG 590 Mathematik / Biographien, Geschichte und Philosophie der Mathematik / Geschichte der Mathematik / Geschichte einzelner Probleme
  14. Harari, Y.N.: Homo deus : eine Geschichte von Morgen (2017) 0.10
    0.10470133 = product of:
      0.20940267 = sum of:
        0.035062898 = weight(_text_:und in 66) [ClassicSimilarity], result of:
          0.035062898 = score(doc=66,freq=18.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.2572978 = fieldWeight in 66, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=66)
        0.17433977 = weight(_text_:heben in 66) [ClassicSimilarity], result of:
          0.17433977 = score(doc=66,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.33124536 = fieldWeight in 66, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.02734375 = fieldNorm(doc=66)
      0.5 = coord(2/4)
    
    Abstract
    In seinem Kultbuch Eine kurze Geschichte der Menschheit erklärte Yuval Noah Harari, wie unsere Spezies die Erde erobern konnte. In "Homo Deus" stößt er vor in eine noch verborgene Welt: die Zukunft. Was wird mit uns und unserem Planeten passieren, wenn die neuen Technologien dem Menschen gottgleiche Fähigkeiten verleihen - schöpferische wie zerstörerische - und das Leben selbst auf eine völlig neue Stufe der Evolution heben? Wie wird es dem Homo Sapiens ergehen, wenn er einen technikverstärkten Homo Deus erschafft, der sich vom heutigen Menschen deutlicher unterscheidet als dieser vom Neandertaler? Was bleibt von uns und der modernen Religion des Humanismus, wenn wir Maschinen konstruieren, die alles besser können als wir? In unserer Gier nach Gesundheit, Glück und Macht könnten wir uns ganz allmählich so weit verändern, bis wir schließlich keine Menschen mehr sind.
    Content
    "In einer verblüffenden Tour d'Horizon durch die Menschheitsgeschichte beschreibt Harari, wie der Mensch in einem Akt wachsender Selbstermächtigung zum Homo Deus avanciert." (Adrian Lobe, Zeit Online, 10. April 2017) "(Harari) hat ein anmaßendes Buch geschrieben. Und ein aufregendes." (Erik Raidt, Stuttgarter Nachrichten Online, 31. März 2017) "Intelligent, scharfsinnig und manchmal sogar überraschend witzig (...) eröffnet einen ganz anderen Blick auf Geschichte." (Klaus Bittermann, taz literataz, 22. März 2017) "Überraschend, informativ, abwechslungsreich und leicht zu lesen." (Hildegard Lorenz, Münchner Merkur, 21. März 2017) "Sehen, wie die Welt ist, ohne auf die Bremse zu treten. Das ist der Sound von Yuval Noah Hararis 'Homo Deus'." (Adolf Holl, Die Presse, 18. März 2017) "Hararis packendes Buch ist ein Bekenntnis zum Humanismus." (Thomas Vasek, P.M., 10. März 2017) "Überaus anregende und fesselnde Lektüre." (Wolfgang Schneider, SWR2, 19. Februar 2017) "Fulminant, klug und düster." (Deutschlandradio Kultur, März 2017)
  15. Frey, S.: Vom Wort zum Bild - Von der Vernunft zum Instinkt? (2002) 0.10
    0.10369869 = product of:
      0.20739739 = sum of:
        0.03305762 = weight(_text_:und in 1257) [ClassicSimilarity], result of:
          0.03305762 = score(doc=1257,freq=16.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.24258271 = fieldWeight in 1257, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1257)
        0.17433977 = weight(_text_:heben in 1257) [ClassicSimilarity], result of:
          0.17433977 = score(doc=1257,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.33124536 = fieldWeight in 1257, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1257)
      0.5 = coord(2/4)
    
    Content
    "Die Medien können erstaunliche Dinge bewirken. Sie können Politiker zu Fall bringen, Kriege gewinnen, Firmen große Probleme schaffen. Aber wie gelangten sie eigentlich in diese Machtposition? Was ist der Mechanismus, der es ihnen erlaubte, sich in einer Weise zu entwickeln, dass heutzutage nicht zu Unrecht von ihnen als von einer "vierten Gewalt" im Staate gesprochen wird? Schließlich haben die Medien ja keinerlei formales Recht, Politiker in Amt und Würden zu heben oder sie zu feuern. Im Falle von Kriegen ist es ihnen nicht erlaubt, an der strategischen Planung oder am Kampfgeschehen selbst teilzunehmen. Und wenn sie Firmen in große Bedrängnis bringen, so nicht etwa auf dem üblichen Wege eines regulären Wettbewerbs. Die Macht der Medien ist von ganz anderer Art. Sie beruht gänzlich auf kommunikativem Geschick, d. h. auf der Fähigkeit, Menschen dazu zu bringen, die von den Medien verbreitete Information zu beachten, sie zu verstehen und ihr Glauben zu schenken. - Knecht des Gehirns - Von der Macht der Medien zur Manipulation der öffentlichen Meinung kann daher auch nur insoweit gesprochen werden, als es ihnen gelingt, die Aufmerksamkeit der Menschen auf sich zu lenken und ihr Publikum davon zu überzeugen, dass die ihm übermittelte Information zuverlässig ist. Aber wie schaffen sie das? Offenkundig nicht einfach durch die bloße Verbreitung von Information. Denn in einer modernen demokratischen Gesellschaft, die dem Bürger freien, unzensierten Zugang zu einer unlimitierten Anzahl von Informationsquellen gewährt, stehen die Medien selbst in einer Konkurrenzsituation, die alle Merkmale eines darwinistischen Überlebenskampfes aufweist. Und diesen können sie - falls Darwins Überlegungen korrekt sind - überhaupt nur dadurch gewinnen, dass sie sich ihren Umweltbedingungen optimal anpassen. Diese wiederum sind im Falle der Medien nun aber in erster Linie definiert durch die Funktionsweise jenes wundersamen Informationsverarbeitungsapparats, den wir das menschliche Gehirn nennen. Wenn es also darum gehen soll, herauszufinden, wie es den Medien gelingen konnte, sich den hehren Status einer vierten Gewalt anzueignen - einer Gewalt, die in Montesquieus Modell der drei Staatsgewalten noch gar nicht mal vorgesehen war -, müssen wir klären, wie der menschliche Wahrnehmungsapparat mit den Informationen umgeht, die ihm die Medien über die Sinnesorgane zuführen. Das heißt, wir müssen, um es in den Worten von Kurt und Gladys Lang, den großen Pionieren der amerikanischen Medienforschung, auszudrücken, uns der schwierigen Aufgabe stellen, herauszufinden, wie "das Beurteilungsschema des anonymen Herrn Jedermann" funktioniert.- Mehr als tausend Worte - Dazu aber gilt es zunächst einmal zu klären, auf welchem Wege es überhaupt gelingt, homo sapiens etwas "glauben zu machen". Wie kann man es erreichen, dass Menschen das Wahrgenommene als wahr erachten, wie ist es zu schaffen, dass ihnen ein Argument einleuchtet, dass sie eine Schlussfolgerung überzeugt? Man würde denken, dass bei einem Wesen, das sich - als einziges auf diesem Planeten - mit der Erfindung der Lautsprache sein eigenes Kommunikationswerkzeug geschaffen hat, der Prozess der Meinungsbildung vor allem auf verbalem Wege erfolgt. Ohne die Erfindung der Sprache hätte der Mensch schließlich einen sehr engen geistigen Horizont. Er wüsste nichts von der Existenz all jener Dinge, die jenseits seines engen persönlichen Erfahrungsraumes liegen. Er könnte kaum vom Wissen und vom Erfahrungsschatz anderer profitieren. Ja, er wüsste nicht mal, ob und in welcher Weise das Weltbild, das sein Gegenüber sich zurechtlegt, sich von dem seinigen unterscheidet. ..."
  16. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.10219855 = product of:
      0.4087942 = sum of:
        0.4087942 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.4087942 = score(doc=6014,freq=6.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  17. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.10
    0.10219855 = product of:
      0.4087942 = sum of:
        0.4087942 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.4087942 = score(doc=4612,freq=6.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java
  18. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.10219855 = product of:
      0.4087942 = sum of:
        0.4087942 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.4087942 = score(doc=6896,freq=6.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  19. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.10115033 = product of:
      0.4046013 = sum of:
        0.4046013 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.4046013 = score(doc=1743,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  20. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.10115033 = product of:
      0.4046013 = sum of:
        0.4046013 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.4046013 = score(doc=2137,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    

Authors

Languages

Types

  • a 9353
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications