Search (13217 results, page 3 of 661)

  1. Snow, C.P.: ¬Die zwei Kulturen : Literarische und naturwissenschaftliche Intelligenz - C.P. Snows These in der Diskussion (1987) 0.13
    0.12949054 = product of:
      0.25898108 = sum of:
        0.059735637 = weight(_text_:und in 1864) [ClassicSimilarity], result of:
          0.059735637 = score(doc=1864,freq=40.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.4383508 = fieldWeight in 1864, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1864)
        0.19924544 = weight(_text_:hubert in 1864) [ClassicSimilarity], result of:
          0.19924544 = score(doc=1864,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.37856612 = fieldWeight in 1864, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.03125 = fieldNorm(doc=1864)
      0.5 = coord(2/4)
    
    Abstract
    Seitdem C. P. Snow - Physiker und Romancier zugleich - 1959 zum ersten Mal von den »zwei Kulturen« sprach, ist dieses Wort zu einem festen Begriff geworden. Die »zwei Kulturen« - das sind die zwei Welten der Geisteswissenschaft und Literatur einerseits, der Naturwissenschaft und Technik andererseits, zwischen denen sich eine Kluft gegenseitigen Nichtverstehens aufgetan hat. Ignoranz und Spezialisierung auf beiden Seiten haben zuweilen sogar eine gewisse Feindseligkeit entstehen lassen. Mit Recht hält Snow diese Situation für ein wichtiges Problem des Westens, für politisch gefährlich, und zwar schon aus dem Grunde, weil die Geisteswissenschaftler und Politiker nicht mehr wissen, ob Ratschläge der Naturwissenschaftler richtig oder falsch sind. Die These von den zwei Kulturen fand ein weltweites Echo und entfachte eine Diskussion, in der das Problem, das Snow als sein eigenes Problem empfunden hat, sich immer mehr auf das Verhältnis der Literatur zur »naturwissenschaftlichen Revolution« zuspitzte. Obwohl nämlich Snow beiden Kulturen ihre Einseitigkeit vorwirft, macht er letztlich doch die literarische Intelligenz, die er fortschrittsfeindlich und im eigentlichen Sinn antiintellektuell nennt, für die Isolierung verantwortlich. Dieser Band enthält den vollständigen Text der berühmten Vorlesung Snows und seinen >Nachtrag< von 1963, in dem er sich mit der Kritik auseinandersetzt, außerdem zwölf Beiträge zur Diskussion aus dem angloamerikanischen und deutschen Bereich, die das Problem von den verschiedensten Seiten aus angehen sowie ein aktuelles Vorwort des Herausgebers.
    Content
    Enthält die Beiträge: SNOW, C.P. Die zwei Kulturen, Rede Lecture, 1959; YUDKIN, M.: Die "Rede Lecture" von Sir Charles Snow; LEAVIS, F.R.: Zwei Kulturen? Die 'Bedeutung' von C.P. Snow; TRILLING, L.: Naturwissenschaft, Literatur und Kultur - Eine Stellungnahme zur Leavis-Snow-Kontroverse; GREEN, M.: Alter und neuer Humanismus; OPPENHEIMER, J.R.: Über Wissenschaft und Kultur; HUXLEY, A.: Rose und Nachtigall; DOKIM, H.: Eine Kultur oder keine Kultur - Der Zwei-Kulturen-Streit als Scheinkonflikt; HEISSENBÜTTEL, H.: Die Schizophrenie des gesellschaftlichen Bewußtseins und ihre hypothetische Auflösung - Zu C.P. Snows "Zwei Kulturen"; KREUZER, H.: Literarische und szientifische Intelligenz; STEINBUCH, K.: "Zwei Kulturen": Ein engagierter Beitrag; MOHR, H.: Wissenschaft und Bildung - Stellungnahmen eines Naturwissenschaftlers zu den Thesen von C.P. Snow; BORN, M.: Die Zerstörung der Ethik durch die Naturwissenschaft - Überlegungen eines Physikers; GLUBRECHT, H.: Ist unsere Kultur gespalten?; NITSCHKE, A.: Ein plädoyer für die andere Kultur; AMSTUTZ, G.C.: Die ganzheitlichen Grundlagen der Wissenschaften; BAHRDT, H.P.: Literarische Bildung und technische Intelligenz; HABERMAS, J.: Technischer Fortschritt und soziale Lebenswelt; BUCHHOLZ, A.: Die "zwei Kulturen" in entwicklungsgeschichtlicher Sicht
    Footnote
    Vgl auch: Markl, H.: Schnee von gestern: Hubert Markl über die Legende von den "zwei Kulturen". In: Spiegel. 2002, Nr.32 vom 5.8.2002, S.62-63.
  2. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.13
    0.12875868 = product of:
      0.25751737 = sum of:
        0.19073088 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.19073088 = score(doc=217,freq=4.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.066786475 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.066786475 = score(doc=217,freq=50.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  3. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.13
    0.12568924 = product of:
      0.25137848 = sum of:
        0.20230065 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.20230065 = score(doc=977,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.049077835 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.049077835 = score(doc=977,freq=12.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  4. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.120681375 = product of:
      0.24136275 = sum of:
        0.16858388 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.16858388 = score(doc=50,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.072778866 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.072778866 = score(doc=50,freq=38.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  5. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.11850196 = product of:
      0.23700392 = sum of:
        0.20230065 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20230065 = score(doc=1181,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.034703273 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.034703273 = score(doc=1181,freq=6.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  6. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.118500955 = product of:
      0.23700191 = sum of:
        0.19073088 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19073088 = score(doc=1761,freq=4.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.046271026 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.046271026 = score(doc=1761,freq=24.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  7. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.11800871 = product of:
      0.47203484 = sum of:
        0.47203484 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.47203484 = score(doc=5463,freq=8.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  8. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.11800871 = product of:
      0.47203484 = sum of:
        0.47203484 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.47203484 = score(doc=86,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  9. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.11381012 = product of:
      0.22762024 = sum of:
        0.16688952 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16688952 = score(doc=5002,freq=4.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.060730718 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.060730718 = score(doc=5002,freq=54.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  10. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.11
    0.113089494 = product of:
      0.45235798 = sum of:
        0.45235798 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.45235798 = score(doc=6217,freq=10.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  11. Neunzert, H.: ¬Die Zukunft der Mathematik : nicht mehr Königin, aber wichtiger Partner von Wissenschaft und Technik (2002) 0.11
    0.10980289 = product of:
      0.21960577 = sum of:
        0.04526601 = weight(_text_:und in 130) [ClassicSimilarity], result of:
          0.04526601 = score(doc=130,freq=30.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.33217007 = fieldWeight in 130, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=130)
        0.17433977 = weight(_text_:hubert in 130) [ClassicSimilarity], result of:
          0.17433977 = score(doc=130,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.33124536 = fieldWeight in 130, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.02734375 = fieldNorm(doc=130)
      0.5 = coord(2/4)
    
    Abstract
    Ich halte es nicht für sinnvoll, darüber zu spekulieren, wie sich eine Wissenschaft in den kommenden Jahrzehnten inhaltlich entwickeln könnte, Neue Theorien tauchen sehr schnell auf, gewinnen höchste Aufmerksamkeit und kehren dann langsam auf ein stabiles, bescheideneres Niveau zurück; man denke etwa an die Katastrophentheorie, an Chaos und Fraktale, an Fuzzy-Logik - vielleicht ist auch die Finanzmathematik schon in einem Normalisierungsprozess. Solche Entwicklungen, insbesondere das Auftreten solcher Phänomene, vorherzusagen, wäre Scharlatanerie. Aber es gibt natürlich auch langwellige Veränderungen des Charakters der Mathematik; so wechseln sich z.B. Phasen, in denen die "innere' Entwicklung der Mathematik dominiert, ab mit Phasen, in denen die Inhalte der Mathematik durch ihre Wechselwirkung mit anderen Wissenschaften bestimmt werden, Solche Phasen sind nie "rein" - immer gab es Mathematiker, die sowohl in reiner wie auch in angewandter Mathematik Bedeutendes leisteten, z.B. B. Riemann, H. Poincare, F. Klein oder N. Wiener. Aber Dominanzen waren unschwer zu erkennen, z.B. die Dominanz der reinen Mathematik im vergangenen Jahrhundert. Ebenso deutlich scheint es mir zu sein, dass wir uns seit wenigen Jahrzehnten im Phasenübergang befinden: Die Mathematik nähert sich wieder den anderen Wissenschaften - nicht nur der Physik, sondern auch der Chemie, Biologie und Medizin; sie nähert sich der Technik, z.B. den Informations- und Kommunikationstechnologien, der Werkstoffwissenschaft, der Robotik usw. Es gilt aber auch das Umgekehrte: Nicht nur Naturwissenschaft und Technik benötigen die Mathematik in steigendem Umfang, selbst Sozial- und Geisteswissenschaften "mathematisieren". Die Disziplinen insgesamt wachsen stärker zusammen: Ist dies vielleicht der Zukunftstrend? Hubert Markl, Präsident der Max-Planck-Gesellschaft, antwortet auf die Frage, ob die Biologie zur "Leitwissenschaft" des 21. Jahrhunderts wird: "Das immer rascher fortschreitende, tiefgründige Zusammenwachsen aller naturwissenschaftlichen Disziplinen, gemeinsam mit der praktischen Mathematik, zu einer einzigen umfassenden Wissenschaft von der Natur, die auch in weite Bereiche von Philosophie, Psychologie, Soziologie und Medizin vordringen wird, dürfte für die Wissenschaftsentwicklung des nächsten Jahrhunderts viel bestimmender sein als ein vermeintlicher Vorrang der Biologie. Erst diese Verbindung von Mathematik, Physik, Chemie und Biologie hat es möglich gemacht und wird weiter immer mehr Grundlage dafür sein, dass die Biowissenschaften sich endlich auch jenen Problemen stellen können, die ihnen ohne disziplinübergreifende Hilfestellung zu schwierig wären - nämlich alle Lebenserscheinungen bis hinein in die molekularen, ursächlichen Einzelheiten aufzuklären. " (aus "Visionen 2000", Brockhaus 1999).
    Natürlich steht es mir nicht an, weiter über Biologie zu reden, aber die Einschätzung der künftigen Rolle der Mathematik, in enger Zusammenarbeit mit anderen Wissenschaften an der "Aufklärung" und Gestaltung der Welt zu arbeiten - diese Einschätzung teile ich vollkommen: Die Mathematik wird also weder "Königin der Wissenschaften" sein noch ihre Sklavin; sie wird, wie es sich für ein demokratisches Gemeinwesen gehört, ihre Aufgabe und ihren Sinn hauptsächlich als gleichberechtigter Partner von Informatik, Naturwissenschaften, Technik, von Wirtschafts- und Sozialwissenschaften finden. Das spiegelt sich auch in einer sehr aktuellen Diskussion um den Bedarf an "Computerexperten" wider; die Debatte, die mit unscharfen Begriffen (was ist schon ein "Computerexperte"?) operiert und von geringem Fachwissen (wer von den Diskutanten hat sich je in Indien umgesehen oder wenigstens mit Indern ausführlich gesprochen?) beeinträchtigt wird, zeigt trotzdem, dass wir sowohl schnell auszubildende Softwareprogrammierer wie eben auch sogenannte MINT-Professionals brauchen. MINT - ich habe den Ausdruck in der Industrie gehört - heißt Mathematik + Informatik + Naturwissenschaft + Technik; solche Professionals werden wir nur selten im Ausland "einkaufen" können - sie sind auch dort rar und nicht nur in Deutschland Mangelware, Wir müssen solche MINT-Professionals schon selbst ausbilden - ich komme am Ende auf diese Ausbildungsfrage zurück.
  12. Tegmark, M.: Leben 3.0 : Mensch sein im Zeitalter Künstlicher Intelligenz (2017) 0.11
    0.10564966 = product of:
      0.21129932 = sum of:
        0.03695954 = weight(_text_:und in 558) [ClassicSimilarity], result of:
          0.03695954 = score(doc=558,freq=20.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.2712157 = fieldWeight in 558, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=558)
        0.17433977 = weight(_text_:hubert in 558) [ClassicSimilarity], result of:
          0.17433977 = score(doc=558,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.33124536 = fieldWeight in 558, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.02734375 = fieldNorm(doc=558)
      0.5 = coord(2/4)
    
    Abstract
    Künstliche Intelligenz ist unsere unausweichliche Zukunft. Wird sie uns ins Verderben stürzen oder zur Weiterentwicklung des Homo sapiens beitragen? Die Nobelpreis-Schmiede Massachusetts Institute of Technology ist der bedeutendste technologische Think Tank der USA. Dort arbeitet Professor Max Tegmark mit den weltweit führenden Entwicklern künstlicher Intelligenz zusammen, die ihm exklusive Einblicke in ihre Labors gewähren. Die Erkenntnisse, die er daraus zieht, sind atemberaubend und zutiefst verstörend zugleich. Neigt sich die Ära der Menschen dem Ende zu? Der Physikprofessor Max Tegmark zeigt anhand der neusten Forschung, was die Menschheit erwartet. Hier eine Auswahl möglicher Szenarien: - Eroberer: Künstliche Intelligenz übernimmt die Macht und entledigt sich der Menschheit mit Methoden, die wir noch nicht einmal verstehen. - Der versklavte Gott: Die Menschen bemächtigen sich einer superintelligenten künstlichen Intelligenz und nutzen sie, um Hochtechnologien herzustellen. - Umkehr: Der technologische Fortschritt wird radikal unterbunden und wir kehren zu einer prä-technologischen Gesellschaft im Stil der Amish zurück. - Selbstzerstörung: Superintelligenz wird nicht erreicht, weil sich die Menschheit vorher nuklear oder anders selbst vernichtet. - Egalitäres Utopia: Es gibt weder Superintelligenz noch Besitz, Menschen und kybernetische Organismen existieren friedlich nebeneinander. Max Tegmark bietet kluge und fundierte Zukunftsszenarien basierend auf seinen exklusiven Einblicken in die aktuelle Forschung zur künstlichen Intelligenz.
    Footnote
    Originaltitel: Life 3.0. Rez. unter: http://www.spektrum.de/rezension/buchkritik-zu-leben-3-0/1528679 (Lobe, Adrian: "Der versklavte Maschinengott"): "--- Der Autor wirft in seinen "KI-Nachwirkungsszenarien" zahlreiche technikphilosophische Fragen auf, etwa: Sollten Menschen oder Maschinen die Kontrolle haben? Sollten künstliche Intelligenzen bewusstseinsfähig sein oder nicht? Sollte der Mensch weiter existieren, ersetzt werden durch Cyborgs und/oder Uploads umgestaltet oder simuliert werden?
    Was bei der Lektüre des Buchs positiv auffällt: Der Autor bewertet diese ethischen Fragen nicht, sondern stellt sie offen in den Raum. Sein Ton ist sachlich, nüchtern und frei von jedem Alarmismus. Anders als der häufig apodiktisch argumentierende Kurzweil stellt Tegmark seine Zukunftsszenarien nicht als Unabänderlichkeit dar, sondern als gestaltbaren Möglichkeitsraum. Im jetzigen Stadium der Entwicklung könne der Mensch die Weichen noch stellen - er müsse sich nur entscheiden. Darin kann man auch eine versteckte Kritik an den Programmierern lesen, die sich häufig hinter der analytischen Formel des "Problemlösens" verstecken, aber keine nachhaltigen Gesellschaftsmodelle entwickeln. Die KI wird gesellschaftliche Hierarchien verändern, vielleicht sogar neu strukturieren - daran lässt Tegmark keinen Zweifel. Sein Buch ist eine luzide, wenn auch nicht immer erbauliche Vermessung. Einzig das Schlusskapitel über Bewusstseinstheorien und einige Anspielungen auf Konferenzteilnehmer, die wohl nur Insidern ein Begriff sind, wären verzichtbar gewesen. Ansonsten ist es ein überaus gelungenes Werk, das dem Leser als Kompass durch die Irrungen und Wirrungen künstlicher Intelligenz gereicht."
    Issue
    Übers. von. Hubert Mania.
  13. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.10219855 = product of:
      0.4087942 = sum of:
        0.4087942 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.4087942 = score(doc=6014,freq=6.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  14. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.10
    0.10219855 = product of:
      0.4087942 = sum of:
        0.4087942 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.4087942 = score(doc=4612,freq=6.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java
  15. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.10219855 = product of:
      0.4087942 = sum of:
        0.4087942 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.4087942 = score(doc=6896,freq=6.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  16. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.10115033 = product of:
      0.4046013 = sum of:
        0.4046013 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.4046013 = score(doc=1743,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  17. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.10115033 = product of:
      0.4046013 = sum of:
        0.4046013 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.4046013 = score(doc=2137,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  18. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.10115033 = product of:
      0.4046013 = sum of:
        0.4046013 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.4046013 = score(doc=2035,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  19. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.10115033 = product of:
      0.4046013 = sum of:
        0.4046013 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.4046013 = score(doc=2050,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  20. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.10098856 = product of:
      0.20197712 = sum of:
        0.16858388 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.16858388 = score(doc=729,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.033393238 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.033393238 = score(doc=729,freq=8.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.

Authors

Languages

Types

  • a 9359
  • m 2235
  • el 1009
  • x 591
  • s 555
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications