-
Pöppe, C.: Blitzkarriere im World Wide Web : die Programmiersprache Java (1996)
0.14
0.14343356 = product of:
0.5737342 = sum of:
0.5737342 = weight(_text_:java in 4404) [ClassicSimilarity], result of:
0.5737342 = score(doc=4404,freq=4.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
1.3214076 = fieldWeight in 4404, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=4404)
0.25 = coord(1/4)
- Object
- Java
-
Hickey, T.B.: ¬A Java Z39.50 Client for Browsing Large Databases (2001)
0.14
0.14343356 = product of:
0.5737342 = sum of:
0.5737342 = weight(_text_:java in 2051) [ClassicSimilarity], result of:
0.5737342 = score(doc=2051,freq=4.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
1.3214076 = fieldWeight in 2051, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2051)
0.25 = coord(1/4)
- Object
- Java
-
Schröter, H.G.: Computer-Industrie wirft das Netz der Netze über die Kundschaft aus (1996)
0.14
0.14176488 = product of:
0.28352976 = sum of:
0.23665328 = weight(_text_:java in 3593) [ClassicSimilarity], result of:
0.23665328 = score(doc=3593,freq=2.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
0.5450528 = fieldWeight in 3593, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3593)
0.046876483 = weight(_text_:und in 3593) [ClassicSimilarity], result of:
0.046876483 = score(doc=3593,freq=8.0), product of:
0.13664074 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061608184 = queryNorm
0.34306374 = fieldWeight in 3593, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=3593)
0.5 = coord(2/4)
- Abstract
- Internet verändert die Software-Szene / Java macht Dampf / PC bekommt Konkurrenz / Aufgeweckte Riesen gegen innovative Zwerge / Intranet heißt der neue Renner
- Content
- Das Internet boomt. Rund um den Globus basteln etablierte EDV-Konzerne und Branchenneulinge an Hard- und Software für das Netz der Netze. Glaubt man den Auguren, läutet seine Beliebtheit eine Revolution in der Informationstechnik ein. Der Ära der Großrechner und der Personalcomputer soll ein Zeitalter folgen, in dem 'das Netz der Computer' ist. Wer dann die Fäden ziehen wird, ist längst nicht ausgemacht. Ob herkömmliche PC mit ihren Programmen die Spinne im Netz bleiben oder neue Geräte und Software sich breitmachen, darüber wird derzeit lebhaft diskutiert
-
Fisher, Y.: Better CGI scripts (i.V.)
0.14
0.13523045 = product of:
0.5409218 = sum of:
0.5409218 = weight(_text_:java in 6015) [ClassicSimilarity], result of:
0.5409218 = score(doc=6015,freq=2.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
1.2458351 = fieldWeight in 6015, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.125 = fieldNorm(doc=6015)
0.25 = coord(1/4)
- Object
- JAVA
-
Blake, P.; Nelson, M.: Ovid unveils Java search client (1996)
0.14
0.13523045 = product of:
0.5409218 = sum of:
0.5409218 = weight(_text_:java in 45) [ClassicSimilarity], result of:
0.5409218 = score(doc=45,freq=8.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
1.2458351 = fieldWeight in 45, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=45)
0.25 = coord(1/4)
- Abstract
- Ovid Technologies is launching its Java search client to enable users to access Ovid's scientific databases on the Web with full search capabilities irrespective of the type of computer used. Explains the differences between Java and HTML. The Java client increases search speed by several orders of magnitude. The Ovid client does not need to wait for individual pages to load and incorporates multi-tasking. The interface includes tree displays; thesauri; mapping; explode/implode; search fields and context sensitive help. Display; save; and e-mail are available from the client
-
Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010)
0.13
0.13004576 = product of:
0.2600915 = sum of:
0.23665328 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
0.23665328 = score(doc=1604,freq=2.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
0.5450528 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.023438241 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
0.023438241 = score(doc=1604,freq=2.0), product of:
0.13664074 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061608184 = queryNorm
0.17153187 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.5 = coord(2/4)
- Abstract
- iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.13
0.12910557 = product of:
0.25821114 = sum of:
0.19124474 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.19124474 = score(doc=217,freq=4.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.06696641 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.06696641 = score(doc=217,freq=50.0), product of:
0.13664074 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061608184 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.13
0.12602787 = product of:
0.25205573 = sum of:
0.20284568 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.20284568 = score(doc=977,freq=2.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.04921006 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.04921006 = score(doc=977,freq=12.0), product of:
0.13664074 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061608184 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Hosbach, W.: ¬Die Suche denkt mit : Moderne Suchtechnologien (2006)
0.12
0.12379752 = product of:
0.24759504 = sum of:
0.035514303 = weight(_text_:und in 5885) [ClassicSimilarity], result of:
0.035514303 = score(doc=5885,freq=36.0), product of:
0.13664074 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061608184 = queryNorm
0.25991005 = fieldWeight in 5885, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=5885)
0.21208075 = weight(_text_:hofmann in 5885) [ClassicSimilarity], result of:
0.21208075 = score(doc=5885,freq=6.0), product of:
0.5225971 = queryWeight, product of:
8.482592 = idf(docFreq=24, maxDocs=44421)
0.061608184 = queryNorm
0.40582076 = fieldWeight in 5885, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
8.482592 = idf(docFreq=24, maxDocs=44421)
0.01953125 = fieldNorm(doc=5885)
0.5 = coord(2/4)
- Abstract
- Google und Co. sind auf dem Weg in die Sackgasse. Die Zukunft gehört der Suche mit Intelligenz und Bedeutung. Denn dann hat die Suche Sinn und Verstand
- Content
- "Stellen Sie sich vor, ein Fremder bittet Sie in seiner Sprache um Hilfe. Sie verstehen: "Drink" und "Bier". Wenn Sie in München leben, schicken Sie den Mann auf dem schnellsten Weg ins Hofbräuhaus. Google würde ebenso handeln: Die meisten Suchenden, die "Drink Bier" von sich geben, suchen das Hofbräuhaus (Popularitätsprinzip). Aber vielleicht wollte er wissen, wo er eine Flasche Bier kaufen kann oder ob Sie ein Bier mit ihm trinken möchten? Sie haben ihn Schlichtweg nichtverstanden. So geht es den Suchmaschinen auch. Umso erstaunlicher ist es, wie präzise deren Antworten oft sind. Wenn man aber etwas sucht, was nicht dem Popularitätsprinzip entspricht, was also vom Suchen der Vielen abweicht, so steht man vor Zehntausenden von Treffern. Besser wäre es, wenn die Suchmaschine versteht, was man sucht. Wenn sie etwas von der Bedeutung der Sucheingabe und der Bedeutung der Webseiten wüsste. Aber die steht in den Seiten nicht drin. Eine komplette Bedeutungshierarchie müsste dem jetzigen Web hinzugefügt werden. Im Kleinen gibt es Ansätze dazu unter dem Namen Semantic Web (www w3. org/2001/sw; in der Sprachwissenschaft beschäftigt sich die Semantik mit der Bedeutung). Der Autor fügt HTML-Dokumenten die Bedeutung in Form von XML-Metatags zu. Ein Beispiel für RDF ist RDF Site Summary (RSS). Eine RSS-Webseite (z.B. www.pc-magazin .de) bietet Nachrichten. Im Gegensatz zu einer normalen Nachrichtenseite sind über XML-Tags Bedeutungen zugefügt. <title> bedeutet: Hier folgt eine Überschrift, <description>: Hier folgt die Inhaltsangabe. Ein RSS Reader (z.B. Thunderbird) kann nun ganz klar erkennen, was eine Überschrift ist, und muss sie nicht über Standardelemente (<b>, <h1>) erraten. Eine andere semantische Anwendung könnte ein Musiker-Netz sein mit Bedeutungs-Tags für Instrumente, Konzerte, Terminen, Downloads etc. Hier könnte man mit entsprechenden Programmen (Browser-Extensions) sehr viel präziser suchen. Eine Besonderheit ist, das RSS auch über Hyperlinks arbeitet. Metainformationen müssen sich nicht auf der Seite selbst finden, sondern eine andere Seite kann sie aufführen. So erschließt sich eine Interessensgruppe fremde Ressourcen und bringt sie in einen eigenen Bedeutungszusammenhang, der vom Autor einer Seite vielleicht nicht gesehen oder nicht einmal gewollt wurde.
Mehr Intelligenz Semantik bedeutet bislang Handarbeit. Das ist lästig und kostspielig. Der Computer soll die Bedeutung bitte selbst verstehen! Im Forschungsbereich der Künstlichen Intelligenz (KI) arbeiten Wissenschaftler auch an derVerbesserung der Suche. Die Forscher vom Fraunhofer Institut für Integrierte Publikations- und Informationssysteme unter der Leitung von Prof. Thomas Hofmann haben ein Verfahren vorgestellt, das Konzepte von Texten extrahiert. "Konzepte bilden eine Brücke zwischen der Ausdrucksweise in einem Dokument und der in der Anfrage", erläutert Hofmann seinen Ansatz. So findet der Suchende alle relevanten Dokumente, selbst wenn die Suchbegriffe nicht direkt vorkommen. Das funktioniert derzeit nur in einem thematisch begrenzten Raum, z.B. einem Webauftritt über Medizin, Handel, Hardware... Bevor die Suchmaschine die Dokumente indiziert, errechnet sie die Konzepte aus einer begrenzten Sammlung an Dokumenten. Diese hat der Betreuer des Systems so ausgewählt, dass sie für das Themengebiet und den Webauftritt charakteristisch sind. Mit Methoden der Statistik und Wahrscheinlichkeitsrechnung (Probabilistic Latent Semantic Analysis; kurz pLSA) extrahiert der Roboter einige hundert bis tausend Konzepte. Die bestehen aus Begriffen und deren Art, gemeinsam in Dokumenten aufzutreten (Häufigkeit, Ort, Beziehung etc.) Für das Beispiel Handel gibt es etwa ein Konzept für Import oder eines für Buchhaltung. Stehen die Konzepte fest, erstellt die Suchmaschine den Index, indem sie alle Dokumente der Domäne den Konzepten zuordnet. Wenn der Anwender nun sucht, so versucht die Suchmaschine, die Anfrage ebenfalls Konzepten zuzuordnen, und wählt dementsprechend die Ergebnisse aus. Hoffmanns System ist auf der Webseite www.medlineplus.com im Einsatz. Gibt der Anwender z.B. +bird +flu ein, so sucht die Suchmaschine genau die Worte - ohne +, jedoch mit Konzept. Die Frage, ob eine konzeptbasierte Suchmaschine für das ganze Web möglich ist, bezweifelt Hofmann derzeit: "Das ist eine Frage der Skalierbarkeit. Die statistische Analyse ist nicht ganz trivial und braucht eine entsprechende Rechenleistung. Auf lange Sicht wird das aber kommen.
Im Web müsste die KI-Suchmaschine Hunderttausende von Konzepten bewältigen. Das ist kostspielig. Eine intelligente Suche wäre pro Anfrage vielleicht zehnmal teuerer als eine jetzige, bei vielen Millionen täglichen Anfragen ist das ein erheblicher Kostenfaktor. Dennoch laufen bei Google Entwicklungen in diese Richtung. Der Marktführer muss Technologieführer bleiben, um zu überleben. Mehr Sprache Die KI arbeitet daran, die Sprache immer besser zu verstehen, bis hin zur Möglichkeit, Fakten ausSätzen zu extrahieren. Das erfordert eine genaue gramma tikalische und semantische Analyse. Auch da haben sichstatistische Verfahren durchgesetzt, die eine große Menge an Sätzen auswerten. Das öffnet auch Wege zum automatischen Übersetzen von Sprachen, was wieder für die Suche relevant ist. An die Grenzen kommt die KI dann, wenn sie Fakten aus mehreren Dokumenten zusammensetzen soll- also Bedeutung im synthetischen Schluss aus verschiedenen Quellen extrahieren. Ebenso wenig kann die KI etwas über die Glaubwürdigkeit einer Quelle sagen. Das schaffen wir als Menschen ja oft kaum. Es gibt auch Methoden, mit denen Suchmaschinen den Suchenden besser verstehen. Sucht er z.B. nach Flügel, so weiß das Tool erst einmal nicht, ob ein Instrument, ein Gebäude, ein Vogel oder ein Flugzeug gemeint ist. Das könnte die Suchmaschine aber vermuten, wenn sie den Anwender besser kennt: Ist er Musiker oder Flugzeugkonstrukteur? Mit KI könnte sie das lernen, z.B. aus seinen bisherigen Suchanfragen (Orchester oder Triebwerke?). Sie könnte auch die Festplatte des Anwenders durchsuchen, um anhand der Dokumente festzustellen, womit der Suchende sich beschäftigt und was ihn interessiert. Das interessiert aber auch das Finanzamt und Adresshändler. Viele Anwender werden Probleme mit der Vertraulichkeit ihrer Daten sehen. Bei einer Internet-Suchmaschine müssten die Informationen als Profile auf dem Server liegen. Wer will das schon?"
-
Berg, L.: Wie das Internet die Gesellschaft verändert : Google gründet ein Forschungsinstitut in Berlin (2011)
0.12
0.1233499 = product of:
0.2466998 = sum of:
0.03890397 = weight(_text_:und in 552) [ClassicSimilarity], result of:
0.03890397 = score(doc=552,freq=30.0), product of:
0.13664074 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061608184 = queryNorm
0.2847172 = fieldWeight in 552, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=552)
0.20779583 = weight(_text_:hofmann in 552) [ClassicSimilarity], result of:
0.20779583 = score(doc=552,freq=4.0), product of:
0.5225971 = queryWeight, product of:
8.482592 = idf(docFreq=24, maxDocs=44421)
0.061608184 = queryNorm
0.39762148 = fieldWeight in 552, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
8.482592 = idf(docFreq=24, maxDocs=44421)
0.0234375 = fieldNorm(doc=552)
0.5 = coord(2/4)
- Content
- "Vor zehn Jahren kannten nur Eingeweihte die Suchmaschine Google, heute ist das Googeln so selbstverständlich wie Kaffeetrinken. Am Aufstieg des kalifornischen Unternehmens ist ablesbar, wie sehr das Internet die Gesellschaft durchdrungen hat. Verändert hat sich aber auch das Image der US -amerikanischen Firma. Bis vor wenigen Jahren weckte der Name die Vorstellung von cleveren Computerfreaks, die der Welt freundlicherweise einen Weg durch den Informationsdschungel bahnen. Spätestens seit der Debatte um den Online-Straßenatlas Street View ist das Bild nicht mehr so positiv: Viele fürchten jetzt die unersättliche, machtbesessene Datenkrake. Besonders heftig war der Protest gegen Street View in Deutschland. Just hierzulande, in Berlin, fördert der Marktführer unter den Internet-Suchmaschinen nun den Aufbau eines sozial- wissenschaftlichen Forschungsinstituts, in dem es um "Internet und Gesellschaft" gehen soll. Eric Schmidt, der Ex-Vorstandsvorsitzende von Google, hatte die Gründung im Februar bei einem Vortrag an der Humboldt-Universität (HU) angekündigt. Im Senatssaal der Universität wurde das Projekt gestern bei einer sehr gut besuchten Pressekonferenz näher vorgestellt. Der ehemalige Google-Chef war nicht mehr angereist. Er grüßte aber per Videobotschaft und betonte, dass das neue Institut völlig unabhängig von Google arbeiten werde. Sein Unternehmen habe lediglich die Initiative ergriffen und stelle Geld bereit.
Getragen wird das neue Forschungszentrum von den drei Berliner Institutionen Humboldt-Universität, Universität der Künste (UDK) und Wissenschaftszentrum Berlin für Sozialforschung (WZB). Kooperationspartner ist das Hans-Bredow-Institut für Medienforschung an der Universität Hamburg. Google Deutschland fördert das Projekt mit insgesamt 4,5 Millionen Euro zur Verfügung, in drei jährlichen Tranchen von je 1,5 Millionen Euro. Nach weiteren Kooperationspartnern und Finanziers wolle man suchen, hieß es auf der Pressekonferenz. Auch bei den beiden anderen Berliner Universitäten, Freie Universität und Technische Universität, sehe man "Andockstellen". - Unis und WZB als Träger Untergebracht wird das neue Institut in der Juristischen Fakultät der HU. Dort sind Büros für ein insgesamt zehnköpfiges Kernteam vorgesehen: für vier Direktoren, vier Mitarbeiter und zwei Geschäftsführer. Geplant ist auch die Gründung einer Graduate School, zunächst mit zwei Stellen für Doktoranden und weiteren Positionen für Postdoktoranden. Offizieller Arbeitsbeginn ist im Herbst, nach dem Auftakt mit einem internationalen Symposium über die sozialen Aspekte des Internets vom 25. bis 28. Oktober in Berlin. "Berlin ist die digitale Hauptstadt Deutschlands", begründete der Google-Sprecher Ralf Bremer die Standortwahl. Beeindruckend sei die Fülle von Startup-Unternehmen im Bereich der elektronischen Medien.
Google pflege weltweit viele akademische Partnerschaften, allerdings fast ausnahmslos zu Fragen der Informationstechnik. Die Förderung eines sozialwissenschaftlichen Instituts sei für seine Firma ein Novum, betonte Bremer. Die Wahl sei auf Berlin gefallen, weil es hier sehr viel Kompetenz auf diesem Gebiet gebe. - Kreatives Schwarmverhalten An Ideen für künftige Projekte mangelt es nicht, das zeigten die Beiträge der künftigen Direktoren des Instituts auf der Pressekonferenz. Der HU-Rechtswissenschaftler Ingolf Pernice will zum Beispiel untersuchen, ob die Vorstellung vom Staat sich durch das Internet verändert. Eine fast ver- gessene Utopie, die globale Verfassung, sei durch das weltweite Netz wieder in den Bereich des Möglichen gerückt, sagte Pernice. Thomas Schildhauer, Informatiker an der Universität der Künste, möchte das kreative Schwarm- verhalten ausloten. Er berichtete vom 300-Dollar-Haus , das im Internet gemeinschaftlich für Krisengebiete entwickelt wird. Schildhauer sucht überdies nach Wegen, um die drohende Spaltung der Gesellschaft in Computerkundige und digitale Analphabeten zu verhindern.
Auch der Jurist Wolfgang Schulz vom Hamburger Hans-Bredow-Institut interessiert sich für die Schwarmintelligenz: Warum nicht die Weisheit der Massen nutzen und Patente ins Internet stellen, um ihre Neuheit zu prüfen, schlug er vor. Die Politikwissenschaftlerin Jeanette Hofmann vom WZB beschäftigt sich bereits seit 15 Jahren wissenschaftlich mit dem Internet. Ihr geht es um die Regeln, die das Internet bestimmen - um technische Standards, aber auch um soziale Gepflogenheiten und kulturelle Normen. Mit den Mitteln des neuen Instituts will Jeanette Hofmann die Zukunft des Internets erforschen und dabei auch Fragen des Datenschutzes behandeln. Im Oktober, beim Symposium, sollen die Projektideen mit Kollegen aus aller Welt diskutiert werden. Um Doppelarbeit zu vermeiden, will man sich mit den führenden Einrichtungen auf diesem Gebiet abstimmen, etwa dem Berkman Center an der Harvard University und dem Oxford Internet Institute. Die Ergebnisse des neuen Berliner Instituts seien nicht für Google reserviert - "sie werden frei zugänglich im Internet publiziert", kündigte die WZB Chefin Jutta Allmendinger an. Das Engagement des Unternehmens sei lobenswert und es halte sich völlig aus der inhaltlichen Arbeit heraus: "Sonst hätten wir nicht mitgemacht.""
-
Hofmann, U.: Developing a strategic planning framework for information technologies for libraries (1995)
0.12
0.12244486 = product of:
0.48977944 = sum of:
0.48977944 = weight(_text_:hofmann in 6460) [ClassicSimilarity], result of:
0.48977944 = score(doc=6460,freq=2.0), product of:
0.5225971 = queryWeight, product of:
8.482592 = idf(docFreq=24, maxDocs=44421)
0.061608184 = queryNorm
0.9372028 = fieldWeight in 6460, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.482592 = idf(docFreq=24, maxDocs=44421)
0.078125 = fieldNorm(doc=6460)
0.25 = coord(1/4)
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.12100651 = product of:
0.24201302 = sum of:
0.16903807 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.16903807 = score(doc=50,freq=2.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.07297495 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.07297495 = score(doc=50,freq=38.0), product of:
0.13664074 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061608184 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.118821226 = product of:
0.23764245 = sum of:
0.20284568 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.20284568 = score(doc=1181,freq=2.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.03479677 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.03479677 = score(doc=1181,freq=6.0), product of:
0.13664074 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061608184 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.11882021 = product of:
0.23764043 = sum of:
0.19124474 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.19124474 = score(doc=1761,freq=4.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.04639569 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.04639569 = score(doc=1761,freq=24.0), product of:
0.13664074 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061608184 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997)
0.12
0.11832664 = product of:
0.47330657 = sum of:
0.47330657 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
0.47330657 = score(doc=5463,freq=8.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
1.0901057 = fieldWeight in 5463, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5463)
0.25 = coord(1/4)
- Abstract
- A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
- Object
- JAVA
-
Read, T.; Hall, H.: Java: an explosion on the Internet (1996)
0.12
0.11832664 = product of:
0.47330657 = sum of:
0.47330657 = weight(_text_:java in 86) [ClassicSimilarity], result of:
0.47330657 = score(doc=86,freq=2.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
1.0901057 = fieldWeight in 86, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.109375 = fieldNorm(doc=86)
0.25 = coord(1/4)
-
Vonhoegen, H.: Einstieg in XML (2002)
0.11
0.11411674 = product of:
0.22823349 = sum of:
0.16733915 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.16733915 = score(doc=5002,freq=4.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.06089434 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.06089434 = score(doc=5002,freq=54.0), product of:
0.13664074 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061608184 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998)
0.11
0.11339418 = product of:
0.4535767 = sum of:
0.4535767 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
0.4535767 = score(doc=6217,freq=10.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
1.0446644 = fieldWeight in 6217, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=6217)
0.25 = coord(1/4)
- Abstract
- A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
-
Hofmann, S.: Chipcard statt Schalterhalle : Die digitale Signatur tritt gleichberechtigt neben die Unterschrift per Hand - Die Chancen sind vielfältig (2001)
0.11
0.11134917 = product of:
0.22269835 = sum of:
0.026786564 = weight(_text_:und in 4203) [ClassicSimilarity], result of:
0.026786564 = score(doc=4203,freq=8.0), product of:
0.13664074 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061608184 = queryNorm
0.19603643 = fieldWeight in 4203, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4203)
0.19591178 = weight(_text_:hofmann in 4203) [ClassicSimilarity], result of:
0.19591178 = score(doc=4203,freq=2.0), product of:
0.5225971 = queryWeight, product of:
8.482592 = idf(docFreq=24, maxDocs=44421)
0.061608184 = queryNorm
0.37488112 = fieldWeight in 4203, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.482592 = idf(docFreq=24, maxDocs=44421)
0.03125 = fieldNorm(doc=4203)
0.5 = coord(2/4)
- Abstract
- Nach dem Ja des Bundestages zur digitalen Signatur ist die Unterschrift per Hand nicht mehr die einzige Form. Nicht nur viele Behördengänge, die nicht selten lange Wartezeiten bedeuteten, können in Zukunft per Computer und Internet erledigt werden
- Content
- Digitale und handschriftliche Signatur erfüllen zwar den selben Zweck - ein Dokument rechtlich verbindlich zu machen -, doch technisch haben sie nichts mehr miteinander zu tun. Statt den Namenszug unter ein Papier zu setzen, bedient sich der Online-Kunde einer Chipkarte, auf der seine persönlichen Daten gespeichert sind. Bei einer Transaktion, egal, ob beim elektronischen Einkauf oder einem virtuellen Behördengang, führt der Benutzer seine Karte in ein spezielles Kartenlesegerät ein, das an seinem Computer installiert ist. Der über das Internet versendete Text wird daraufhin mit der digitalen Kennung versehen. Ein Teil der Verschlüsselung ist öffentlich zugänglich, damit die Empfänger die Echtheit prüfen können. Der andere Teil bleibt Privatgeheimnis des Nutzers. Vergeben und überwacht werden die elektronischen Schlüssel von lizensierten Zertifizierungsstellen. Genehmigungen für diese Trustcenter erteilt die Regulierungsbehörde für Post- und Telekommunikation. Das gestern im Bundestag beschlossene Gesetz zur Neuregelung der Sicherheitsbestimmungen bei digitalen Unterschriften könnte nach Meinung von Matthias Robben vom Forschungsinstitut für Telekommunikation zu einer größeren Verbreitung der virtuellen Signatur führen. Denn noch sei diese "wegen der hohen Auflagen zu teuer". Das neue Gesetz lockere nun die strengen Bestimmungen für Trustcenter zum Vorteil der Kunden. Ein Sicherheitsproblem sieht Robben dabei nicht. Denn die Sicherheitsstandards seien mehr als ausreichend. "Man bräuchte schon ein kleines Rechenzentrum, um die Codes der digitalen Unterschrift zu knacken." Mit dem neuen Gesetz sind die Vorgaben der EU-Richtlinie für E-Commerce erfüllt. Konkret regelt es aber nur die "Sicherheitsinfrastruktur" für Online-Unterschriften. Die eigentliche Rechtswirkung soll noch separat in einem Gesetzentwurf zur Anpassung des Privatrechts an den modernen Rechtsgeschäftsverkehr festgezurrt werden
-
Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996)
0.10
0.102473885 = product of:
0.40989554 = sum of:
0.40989554 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
0.40989554 = score(doc=6014,freq=6.0), product of:
0.43418413 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061608184 = queryNorm
0.94405925 = fieldWeight in 6014, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6014)
0.25 = coord(1/4)
- Abstract
- Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
- Object
- JAVA