-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.13
0.12986189 = product of:
0.25972378 = sum of:
0.19236507 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.19236507 = score(doc=217,freq=4.0), product of:
0.4367276 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06196909 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.0673587 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.0673587 = score(doc=217,freq=50.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015)
0.13
0.1277328 = product of:
0.2554656 = sum of:
0.055340827 = weight(_text_:und in 3133) [ClassicSimilarity], result of:
0.055340827 = score(doc=3133,freq=60.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.40265095 = fieldWeight in 3133, product of:
7.745967 = tf(freq=60.0), with freq of:
60.0 = termFreq=60.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3133)
0.20012477 = weight(_text_:hunderte in 3133) [ClassicSimilarity], result of:
0.20012477 = score(doc=3133,freq=4.0), product of:
0.5143602 = queryWeight, product of:
8.30027 = idf(docFreq=29, maxDocs=44421)
0.06196909 = queryNorm
0.38907516 = fieldWeight in 3133, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
8.30027 = idf(docFreq=29, maxDocs=44421)
0.0234375 = fieldNorm(doc=3133)
0.5 = coord(2/4)
- Abstract
- Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
- Content
- "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
Unabhängiges Durchsuchen und Analysieren grosser Datenmengen Damit können investigativ arbeitende Journalisten selbstständig und auf eigener Hardware datenschutzfreundlich hunderte, tausende, hunderttausende oder gar Millionen von Dokumenten oder hunderte Megabyte, Gigabytes oder gar einige Terabytes an Daten mit Volltextsuche durchsuchbar machen. Automatische Datenanreicherung und Erschliessung mittels Hintergrundwissen Zudem wird anhand von konfigurierbaren Hintergrundwissen automatisch eine interaktive Navigation zu in Dokumenten enthaltenen Namen von Bundestagsabgeordneten oder Orten in Deutschland generiert oder anhand Textmustern strukturierte Informationen wie Geldbeträge extrahiert. Mittels Named Entities Manager für Personen, Organisationen, Begriffe und Orte können eigene Rechercheschwerpunkte konfiguriert werden, aus denen dann automatisch eine interaktive Navigation (Facettensuche) und aggregierte Übersichten generiert werden. Automatische Datenvisualisierung Diese lassen sich auch visualisieren: So z.B. die zeitliche Verteilung von Suchergebnissen als Trand Diagramm oder durch gleichzeitige Nennung in Dokumenten abgeleitete Verbindungen als Netzwerk bzw. Graph.
Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
- Source
- http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.13
0.12676615 = product of:
0.2535323 = sum of:
0.20403397 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.20403397 = score(doc=977,freq=2.0), product of:
0.4367276 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06196909 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.049498335 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.049498335 = score(doc=977,freq=12.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.12171538 = product of:
0.24343076 = sum of:
0.17002831 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.17002831 = score(doc=50,freq=2.0), product of:
0.4367276 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06196909 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.07340244 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.07340244 = score(doc=50,freq=38.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.11951729 = product of:
0.23903458 = sum of:
0.20403397 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.20403397 = score(doc=1181,freq=2.0), product of:
0.4367276 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06196909 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.03500061 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.03500061 = score(doc=1181,freq=6.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.11951627 = product of:
0.23903254 = sum of:
0.19236507 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.19236507 = score(doc=1761,freq=4.0), product of:
0.4367276 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06196909 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.04666748 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.04666748 = score(doc=1761,freq=24.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997)
0.12
0.11901981 = product of:
0.47607923 = sum of:
0.47607923 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
0.47607923 = score(doc=5463,freq=8.0), product of:
0.4367276 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06196909 = queryNorm
1.0901057 = fieldWeight in 5463, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5463)
0.25 = coord(1/4)
- Abstract
- A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
- Object
- JAVA
-
Read, T.; Hall, H.: Java: an explosion on the Internet (1996)
0.12
0.11901981 = product of:
0.47607923 = sum of:
0.47607923 = weight(_text_:java in 86) [ClassicSimilarity], result of:
0.47607923 = score(doc=86,freq=2.0), product of:
0.4367276 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06196909 = queryNorm
1.0901057 = fieldWeight in 86, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.109375 = fieldNorm(doc=86)
0.25 = coord(1/4)
-
Poschmann, A.; Kaltschmidt, H.: Schnell finden, was Sie wirklich brauchen : WWW-Suchhilfen im Test (1999)
0.12
0.11792465 = product of:
0.4716986 = sum of:
0.4716986 = weight(_text_:hunderte in 4905) [ClassicSimilarity], result of:
0.4716986 = score(doc=4905,freq=2.0), product of:
0.5143602 = queryWeight, product of:
8.30027 = idf(docFreq=29, maxDocs=44421)
0.06196909 = queryNorm
0.91705894 = fieldWeight in 4905, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.30027 = idf(docFreq=29, maxDocs=44421)
0.078125 = fieldNorm(doc=4905)
0.25 = coord(1/4)
- Abstract
- Wer im gigantischen Heuhaufen des WWW fündig werden will, braucht zuverlässige Suchdienste. Im Internet gibt es davon Hunderte. CHIP hat die wichtigsten getestet
-
¬Die Stecknadel im Heuhaufen finden (1999)
0.12
0.11792465 = product of:
0.4716986 = sum of:
0.4716986 = weight(_text_:hunderte in 5028) [ClassicSimilarity], result of:
0.4716986 = score(doc=5028,freq=2.0), product of:
0.5143602 = queryWeight, product of:
8.30027 = idf(docFreq=29, maxDocs=44421)
0.06196909 = queryNorm
0.91705894 = fieldWeight in 5028, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.30027 = idf(docFreq=29, maxDocs=44421)
0.078125 = fieldNorm(doc=5028)
0.25 = coord(1/4)
- Abstract
- Wer im gigantischen Info-Depot des World-Wide Web fündig werden will, braucht zuverlässige Suchdienste. Im Internet gibt es davon Hunderte - hier die wichtigsten
-
Lewis, T.: Woher stammt Sars-CoV-2? (2023)
0.12
0.11792465 = product of:
0.4716986 = sum of:
0.4716986 = weight(_text_:hunderte in 2062) [ClassicSimilarity], result of:
0.4716986 = score(doc=2062,freq=2.0), product of:
0.5143602 = queryWeight, product of:
8.30027 = idf(docFreq=29, maxDocs=44421)
0.06196909 = queryNorm
0.91705894 = fieldWeight in 2062, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.30027 = idf(docFreq=29, maxDocs=44421)
0.078125 = fieldNorm(doc=2062)
0.25 = coord(1/4)
- Abstract
- Auf dem chinesischen Markt, von dem die Covid-19-Pandemie mutmaßlich ausging, sind hunderte Abstrichproben genommen worden. Deren Untersuchung beweist: Das frühe Infektionsgeschehen spielte sich in Anwesenheit von Tieren ab. Trotzdem ist nach wie vor unklar, wie die Seuche begann.
-
Weizenbaum, J.: ¬Die Interpretation macht aus Signalen Informationen : Kinder und Computer (2001)
0.12
0.11767346 = product of:
0.23534691 = sum of:
0.04666748 = weight(_text_:und in 372) [ClassicSimilarity], result of:
0.04666748 = score(doc=372,freq=24.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.33954507 = fieldWeight in 372, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=372)
0.18867944 = weight(_text_:hunderte in 372) [ClassicSimilarity], result of:
0.18867944 = score(doc=372,freq=2.0), product of:
0.5143602 = queryWeight, product of:
8.30027 = idf(docFreq=29, maxDocs=44421)
0.06196909 = queryNorm
0.36682358 = fieldWeight in 372, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.30027 = idf(docFreq=29, maxDocs=44421)
0.03125 = fieldNorm(doc=372)
0.5 = coord(2/4)
- Abstract
- Unmittelbar vor den 4. Mediengesprächen in Buckow war ich in Mainz beim Südwestfunk in einer Talkshow. Dort ging es um Computer und Internet in den deutschen Schulen. Alle Gesprächsteilnehmer sprachen in diesem Zusammenhang von möglichen Katastrophen. Im Gegensatz zu mir meinten die anderen aber in erster Linie Gefahren für den Markt. Ich sehe eine ganz andere Katastrophe, und ich glaube schon, dass wir sie in fünf bis zehn Jahren in der Schule erkennen werden. Wir werden dann Generationen von Kindern als Versuchskaninchen benutzt haben, ohne die Schule als solche verbessert zu haben. Es gab doch schon so viele andere Sachen, die die Schule retten sollten: programmiertes Lernen, Sprachlabore und alles Mögliche. Und dann haben wir gesehen, das funktioniert nicht. Und das wird auch mit dem Computer passieren. In Amerika ist der Widerstand gegen Computer in der Schule besonders unter Computerprofis in den Universitäten inzwischen sehr stark. Wer will, kann das auch im Internet finden, und er wird sehen, dass die Skepsis wächst. Ich habe bestimmt keine Angst vor dem Computer, denn ich habe bereits vor 50 Jahren angefangen, mich damit zu beschäftigen. Dennoch setze ich andere Prioritäten für die Schule. Wenn man eine Gruppe von Lehrern zusammennimmt und fragt, was für ihre Arbeit wichtig ist, dann sagen sie, die Schüler brauchen eine saubere Schule mit sauberen Toiletten, sie brauchen kleinere Klassen und mehr Lehrer, sie brauchen Bewachung. Aber wenn man Toni Blair oder Mister Schröder hört, dann geht es nur darum, dass soundsoviele Hunderte Millionen ausgegeben werden, um die Schulen ans Netz zu bringen. ich erinnere mich, ich war mal zu Besuch in Wien im Kultusministerium, und einer hat uns begrüßt und zuallererst gesagt, im Jahr 2001 werden wir 50 000 Computer in den österreichischen Schulen haben. Und ich habe ihm gesagt, das wird Ihnen einmal leid tun! »Warum denn«, fragte er mich ganz erstaunt. Aber man muss die Frage andersherum stellen: Warum sollen die Computer in die Schulen kommen?
-
Wolters, C.: Wie muß man seine Daten formulieren bzw. strukturieren, damit ein Computer etwas Vernünftiges damit anfangen kann? : Mit einem Glossar von Carlos Saro (1991)
0.12
0.11564041 = product of:
0.23128082 = sum of:
0.04260138 = weight(_text_:und in 5013) [ClassicSimilarity], result of:
0.04260138 = score(doc=5013,freq=20.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.3099608 = fieldWeight in 5013, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5013)
0.18867944 = weight(_text_:hunderte in 5013) [ClassicSimilarity], result of:
0.18867944 = score(doc=5013,freq=2.0), product of:
0.5143602 = queryWeight, product of:
8.30027 = idf(docFreq=29, maxDocs=44421)
0.06196909 = queryNorm
0.36682358 = fieldWeight in 5013, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.30027 = idf(docFreq=29, maxDocs=44421)
0.03125 = fieldNorm(doc=5013)
0.5 = coord(2/4)
- Abstract
- Die Dokumentationsabteilung im Institut für Museumskunde der Staatlichen Museen Preußischer Kulturbesitz (IfM) hat die Aufgabe, bundesweit Museen und museale Einrichtungen bei der Einführung der Informationstechnik mit Rat und Tat zu unterstützen. Hierbei arbeitet sie mit dem Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB) zusammen. Diese Aktivitäten liegen im Bereich einer professionell durchgeführten Rationalisierung; Computerisierung ist nicht Selbstzweck, sondern eine Möglichkeit, ohnehin durchzuführende Arbeiten in puncto Zeit und Kosten effizienter zu gestalten bzw. Dinge durchzuführen, für die man beim Einsatz konventioneller Methoden weder die Zeit noch das Geld hätte. Mit der Vermittlung der hierfür notwendigen Kenntnisse und Fertigkeiten ist ein kleines Institut wie das IfM wegen des rapide ansteigenden Beratungsbedarfs der Museen heute noch weit überfordert. Wir konzentrieren daher unsere Aktivitäten auf eine Zusammenarbeit mit den für die Museumsbetreuung zuständigen Einrichtungen in den Bundesländern. Wir haben die Hoffnung, daß mehr und mehr Bundesländer für diese Aufgabe eigene Dienstleistungsangebote entwickeln werden. Bevor das erreicht ist, versucht das HM interessierten Museen zumindest eine "Hilfe zur Selbsthilfe" anzubieten; auch wenn dieses oder jenes Bundesland noch nicht in der Lage ist, seine Museen auf diesem Gebiet professionell zu beraten, soll es einzelnen Museen zumindest erleichtert werden, sich hier selber schlau zu machen. Zum Inhalt: Zur Zeit der Großrechner waren sich noch alle Beteiligten darüber einig, daß man für den Einsatz der Informationstechnik professioneller Hilfe bedarf. Man war bereit, sich den Anforderungen der Maschine anzupassen, man versuchte, sich "computergerecht" zu verhalten. Die Einführung leicht zu bedienender und leistungsstarker Computer im Bürobereich hat diese Arbeitsbedingungen aber grundlegend verändert. Auch Leute, die von Computer noch nichts verstehen, können heute in wenigen Tagen lernen, mit Programmen für "Textverarbeitung" ganz selbstverständlich umzugehen. Sie erwarten daher, daß das bei einem Einsatz des Computers für die Inventarisierung genauso problemlos sei. Von einer solchen Benutzerfreundlichkeit der Programme sind wir im deutschen Museumswesen aber noch weit entfernt. Das hat einen einfachen Grund: In die eben erwähnten einfach zu handhabenden Programme wurde inzwischen hunderte oder gar tausende von "Mannjahren" investiert; ein erheblicher Teil dieser Mittel diente dazu, den Computer den spezifischen Bedürfnissen bestimmter Arbeitsplätze anzupassen, bzw. die daran arbeitenden Mitarbeiter auszubilden. Bis das auch für das Museum gilt, wird wohl noch einige Zeit vergehen; dieser Markt ist zu klein, als daß sich solche Investitionen auf rein kommerzieller Basis kurzfristig auszahlen könnten. Das Institut für Museumskunde versucht hier Hilfestellung zu geben. Das vorliegende Heft 33 der "Materialien" ist aus Beratungen und Kursen hervorgegangen. Es versucht, die für die Einführung der Informationstechnik im Museum unabdingbaren grundlegenden Computerkenntnisse für Museumsleute in Form eines Lern- und Lesebuchs zu vermitteln. Es schließt damit an Heft 30 (Jane Sunderland und Leonore Sarasan, Was muß man alles tun, um den Computer im Museum erfolgreich einzusetzen?) direkt an und soll zusammen mit ihm benutzt werden.
-
Franz, G.: ¬Die vielen Wikipedias : Vielsprachigkeit als Zugang zu einer globalisierten Online-Welt (2011)
0.12
0.11564041 = product of:
0.23128082 = sum of:
0.04260138 = weight(_text_:und in 1568) [ClassicSimilarity], result of:
0.04260138 = score(doc=1568,freq=20.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.3099608 = fieldWeight in 1568, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1568)
0.18867944 = weight(_text_:hunderte in 1568) [ClassicSimilarity], result of:
0.18867944 = score(doc=1568,freq=2.0), product of:
0.5143602 = queryWeight, product of:
8.30027 = idf(docFreq=29, maxDocs=44421)
0.06196909 = queryNorm
0.36682358 = fieldWeight in 1568, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.30027 = idf(docFreq=29, maxDocs=44421)
0.03125 = fieldNorm(doc=1568)
0.5 = coord(2/4)
- Abstract
- Mittlerweile sind mehr als zehn Jahre seit der Gründung der Wikipedia vergangen. Die kollaborativ zusammengestellte Online-Enzyklopädie blickt auf eine beispiellose Erfolgsgeschichte zurück und hat inzwischen sogar viele klassische Lexika das Fürchten gelehrt. Aber: Es gibt gar nicht die eine Wikipedia! Stattdessen handelt es sich bei dem Projekt um hunderte verschiedene, weitgehend voneinander unabhängig agierende Sprachversionen. Sie sind nicht nur unterschiedlich groß, sondern bestehen auch aus differierenden Inhalten. Artikel zu ein und demselben Stichwort können von Wikipedia zu Wikipedia erheblich voneinander abweichen. Von der Gemeinschaft bereits erarbeitetes Wissen steht daher nicht allen Nutzern in der Welt gleichermaßen zur Verfügung. Mit einem forcierten interlingualen Wissensaustausch ließe es sich aber für eine gegenseitige Bereicherung der Wikipedias nutzen. Das Buch gibt zunächst einen allgemeinen Überblick zur Wikipedia, geht auf ihre Entstehung, ihre Funktionsweise und auf die beteiligten Akteure ein. Auch das "Erfolgsgeheimnis" des Nachschlagewerks sowie aktuelle Herausforderungen werden herausgearbeitet. Die anschließende Untersuchung zeigt, wie sehr verschieden große Wikipedias voneinander differieren und wo die Unterschiede im Einzelnen liegen. Danach folgt eine Vorstellung von Ansätzen, Werkzeugen und Schwierigkeiten des interlingualen Wissensaustauschs zwischen den Sprachversionen. Der letzte Teil entwirft schließlich ein detailliertes Konzept für einen neuartigen Wissensaustausch, das aus mehreren ineinandergreifenden Komponenten rund um den Kern einer speziellen Übersetzungsoberfläche besteht. Das Konzept lässt sich auch als Blaupause für Lokalisierungsbemühungen multisprachlicher Wikis nutzen, wie sie international operierende Unternehmungen zunehmend einsetzen. Die Ausarbeitung, auf der dieses Buch basiert, wurde mit dem FHP-Preis 2011 für die beste Abschlussarbeit im Studiengang "Information und Dokumentation" der FH Potsdam ausgezeichnet.
- BK
- 54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
05.20 (Kommunikation und Gesellschaft)
- Classification
- 54.08 (Informatik in Beziehung zu Mensch und Gesellschaft)
05.20 (Kommunikation und Gesellschaft)
-
Jäger, L.: Von Big Data zu Big Brother (2018)
0.12
0.11564041 = product of:
0.23128082 = sum of:
0.04260138 = weight(_text_:und in 234) [ClassicSimilarity], result of:
0.04260138 = score(doc=234,freq=20.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.3099608 = fieldWeight in 234, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=234)
0.18867944 = weight(_text_:hunderte in 234) [ClassicSimilarity], result of:
0.18867944 = score(doc=234,freq=2.0), product of:
0.5143602 = queryWeight, product of:
8.30027 = idf(docFreq=29, maxDocs=44421)
0.06196909 = queryNorm
0.36682358 = fieldWeight in 234, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.30027 = idf(docFreq=29, maxDocs=44421)
0.03125 = fieldNorm(doc=234)
0.5 = coord(2/4)
- Abstract
- 1983 bewegte ein einziges Thema die gesamte Bundesrepublik: die geplante Volkszählung. Jeder Haushalt in Westdeutschland sollte Fragebögen mit 36 Fragen zur Wohnsituation, den im Haushalt lebenden Personen und über ihre Einkommensverhältnisse ausfüllen. Es regte sich massiver Widerstand, hunderte Bürgerinitiativen formierten sich im ganzen Land gegen die Befragung. Man wollte nicht "erfasst" werden, die Privatsphäre war heilig. Es bestand die (berechtigte) Sorge, dass die Antworten auf den eigentlich anonymisierten Fragebögen Rückschlüsse auf die Identität der Befragten zulassen. Das Bundesverfassungsgericht gab den Klägern gegen den Zensus Recht: Die geplante Volkszählung verstieß gegen den Datenschutz und damit auch gegen das Grundgesetz. Sie wurde gestoppt. Nur eine Generation später geben wir sorglos jedes Mal beim Einkaufen die Bonuskarte der Supermarktkette heraus, um ein paar Punkte für ein Geschenk oder Rabatte beim nächsten Einkauf zu sammeln. Und dabei wissen wir sehr wohl, dass der Supermarkt damit unser Konsumverhalten bis ins letzte Detail erfährt. Was wir nicht wissen, ist, wer noch Zugang zu diesen Daten erhält. Deren Käufer bekommen nicht nur Zugriff auf unsere Einkäufe, sondern können über sie auch unsere Gewohnheiten, persönlichen Vorlieben und Einkommen ermitteln. Genauso unbeschwert surfen wir im Internet, googeln und shoppen, mailen und chatten. Google, Facebook und Microsoft schauen bei all dem nicht nur zu, sondern speichern auf alle Zeiten alles, was wir von uns geben, was wir einkaufen, was wir suchen, und verwenden es für ihre eigenen Zwecke. Sie durchstöbern unsere E-Mails, kennen unser persönliches Zeitmanagement, verfolgen unseren momentanen Standort, wissen um unsere politischen, religiösen und sexuellen Präferenzen (wer kennt ihn nicht, den Button "an Männern interessiert" oder "an Frauen interessiert"?), unsere engsten Freunde, mit denen wir online verbunden sind, unseren Beziehungsstatus, welche Schule wir besuchen oder besucht haben und vieles mehr.
-
Vonhoegen, H.: Einstieg in XML (2002)
0.11
0.11478525 = product of:
0.2295705 = sum of:
0.16831943 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.16831943 = score(doc=5002,freq=4.0), product of:
0.4367276 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06196909 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.06125106 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.06125106 = score(doc=5002,freq=54.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Klein, H.: Web Content Mining (2004)
0.11
0.11454733 = product of:
0.22909465 = sum of:
0.040415216 = weight(_text_:und in 4154) [ClassicSimilarity], result of:
0.040415216 = score(doc=4154,freq=18.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.29405463 = fieldWeight in 4154, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4154)
0.18867944 = weight(_text_:hunderte in 4154) [ClassicSimilarity], result of:
0.18867944 = score(doc=4154,freq=2.0), product of:
0.5143602 = queryWeight, product of:
8.30027 = idf(docFreq=29, maxDocs=44421)
0.06196909 = queryNorm
0.36682358 = fieldWeight in 4154, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.30027 = idf(docFreq=29, maxDocs=44421)
0.03125 = fieldNorm(doc=4154)
0.5 = coord(2/4)
- Abstract
- Web Mining - ein Schlagwort, das mit der Verbreitung des Internets immer öfter zu lesen und zu hören ist. Die gegenwärtige Forschung beschäftigt sich aber eher mit dem Nutzungsverhalten der Internetnutzer, und ein Blick in Tagungsprogramme einschlägiger Konferenzen (z.B. GOR - German Online Research) zeigt, dass die Analyse der Inhalte kaum Thema ist. Auf der GOR wurden 1999 zwei Vorträge zu diesem Thema gehalten, auf der Folgekonferenz 2001 kein einziger. Web Mining ist der Oberbegriff für zwei Typen von Web Mining: Web Usage Mining und Web Content Mining. Unter Web Usage Mining versteht man das Analysieren von Daten, wie sie bei der Nutzung des WWW anfallen und von den Servern protokolliert wenden. Man kann ermitteln, welche Seiten wie oft aufgerufen wurden, wie lange auf den Seiten verweilt wurde und vieles andere mehr. Beim Web Content Mining wird der Inhalt der Webseiten untersucht, der nicht nur Text, sondern auf Bilder, Video- und Audioinhalte enthalten kann. Die Software für die Analyse von Webseiten ist in den Grundzügen vorhanden, doch müssen die meisten Webseiten für die entsprechende Analysesoftware erst aufbereitet werden. Zuerst müssen die relevanten Websites ermittelt werden, die die gesuchten Inhalte enthalten. Das geschieht meist mit Suchmaschinen, von denen es mittlerweile Hunderte gibt. Allerdings kann man nicht davon ausgehen, dass die Suchmaschinen alle existierende Webseiten erfassen. Das ist unmöglich, denn durch das schnelle Wachstum des Internets kommen täglich Tausende von Webseiten hinzu, und bereits bestehende ändern sich der werden gelöscht. Oft weiß man auch nicht, wie die Suchmaschinen arbeiten, denn das gehört zu den Geschäftsgeheimnissen der Betreiber. Man muss also davon ausgehen, dass die Suchmaschinen nicht alle relevanten Websites finden (können). Der nächste Schritt ist das Herunterladen der Websites, dafür gibt es Software, die unter den Bezeichnungen OfflineReader oder Webspider zu finden ist. Das Ziel dieser Programme ist, die Website in einer Form herunterzuladen, die es erlaubt, die Website offline zu betrachten. Die Struktur der Website wird in der Regel beibehalten. Wer die Inhalte einer Website analysieren will, muss also alle Dateien mit seiner Analysesoftware verarbeiten können. Software für Inhaltsanalyse geht davon aus, dass nur Textinformationen in einer einzigen Datei verarbeitet werden. QDA Software (qualitative data analysis) verarbeitet dagegen auch Audiound Videoinhalte sowie internetspezifische Kommunikation wie z.B. Chats.
- Source
- Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
-
Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998)
0.11
0.11405844 = product of:
0.45623377 = sum of:
0.45623377 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
0.45623377 = score(doc=6217,freq=10.0), product of:
0.4367276 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06196909 = queryNorm
1.0446644 = fieldWeight in 6217, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=6217)
0.25 = coord(1/4)
- Abstract
- A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
-
Grimm, R.: ¬Der Bauch ist klüger als der Kopf : Über den Einfluss des Gefühls auf unsere Entscheidungen (2003)
0.11
0.1061228 = product of:
0.2122456 = sum of:
0.04715109 = weight(_text_:und in 2604) [ClassicSimilarity], result of:
0.04715109 = score(doc=2604,freq=32.0), product of:
0.13744119 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06196909 = queryNorm
0.34306374 = fieldWeight in 2604, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2604)
0.16509451 = weight(_text_:hunderte in 2604) [ClassicSimilarity], result of:
0.16509451 = score(doc=2604,freq=2.0), product of:
0.5143602 = queryWeight, product of:
8.30027 = idf(docFreq=29, maxDocs=44421)
0.06196909 = queryNorm
0.32097062 = fieldWeight in 2604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.30027 = idf(docFreq=29, maxDocs=44421)
0.02734375 = fieldNorm(doc=2604)
0.5 = coord(2/4)
- Content
- Was ist Intuition? Die Zeitschrift Psychologie heute (Weinheim) zitiert dazu in der dem "Bauchgefühl" gewidmeten Titelgeschichte ihrer neuesten Ausgabe den Kognitionsforscher Daniel Kahnemann (Universität Princeton, USA). Er charakterieiert das intuitive Denken als "wahrnehmungsähnlich, schnell und mühelos" - im Gegensatz zum logischen Denken, das meist anstrengend, aufwendig und langsam ist. Der Mensch besitzt offenbar zwei weit gehend voneinander unabhängig operierende Systeme des Wahrnehmens und Denkens, die im Kopf auch unterschied-: lich repräsentiert sind Das "Chefsystem", das Bewusstsein, operiert in der linken Gehirnhälfte. Seine Arbeitsweise, die Logik, ist die bevorzugte Methode unseres Problemlösens. Die eher im Hintergrund" wirkende rechte Hälfte arbeitet komplex, integrativ' ganzheitlich, assoziativ und geüihlsbezogen. Kurz: Sie ist intuitiv Die Intuition wird weit gehend gespeist aus unseren Erinnerungen, Sinneseindrücken und Empfndungen. Sie bezieht ihren Rohstoff aus dem, was wir ständig lernen, ohne uns des Lernprozesses bewusst zu sein. Das Gelernte steht uns dann bei passender Gelegenheit plötzlich und unerklärlich zur Verf ügung. So kommen wir oft sogar bei banal erscheinenden Alltagsproblemen automatisch und schnell zu wichtigen Lösungen. Die Macht der Intuition lässt sich auch so beschreiben: "Das, was ich weiß, von dem ich aber nicht weiß, dass ich es weiß, beeinflusst mich mehr, als ich weiß." Zu besonders guten intuitiven Lösungen kommen wir auf Gebieten, auf denen wir Experten sind. Der unlängst verstorbene amerikanische Psychologe und Politiwissenschaftler Herbert Simon hat dies erforscht. Schachmdister beispielsweise brauchte nur fünf Sekunden, um sich die Stellung der Figuren einem fortgeschrittenen Spiel einzuprägen und die Partie "blind" fortzuführen. Diese Fähigkeit beruht auf tausenden gespielter und analysierter Partien und dem schnel-len (Wieder-) Erkennen von Spielzügen. Erfahrene Arzte oder Automechaniker sind ähnlich zu intuitiven Schnelldiagnosen fähig. Dass "der Bauch" bei alledem nicht nur eine Metapher ist, wurde in einer früheren Titelgeschichte des Magazins Geo (Hamburg) über den Bauch als "Zweites Gehirn" detailliert aufgezeigt. Nach Erkenntnissen mehrerer Forscherteams werden Gefühl und Intuition von einem Nervengeflecht in dieser Körperregion mitgesteuert. Das "Bauchhirn" besitzt mehr als 100 Millionen Nervenzellen - mehr als im gesamten Rückenmark zu finden sind. Und es führen weit mehr Nervenstränge vom Bauch ins Kopfhirn als umgekehrt. 90 Prozent der Verbindungen laufen von unten nach oben. Geo zitiert Emeran Mayer von der University of California mit der Aussage, dass unsere Evolution deshalb so erfolgreich sei, weil Emotionen - ob negativ oder positiv - uns erlauben, bessere Entscheidungen zu treffen. Je stärker die emotionale Erfahrung, um so bessere "somatische Marker" aus der Vergangenheit könnten wir zu Rate ziehen. Und desto schneller merkten wir: Hier gehfe lang. Jedenfalls glauben Bauchhirn-Experten zu wissen: "Es gibt die Weisheit des Bauchs." Psycho-logie heute macht allerdings auch auf Grenzen und Fehlleistungen der Intuition aufmerksam. Als Beispiel nennt sie Gutachter, die darüber entscheiden, ob ein Sexualstraftäter entlassen wird oder in Sicherungsverwahrung bleiben, muss: Hunderte von Studien hätten bewiesen, dass als Entscheidungsbasis objektive Maße wie Straftaten, Statistiken und Tests besser sind als "klinische Intuition": Als beste Basis für eine Vorhersage künftigen Verhaltens eines Menschen bezeichnet der Nestor der klinisch-psychologischen Diagnostik Paul Meehl (University of Minnesota, USA) das Verhalten in der Vergangenheit. Auch Bewerbungsgespräche sind ein Beispiel. Merkmale wie Charme, Händedruck, Aussehen sagen so gut wie nichts über den künftigen Berufserfolg aus. Es ist beser, strukturiert über "jobnahe" Fragen zu sprechen.
-
Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996)
0.10
0.103074186 = product of:
0.41229674 = sum of:
0.41229674 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
0.41229674 = score(doc=6014,freq=6.0), product of:
0.4367276 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06196909 = queryNorm
0.94405925 = fieldWeight in 6014, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6014)
0.25 = coord(1/4)
- Abstract
- Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
- Object
- JAVA