-
Schmidt, A.P.: ¬Der Wissensnavigator : Das Lexikon der Zukunft (1999)
0.12
0.122098126 = product of:
0.24419625 = sum of:
0.035059314 = weight(_text_:und in 4315) [ClassicSimilarity], result of:
0.035059314 = score(doc=4315,freq=14.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.25933182 = fieldWeight in 4315, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4315)
0.20913693 = weight(_text_:herzlich in 4315) [ClassicSimilarity], result of:
0.20913693 = score(doc=4315,freq=2.0), product of:
0.53707606 = queryWeight, product of:
8.811096 = idf(docFreq=17, maxDocs=44421)
0.06095451 = queryNorm
0.3893991 = fieldWeight in 4315, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.811096 = idf(docFreq=17, maxDocs=44421)
0.03125 = fieldNorm(doc=4315)
0.5 = coord(2/4)
- Abstract
- Der Wissensnavigator ist ein Lexikon der Zukunft auf dem Weg zu einer interaktiven Enzyklopädie. Wenn Sie die elektronische Fassung online benutzen, können Sie von den einzelnen Artikeln über Hyperlinks zu Seiten im World Wide Web gelangen, die noch mehr Informationen zum jeweiligen Zukunftsbegriff enthalten. Bei der elektronischen Ausgabe des Wissensnavigators, die auch im Internet zugänglich ist handelt es sich um eine "lebende" Anwendung, die sich gerade auch durch die Mitwirkung der Nutzer weiterentwickelt. Sie sind herzlich eingeladen, zum Teilnehmer dieses Evolutionsprozesses zu werden - etwa, indem Sie neue Begriffe vorschlagen, die aufgenommen werden sollen, oder Experten benennen, die zur Bearbeitung neuer Begriffe in Frage kommen, oder auch sich selbst als Experte zu erkennen geben. Eine Redaktion, die aus dem Autor und einem Expertenteam im Verlag besteht, wird über die Aufnahme neuer Begriffe entscheiden
- BK
- 81.68 / Computereinsatz in Unterricht und Ausbildung
- Classification
- 81.68 / Computereinsatz in Unterricht und Ausbildung
- Content
- Immer öfter verlieren wir die Orientierung im Meer des Wißbaren. Die 256 Begriffe, in denen Artur Schmidts Wissensnavigator die wesentlichen Technologien, Managementgrundlagen, Lebensperspektiven und Werterhaltungen unserer Zeit zusammenfaßt, haben zum Ziel, uns auf Kurs in Richtung Zukunft zu bringen. Artikel zu den wichtigsten neuen Wissensgebieten und Technologien beiten dem Leser einen 'Leitfaden', der durch die Einzeldisziplinen hindurchführt und sie zusammenführt, um daraus eine Perspektive für die Welt von morgen zu entwickeln. Mit Hilfe der beigefügten CD kann das Lexikon der Zukunft auf dem Internet frei schwimmen, ohne dabei seine eigentliche Funktion zu verlieren - eine geistige Landkarte zur Verfügung zu stellen, mit deren Hilfe such zielführend und erfolgreich in Wissensnetzen navigieren läßt
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.119722605 = product of:
0.23944521 = sum of:
0.16724454 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.16724454 = score(doc=50,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.07220066 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.07220066 = score(doc=50,freq=38.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Sandner, M.: Neues aus der Kommission für Sacherschließung (2007)
0.12
0.11806439 = product of:
0.23612878 = sum of:
0.053133953 = weight(_text_:und in 1495) [ClassicSimilarity], result of:
0.053133953 = score(doc=1495,freq=42.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.39302891 = fieldWeight in 1495, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1495)
0.18299483 = weight(_text_:herzlich in 1495) [ClassicSimilarity], result of:
0.18299483 = score(doc=1495,freq=2.0), product of:
0.53707606 = queryWeight, product of:
8.811096 = idf(docFreq=17, maxDocs=44421)
0.06095451 = queryNorm
0.34072423 = fieldWeight in 1495, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.811096 = idf(docFreq=17, maxDocs=44421)
0.02734375 = fieldNorm(doc=1495)
0.5 = coord(2/4)
- Content
- "2007 fanden bereits im Februar und im April zwei Kommissionssitzungen statt, eine dritte folgt im Juni. Am 27. 2. 2007 trafen wir uns in Salzburg, waren im Bibliotheksneubau des Mozarteums zu Gast und hatten im Anschluss an die Sitzung Gelegenheit für eine kleine Führung durch die Bibliothek und in einen der Konzertsäle. Auch inhaltlich betraf ein Teil der Sitzung das Thema Musik: wir verschafften uns einen Überblick über die zurzeit noch uneinheitliche Praxis für die Inhaltserschließung von Musikalien an österreichischen Bibliotheken mit einschlägigem Bestand und stellten dies der aktuellen Regelwerks- und Normdatenentwicklung sowie der Praxis in deutschen Verbünden gegenüber. Zum Bereich Klassifikationen: - Freihandaufstellung: kurze Berichte über die wachsende RVK-Anwendung und den beginnenden Einsatz der DDC. - DDC Deutsch: kurzer Bericht über den aktuellen Stand der DDC-Anwendung in Deutschland, speziell über die Nutzung des Online-services Melvil, sowie über das Folgeprojekt der DDC-Übersetzung "CrissCross", das Synergien zwischen der verbalen Erschließung nach RSWK/SWD und der klassifikatorischen nach DDC schafft. Ausblick auf die Entstehung einer deutschen Kurzausgabe zur DDC 23. Außerdem wollten wir sowohl unsere mittelfristigen Arbeitsschwerpunkte als auch unsere Mitgliederstruktur überdenken. Die Stärke dieser typischen "Querschnittskommission" liegt in ihrer breitgefächerten Zusammensetzung und vielfältigen Themenanbindung. Daher sollten möglichst viele Bibliothekstypen und Fachrichtungen in ihr vertreten sein. Anschließend fand am 28.2. in Salzburg die konstituierende Sitzung der von den Kommissionen für Sacherschließung und für FH-Bibliotheken initiierten VÖB-Arbeitsgruppe RVK statt. Als Mitglied beider Kommissionen wurde Mag. Christian KIESLINGER (FH-Bibliothek St. Pölten) zum Leiter gewählt. Die AG RVK hat ihr Arbeitsprogramm für das erste Jahr und ihren Aktionsradius abgesteckt. Als erstes soll ein Erweiterungsvorschlag für das dringende Problem "Ausdifferenzierung im "österreichischen Recht" erarbeitet werden.
Unsere zweite Veranstaltung fand in Wien am 25. 4. 2007 im ehrwürdigen Ambiente des technisch modern ausgestatteten VanSwieten-Saals der Österreichischen Nationalbibliothek statt. Die vor einiger Zeit angestrebte Zusammenarbeit unserer Kommission mit der neuen VÖB-Arbeitsgruppe Informationsethik nahm mit einem Referat ihrer Leiterin, Mag. Sonja FIALA, nun ihren Anfang. Sie stellte die Ziele ihrer Arbeitsgruppe vor und berichtete - souverän aus dem Blickwinkel philosophischer Informationstheorie und praktischer Ethik - über den Leipziger Bibliothekskongress, der heuer im März unter dem Generalthema Informationsethik stand, und bei dem sie sich einigen SE-Themen wie Crosswalks, semantische Relationierung für die Term-Umschlüssel ung als Heterogenitätsdienst in Fachportalen, dem CrissCross-Projekt oder Social tagging in der Inhaltserschließung zuwandte. Als Gastvortragende aus Deutschland kam Esther SCHEVEN von der Deutschen Nationalbibliothek aus Frankfurt am Main zu uns. Sie ist in führender Funktion selbst in die Überarbeitung der RSWK involviert und kennt auch die zahlreichen tangierenden Projekte sehr gut. Ihr straffer Überblick über die aktuelle Regelwerksentwicklung der RDA mit Fokus auf die verbale Sacherschließung hätte nicht kompetenter und authentischer dargestellt werden können. Im Anschluss daran stand sie noch für Fragen zur Verfügung und schuf bei den Zuhörer/-innen eine gute Ausgangsbasis, von der aus sich auch die österreichische RSWK-Community künftig ohne Scheu an der Diskussion von Detailfragen zu RSWK neu wird einbringen können. Die Folien beider Vorträge sind auf unserer Webseite verlinkt: http:// www.univie.ac.at/voeb/php/kommissionen/sacherschliessung/index.html Anschließend fand das zweite Arbeitstreffen der VÖB-AG RVK statt. Die nächste KofSE-Sitzung wird am 19.6.2007 im Vortragssaal der UB der TU Wien abgehalten und bietet einen Vergleich der SE-Praxis in den beiden Verbünden BVB und HBZ. Aus Bayern kommt Herr Dr. Gerhard Stumpf (Augsburg) zu uns, aus Nordrhein-Westfalen Herr Dr. Holger Flachmann (Münster). Außerdem erwarten wir einen kurzen Bericht vom unmittelbar vorher anberaumten dritten Arbeitstreffen der VÖB-AG RVK, an dem diesmal Frau Barbara Leiwesmeyer (Regensburg) teilnehmen wird. Im September 2007 wird die KofSE im Rahmen der ODOK-Preconference-Tage einen einführenden RSWK/SWD-Workshop anbieten (Dienstag, 18.9.2007, Graz). Ich freue mich, dass in diesem Jahr schon so viel Dynamik in der Kommissionsarbeit wirksam werden konnte und lade Sie herzlich ein, wieder dabei zu sein!"
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 60(2007) H.2, S.40-41
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.117560506 = product of:
0.23512101 = sum of:
0.20069344 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.20069344 = score(doc=1181,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.03442757 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.03442757 = score(doc=1181,freq=6.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.11755951 = product of:
0.23511901 = sum of:
0.1892156 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.1892156 = score(doc=1761,freq=4.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.045903422 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.045903422 = score(doc=1761,freq=24.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997)
0.12
0.117071174 = product of:
0.4682847 = sum of:
0.4682847 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
0.4682847 = score(doc=5463,freq=8.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
1.0901057 = fieldWeight in 5463, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5463)
0.25 = coord(1/4)
- Abstract
- A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
- Object
- JAVA
-
Read, T.; Hall, H.: Java: an explosion on the Internet (1996)
0.12
0.117071174 = product of:
0.4682847 = sum of:
0.4682847 = weight(_text_:java in 86) [ClassicSimilarity], result of:
0.4682847 = score(doc=86,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
1.0901057 = fieldWeight in 86, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.109375 = fieldNorm(doc=86)
0.25 = coord(1/4)
-
Vonhoegen, H.: Einstieg in XML (2002)
0.11
0.112905934 = product of:
0.22581187 = sum of:
0.16556364 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.16556364 = score(doc=5002,freq=4.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.060248233 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.060248233 = score(doc=5002,freq=54.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998)
0.11
0.11219104 = product of:
0.44876415 = sum of:
0.44876415 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
0.44876415 = score(doc=6217,freq=10.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
1.0446644 = fieldWeight in 6217, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=6217)
0.25 = coord(1/4)
- Abstract
- A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
-
Sandner, M.: Neues aus der Kommission für Sacherschließung (2009)
0.11
0.105643734 = product of:
0.21128747 = sum of:
0.054434765 = weight(_text_:und in 312) [ClassicSimilarity], result of:
0.054434765 = score(doc=312,freq=60.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.40265095 = fieldWeight in 312, product of:
7.745967 = tf(freq=60.0), with freq of:
60.0 = termFreq=60.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=312)
0.1568527 = weight(_text_:herzlich in 312) [ClassicSimilarity], result of:
0.1568527 = score(doc=312,freq=2.0), product of:
0.53707606 = queryWeight, product of:
8.811096 = idf(docFreq=17, maxDocs=44421)
0.06095451 = queryNorm
0.29204935 = fieldWeight in 312, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.811096 = idf(docFreq=17, maxDocs=44421)
0.0234375 = fieldNorm(doc=312)
0.5 = coord(2/4)
- Content
- "Am Grazer Bibliothekartag bot die KofSE diesmal ein eigenes SE-Panel unter dem Motto "Inhaltserschließung: Ingredienzen, Instrumentarien, Internationalität" mit drei Vorträgen an und lud zu einem Runden Tisch über "Strategien für Inhaltserschließung und sachliche Suche der Ne(x)t Generation" ein. Zunächst referierte Felix BOTERAM (Institut für Informationsmanagement, FH Köln) über die "Typisierung semantischer Relationen für Strategien der Wissensexploration". Das Projekt RESEDA hat zum Ziel, theoretische und datentechnische Repräsentationsmodelle für begriffliche Daten und die zwischen ihnen bestehenden Beziehungen zuradäquaten Modellierung sprachlichen Wissens zu entwickeln. Angesichts zunehmender Heterogenität von SE-Daten und eines spürbar wachsenden SE-Datentausches erscheint es wichtig, die theoretische Basis für mögliche oder bereits in Arbeit befindliche Lösungsstrategien nicht zu vernachlässigen. Ausgehend von einem auf solchem Weg bereits weit fortgeschrittenen Projekt referierte Jessica HUBRICH (Institut für Informationsmanagement, FH Köln) dann über "Begriffliche Suche und Wissensexploration in heterogenen Informationsräumen". Konkret erläuterte sie, wie die Herstellung von Verbindungen zwischen Daten vorhandener Dokumentationssprachen dazu beiträgt, das mit einem Wissenssystem gegebene Potenzial über Teilmengen hinaus nutzbar zu machen. Das Projekt CrissCross hat zum Ziel, eine Verbindung zwischen SWD, DDC Deutsch, LCSH und RAMEAU herzustellen. Die ebenfalls gezeigten, mit diesen Mappings entstehenden Möglichkeiten zur Strukturierung von Treffermengen wirken überzeugend. Schließlich bot Rudolf LINDPOINTNER (OÖLB, Linz) mit seiner Präsentation über "Die Einführung der DDC in der Oberösterreichischen Landesbibliothek" einen ersten Blick in den nach dem kürzlich beendeten Umbau eröffneten neuen, nach Dewey strukturierten Freihandbereich, legte die Gründe für den Umstieg auf DDC Deutsch dar und berichtete über die hohe Fremddatennutzungsrate und die eigene Vergabe der Notationen mit MelvilClass sowie über Recherchemöglichkeiten im Katalog und über die Art der Signaturenbildung für die Aufstellung, die wohl Vorbildwirkung haben könnte. Die ersten Eindrücke des Publikumsbetriebs waren positiv. Auch eine Benutzerforschungsstudie soll es eventuell in einiger Zeit geben.
Alle Vortragsfolien sind auf der KofSE-Seite der VÖB-Homepage verlinkt. Schriftliche Fassungen aller Vorträge sind für den BT-Band geplant. Eine Kurzfassung von Frau Hubrichs Referat erscheint bereits in diesem Heft. Beim Roundtable-Gespräch am Nachmittag führten die zahlreichen Teilnehmer/-innen eine rege Diskussion über veränderte Suchgewohnheiten, die nötige Anpassung unseres professionellen Erschließungsangebots und die dafür erforderlichen Strategien. Flexibilität und die Entwicklung integrierter Serviceleistungen sind genauso wichtig wie fundierte Erfahrung, Basisfunktionalitäten und die zielsichere datentechnische Umsetzung neuer Ideen. Daher dürfen Wert und Funktion von Normdaten und kontrollierten Vokabularen nicht unterschätzt werden, müssen kollaborative Ansätze zur Erschließung und Anreicherung herkömmlicher Verfahren zwar sinnvoll eingesetzt aber zuvor kritisch bewertet werden, sollen automatische Verfahren und anspruchsvolle intellektuelle Erschließungsmethoden nicht gegeneinander ausgespielt sondern als ergänzende Komponenten verstanden werden und haben relationale Strukturen von Dokumentationssprachen und Wissensorganisationssystemen Zukunftspotenzial. Der Vorschlag, versuchsweise im Rahmen von praktischer Erschließungsarbeit und Thesauruspflege in Bibliotheken und Verbünden Relationeninventare (etwa Klassifikationenkonkordanzen) zu erstellen, erscheint vielversprechend und dürfte einen Versuch wert sein. Im Vorfeld des Bibliothekartags fand am 15. 9. 2009 auch eine programmatische Sitzung der KofSE statt. Wir haben ausgelotet, welche Themen die Mitglieder mittelfristig in den Vordergrund stellen möchten und passende Vorträge, Workshops und Roundtables geplant.
Dazu gehören - im Bereich der verbalen Erschließung: - - RSWK-Reform - SWD-Arbeit - SW-Vergabe vor dem Hintergrund von RDA, GND und MARC - im Bereich der klassifikatorischen Inhaltserschließung: - - Systematische Freihandaufstellung; RVK als Aufstellungssystematik - - RVK-On line: der neue Web-Auftritt - - Aktive Vergabe von DDC Deutsch; praktischer Nutzen für die Recherche; Vertiefung für Spezialbereiche wie z. B. das Recht; - - MSC-Aktualisierung und Aleph-Normdatei - - Konkordanzen zwischen Klassifikationen Zu diesem zukunftsträchtigen, ziemlich komplexen Bereich hat sich spontan ein kommissionsinterner Arbeitskreis gebildet. Das erste Treffen fand am 29. 10. 2009 statt: bei Interesse zur Mitarbeit melden Sie sich bitte jederzeit. - Suchmaschinen in Bibliotheken: SE-Komponenten (z. B. semantische Facettierung) - Elektronische Ressourcen: SE Erschließungskonzepte - SemanticWeb und bibliothekarische SE - Blick über die Grenzen: - - SE-Praxis in Südtirol - - SE-Praxis in der Schweiz - - SE-Praxis in DNB, Leipzig: auch österreichische Publikationen - - Résumé zu Serie von Vorträgen über die SE-Praxis in anderen Verbünden und Schlussfolgerungen für Österreich Diese Vielzahl von Themen und eine bunte Palette an Wünschen zeigt, dass das Arbeitsfeld Sacherschließung ein spannendes bleiben wird. Für die künftige Kommissionsarbeit ist also weiterhin ein breites Spektrum offen. Da die Mitgliederliste zuletzt etwas kleiner wurde, lade ich im Namen der KofSE hiermit wieder alle Interessierten herzlich zur aktiven Mitgestaltung ein."
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.4, S.41-43
-
Carr, R.: Leservermehrung : Für eine europäische Perspektive: Die digitalisierte Google-Buchsuche nützt der klassenlosen Wissensgesellschaft (2007)
0.10
0.103272304 = product of:
0.20654461 = sum of:
0.049691908 = weight(_text_:und in 764) [ClassicSimilarity], result of:
0.049691908 = score(doc=764,freq=50.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.3675683 = fieldWeight in 764, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=764)
0.1568527 = weight(_text_:herzlich in 764) [ClassicSimilarity], result of:
0.1568527 = score(doc=764,freq=2.0), product of:
0.53707606 = queryWeight, product of:
8.811096 = idf(docFreq=17, maxDocs=44421)
0.06095451 = queryNorm
0.29204935 = fieldWeight in 764, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.811096 = idf(docFreq=17, maxDocs=44421)
0.0234375 = fieldNorm(doc=764)
0.5 = coord(2/4)
- Content
- "Die Nachricht, dass sich nun auch die Nationalbibliothek von Katalonien und die Bibliothek der Universität Complutense Madrid in die länger werdende Liste der großen Google-Partnerbibliotheken eingereiht haben und so das ehrgeizige Projekt der GoogleBuchsuche weiter voranschreitet, wird von der' Bodleian-Bibliothek in Oxford ganz besonders begrüßt. Zu Beginn, als im Dezember 2004 fünf Pilot-Bibliotheken es dem Internet-Riesen Google vertraglich gestatteten, Millionen von Büchern aus den Bibliotheksbeständen zu digitalisieren und diese zur allgemeinen Verfügbarkeit ins Web zu stellen, war die Bodleian-Bibliothek das einzige nicht-nordamerikanische Mitglied. Durch den Beitritt von weiteren europäischen Bibliotheken zum Programm der Massendigitalisierung wird nicht nur die Partnerschaft als Ganzes enorm aufgewertet, sondern auch der Umfang und die Reichweite der Google-Buchsuche erheblich erweitert, da jedem Internet-Anwender an jedem Ort der Erde nun auch viele weitere fremdsprachige Texte zur Verfügung stehen. Niemals hat die Bodleian-Bibliothek die Bedenken geteilt, die gegenüber den Google-Aktivitäten und den damit verfolgten Zielen der Massendigitalisierung vielfach geäußert wurden. Sowohl in den USA wie auch in Großbritannien und dem restlichen Europa haben einige Verleger (wenn auch nicht viele), eine Reihe von Autoren (genau genommen ihre Verbände) und auch einige wenige Bibliotheken Einwände gegen Googles groß angelegtes Bücher-Digitalisierungsprojekt erhoben. Größtenteils hingen derartige Bedenken mit der Sorge um den Schutz des Urheberrechtes zusammen, gelegentlich gab es aber auch echte Besorgnis um das wirtschaftliche Fortbestehen der Verlage, des möglichen Verlustes "angemessener Entlohnung" für kreative Schriftsteller und einer eventuellen Schwächung des öffentlichen Stellenwerts von Bibliotheken. (Und hier und da befürchtete manch einer sogar eine Beschädigung der kostbaren Originalexemplare.)
Die Bodleian-Bibliothek hingegen sieht in der Freigabe ihrer Bücher, die in weitläufigen und riesigen Archiven lagern, die Möglichkeit, zur Schaffung einer besseren Welt für alle Menschen beizutragen, und hat deshalb bereitwillig Millionen relativ unbedeutender; nicht urheberrechtlich geschützter Bücher (aus allen Teilen der Welt und in vielen Sprachen) zur weltweiten Verfügbarkeit ins Internet gestellt. Die altehrwürdige Aufgabe der Bibliothek - mit der sie im 17. Jahrhundert von ihrem Gründer, dem elisabethanischen Diplomaten Sir Thomas Bodley, beauftragt wurde - bestand seit jeher darin, als Wissensquelle zu dienen. Nicht allein für die Universität von Oxford, sondern auch für die außeruniversitäre Welt. Bis zum Aufkommen elektronischer Netzwerke beschränkte sich diese Aufgabe vier Jahrhunderte lang darauf, die Bibliothekspforten all jenen zu öffnen, die das Glück hatten, persönlich nach Oxford kommen zu können. Doch jetzt ermöglicht es das Internet, Sir Thomas Bodleys Vision vom universellen Stellenwert der Bibliothek neu zu interpretieren, indem zur vergleichsweise begrenzten Leserschaft von lediglich 40.000 Personen vor Ort nun möglicherweise Milliarden neuer Leser hinzukommen könnten. Folglich sollte es niemanden verwundern, dass die Bodleian-Bibliothek so gerne bereit ist, gemeinsam mit Google und dessen Partnern die Welt der Bücher und Information für die klassenlose Gesellschaft des World Wide Web zu erschließen. Doch selbst die Formulierung "Erschließung" beschreibt die neuartigen Zugangsmöglichkeiten durch die Google Buchsuche nur unzureichend, denn die digitale Umwandlung und Auffindbarkeit so vieler gedruckter Bücher ermöglicht eine viel bessere Verbreitung und Verfügbarkeit des gesammelten und aufgezeichneten Wissens der Menschheit. Lizenzfreie Bücher gehören dorthin, wo die Weltöffentlichkeit sie auch nutzen kann; und genau dort wollen die Bodleian-Bibliothek und ihre Partnerbibliotheken diese Bücher auch wissen. Egal wie man dazu steht, das Internet ist heutzutage nun einmal die Quelle, in der die Weltöffentlichkeit zuerst nach Informationen sucht. Und dieser unaufhaltsamen Welle des Fortschritts widerstehen zu wollen, heißt lediglich, den Fehler von König Knut dem Großen zu wiederholen, der letztlich einsehen musste, dass auch ein König von England die ansteigende Flut nicht aufhalten konnte. Da die Welt immer weiterreichenden, tieferen und bequemeren Zugang zu ihrem veröffentlichten Erbe erhält, freut sich die Bodleian-Bibliothek umso mehr, zu sehen, wie durch die Ergänzung um eine weitere europäische Dimension ein Zusammenschluss zum unaufhaltsamen und wünschenswerten Fortschritt gegenüber einer Bevölkerung des Internets entsteht, mit mehr und mehr wertvollen Informationen zu Gunsten einer wahren Weltleserschaft. Wir heißen Barcelona und Madrid herzlich willkommen! Mögen viele weitere Teilnehmer folgen..."
-
Wikipedia : die freie Enzyklopädie (2005)
0.10
0.10225776 = product of:
0.20451552 = sum of:
0.047662806 = weight(_text_:und in 169) [ClassicSimilarity], result of:
0.047662806 = score(doc=169,freq=46.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.35255915 = fieldWeight in 169, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=169)
0.1568527 = weight(_text_:herzlich in 169) [ClassicSimilarity], result of:
0.1568527 = score(doc=169,freq=2.0), product of:
0.53707606 = queryWeight, product of:
8.811096 = idf(docFreq=17, maxDocs=44421)
0.06095451 = queryNorm
0.29204935 = fieldWeight in 169, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.811096 = idf(docFreq=17, maxDocs=44421)
0.0234375 = fieldNorm(doc=169)
0.5 = coord(2/4)
- Content
- Unter den 200 Bänden der Digitalen Bibliothek sind bereits über 55 Lexika verlegt worden - mit dieser Wikipedia-DVD-ROM ist jedoch die bei weitem aktuellste und ungewöhnlichste Enzyklopädie erschienen. Die DVD-ROM-Edition basiert auf der deutschsprachigen Online-Enzyklopädie Wikipedia. Ihr Inhalt entspricht dem Stand der deutschsprachigen Wikipedia vom 3. März 2005, 00:00 Uhr und enthält damit über 200.000 Artikel. Das Konzept, einen bestimmten Redaktionsstand der ständig in Weiterbearbeitung begriffenen Online-Enzyklopädie festzuhalten und auf Datenträger zu bannen, wurde vom Verlag »Directmedia Publishing«, einigen aktiven Wikipedianern und dem Verein Wikimedia Deutschland - Gesellschaft zur Förderung Freien Wissens« entwickelt. Im Verlagsprogramm von Directmedia Publishing fehlte bislang ein allgemeines aktuelles Lexikon; und die Software der Digitalen Bibliothek eignet sich hervorragend für die Bewältigung größter Textmengen. Mit über 500.000 Bildschirmseiten ist dies gleichzeitig die bisher umfangreichste Ausgabe der digitalen Reihe. Für die Wikipedia ergibt sich mit einer Offline-Version die Möglichkeit, über das Internet hinaus Bekanntheit zu erlangen und neue Autoren zu gewinnen, die noch nicht oder nicht so sehr mit dem Internet und der Möglichkeit, eigene Inhalte dort zu veröffentlichen, vertraut sind. Das gemeinsame Projekt ist inhaltlich und technisch ein hochinteressantes Experiment. Da sich das Lexikon in manchen Dingen doch sehr von einer redaktionell betreuten Enzyklopädie unterscheidet, sind hier einige Hinweise zu Gestaltung und Handhabung nötig: Der Redaktionsstand wurde nicht beschönigt, d.h. bereits angelegte Artikel, zu denen nur wenig geschrieben wurde, oder offensichtlich noch mitten in der Bearbeitung stehende Artikel wurden so belassen. Für den Nutzer ergibt sich daraus immerhin der Hinweis, dass das angelegte Stichwort in der Online-Wikipedia vermutlich bereits weiter fortgeschritten ist. Zudem kann jeder Nutzer diese Artikel online ändern. So möchte diese DVD-ROM als Offline-Medium die Weiterbearbeitung der Inhalte nicht behindern, sondern vielmehr die Möglichkeit bieten, das bereits versammelte Wissen offline zu nutzen und trotzdem komfortabel zur Online-Wikipedia zu gelangen, um dort direkt Änderungen und Ergänzungen einzugeben. Deshalb können dieArtikel der Online-Wikipedia über das Kontextmenü der rechten Maustaste direkt angesprungen und verändert bzw. ergänzt werden. Dazu muss vorher eine Internetverbindung hergestellt werden. Nicht alle Bestandteile der Online-Wikipedia konnten vollständig übernommen werden; so musste beispielsweise aus Platzgründen eine relativ kleine Bildauswahl getroffen werden.
Die Inhalte der Enzyklopädie sind frei und können von jedermann nach den Bestimmungen der GNU Freie Dokumentationslizenz genutzt, verändert und weiter verbreitet werden. »Als Enzyklopädie bezeichnet man den Versuch der vollständigen Darstellung des Wissens zu einem bestimmten Thema oder des gesamten Wissens der WeIt; ihr kennzeichnendes Merkmal gegenüber anderen Literaturgattungen ist der Universalitätsanspruch«. Aus dem Artikel »Enzyklöpädie«, Wikipedia vom 3. März 2005 Die Wikipedia ist der Versuch, eine völlig neue Art von Enzyklopädie zu erstellen. Sie wird nicht von einer handverlesenen Redaktion innerhalb der Mauern eines Verlagsgebäudes geschrieben, sondern entsteht in aller Öffentlichkeit; und jedermann ist herzlich eingeladen mitzuschreiben. Möglich macht dies ein so genanntes Wiki, eine spezielle Form von Redaktionssystem, das es jedermann erlaubt, die Inhalte der Website ohne technische Kenntnisse zu verändern. Mehrere tausend registrierte und anonyme Autoren auf der ganzen WeIt haben seit dem Start des Projektes im Jahr 2001 von diesem Angebot Gebrauch gemacht. Auf diese Art sind bereits über eine Million Artikel in mehr als 100 Sprachen entstanden. Und ein Ende ist nicht abzusehen: Rund um die Uhr arbeiten die freiwilligen, unbezahlten Autoren am weiteren Ausbau; sie verfassen Tag für Tag etwa 3.000 neue Artikel und verbessern bestehende. Kein Wikipedia-Artikel ist jemals fertig; alles ist »work in Progress«. Ständig ergänzen Autoren aktuelle Ereignisse und neue Entwicklungen und sind dabei oft sogar schneller als klassische Medien. Die Momentaufnahme auf dieser DVD teilt hingegen den Nachteil herkömmlicher Enzyklopädien: Sie spiegelt den Stand eines fixen Zeitpunktes wider, in diesem Fall den der Wikipedia am 3. März 2005. Eine weitere Besonderheit zeichnet die Wikipedia aus: Sie ist vollständig frei. Solange Sie die Autoren und die Quelle nennen, dürfen Sie sie frei kopieren, Freunden schenken, ausdrucken und verkaufen oder auch verändern. Dafür sorgt die »GNU Freie Dokumentationslizenz«, die ihren Ursprung in der Freie- Software-Bewegung hat und vergleichbar mit der Lizenz ist, der das Betriebssystem Linux seinen Erfolg verdankt.
-
Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996)
0.10
0.10138662 = product of:
0.4055465 = sum of:
0.4055465 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
0.4055465 = score(doc=6014,freq=6.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.94405925 = fieldWeight in 6014, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6014)
0.25 = coord(1/4)
- Abstract
- Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
- Object
- JAVA
-
Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998)
0.10
0.10138662 = product of:
0.4055465 = sum of:
0.4055465 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
0.4055465 = score(doc=4612,freq=6.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.94405925 = fieldWeight in 4612, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4612)
0.25 = coord(1/4)
- Abstract
- Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
- Object
- Java
-
Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001)
0.10
0.10138662 = product of:
0.4055465 = sum of:
0.4055465 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
0.4055465 = score(doc=6896,freq=6.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.94405925 = fieldWeight in 6896, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6896)
0.25 = coord(1/4)
- Abstract
- This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
-
Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999)
0.10
0.10034672 = product of:
0.4013869 = sum of:
0.4013869 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
0.4013869 = score(doc=1743,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.9343763 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Abstract
- Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
-
Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996)
0.10
0.10034672 = product of:
0.4013869 = sum of:
0.4013869 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
0.4013869 = score(doc=2137,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.9343763 = fieldWeight in 2137, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2137)
0.25 = coord(1/4)
-
Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001)
0.10
0.10034672 = product of:
0.4013869 = sum of:
0.4013869 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
0.4013869 = score(doc=2035,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.9343763 = fieldWeight in 2035, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2035)
0.25 = coord(1/4)
-
Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001)
0.10
0.10034672 = product of:
0.4013869 = sum of:
0.4013869 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
0.4013869 = score(doc=2050,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.9343763 = fieldWeight in 2050, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2050)
0.25 = coord(1/4)
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.10
0.10018624 = product of:
0.20037249 = sum of:
0.16724454 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.16724454 = score(doc=729,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.38932347 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.03312794 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.03312794 = score(doc=729,freq=8.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.