-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.13
0.12568924 = product of:
0.25137848 = sum of:
0.20230065 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.20230065 = score(doc=977,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.049077835 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.049077835 = score(doc=977,freq=12.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.120681375 = product of:
0.24136275 = sum of:
0.16858388 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.16858388 = score(doc=50,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.072778866 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.072778866 = score(doc=50,freq=38.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.11850196 = product of:
0.23700392 = sum of:
0.20230065 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.20230065 = score(doc=1181,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.034703273 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.034703273 = score(doc=1181,freq=6.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.118500955 = product of:
0.23700191 = sum of:
0.19073088 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.19073088 = score(doc=1761,freq=4.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.046271026 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.046271026 = score(doc=1761,freq=24.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997)
0.12
0.11800871 = product of:
0.47203484 = sum of:
0.47203484 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
0.47203484 = score(doc=5463,freq=8.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
1.0901057 = fieldWeight in 5463, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5463)
0.25 = coord(1/4)
- Abstract
- A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
- Object
- JAVA
-
Read, T.; Hall, H.: Java: an explosion on the Internet (1996)
0.12
0.11800871 = product of:
0.47203484 = sum of:
0.47203484 = weight(_text_:java in 86) [ClassicSimilarity], result of:
0.47203484 = score(doc=86,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
1.0901057 = fieldWeight in 86, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.109375 = fieldNorm(doc=86)
0.25 = coord(1/4)
-
Volpers, H.: Idee und Begriff der Enzyklopädie im Wandel der Zeit (2002)
0.12
0.115981996 = product of:
0.23196399 = sum of:
0.032718558 = weight(_text_:und in 1610) [ClassicSimilarity], result of:
0.032718558 = score(doc=1610,freq=12.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.24009462 = fieldWeight in 1610, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1610)
0.19924544 = weight(_text_:hiermit in 1610) [ClassicSimilarity], result of:
0.19924544 = score(doc=1610,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.37856612 = fieldWeight in 1610, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.03125 = fieldNorm(doc=1610)
0.5 = coord(2/4)
- Abstract
- Im allgemeinen Sprachverständnis handelt es sich bei einer Enzyklopädie um eine spezifische Form von Lexika. Dies stellt eine Verengung des Begriffs "Enzyklopädie" auf seine Entsprechung in Buchform dar, die jedoch in zeitgenössischer Sichtweise völlig unproblematisch erscheint. Wer heute von einem enzyklopädischen Wissen spricht oder Jemanden als enzyklopädisch gebildet bezeichnet, konnotiert hiermit zwangsläufig ein Wissen, das seine Entsprechung in eben jener Ansammlung von Fakten finden könnte, die als die Enzyklopädie - in Form des Buches - bekannt und vertraut ist. Die Benutzung einer Enzyklopädie ist eine selbstverständliche und notwendige Routine geistiger Arbeit. Faktenwissen als abrufbarer, aggregierter Datenbestand wird gegenwärtig mit enzyklopädischem Wissen gleichgesetzt. Derjenige, der zur Aktivierung dieses Wissens keinen externen Speicher, außerhalb des eigenen Gehirns benötigt, die Enzyklopädie also im Kopf hat, besitzt nach landläufiger Meinung eine hohe Allgemeinbildung. Die Wertschätzung einer solchen Fähigkeit war in den letzten Jahren mit dem Verfall bildungsbürgerlicher Ideale deutlich rückläufig. Im Moment erlebt sie - in popularisierter, ebenso naiver wie medientauglicher Form - wieder eine gewisse Renaissance, denn eine hohe Allgemeinbildung - verstanden als Verfügbarkeit über mehr oder minder fragwürdiges Faktenwissen - eröffnet Chancen, bei Günther Jauch oder in einer der zahlreichen anderen Fernsehrateshows Millionär zu werden. Das im 19. Jh. vom Leipziger Buchhändler Joseph Meyer populär gemachte Motto "Bildung macht frei!" ist im 21. Jh. zur medialen Verheißung "Bildung kann reich machen" geworden. Das gegenwärtige Verständnis vom Begriff "Enzyklopädie" als Buchgattung weicht erheblich von seiner ursprünglichen, wissenschaftstheoretischen Bedeutung ab. "Enzyklopädie" war zunächst und jahrhundertelang ein philosophischer sowie wissenschaftstheoretischer Begriff, der erst allmählich auf die Buchgattung übertragen wurde. Deren Herausbildung war allerdings mit den wissenschaftstheoretischen Bemühungen aufs engste verknüpft, da diese zumeist in einem Buch ihren Niederschlag fanden, das im Titel den Begriff "Enzyklopädie" führte. Der vorliegende Beitrag zeichnet diesen Bedeutungswandel des Begriffs vom 15. Jh. bis zur Gegenwart nach. Zuvor wird geklärt, was unter lexikographischer Perspektive die Buchgattung der Enzyklopädie von den ihr verwandten Lexikaformen unterscheidet und welchen Prinzipien der Stoffanordnung Enzyklopädien folgen.
- Series
- Kölner Arbeitspapiere zur Bibliotheks- und Informationswissenschaft; Bd.32
-
Vonhoegen, H.: Einstieg in XML (2002)
0.11
0.11381012 = product of:
0.22762024 = sum of:
0.16688952 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.16688952 = score(doc=5002,freq=4.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.060730718 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.060730718 = score(doc=5002,freq=54.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998)
0.11
0.113089494 = product of:
0.45235798 = sum of:
0.45235798 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
0.45235798 = score(doc=6217,freq=10.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
1.0446644 = fieldWeight in 6217, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=6217)
0.25 = coord(1/4)
- Abstract
- A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
-
Krings, N.: Blick in Nachbars Garten : Google Earth - Faszinierende Satelliten-Bilder von allen Teilen der Erde (2006)
0.11
0.10824007 = product of:
0.21648014 = sum of:
0.042140357 = weight(_text_:und in 5846) [ClassicSimilarity], result of:
0.042140357 = score(doc=5846,freq=26.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.3092335 = fieldWeight in 5846, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5846)
0.17433977 = weight(_text_:hiermit in 5846) [ClassicSimilarity], result of:
0.17433977 = score(doc=5846,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.33124536 = fieldWeight in 5846, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.02734375 = fieldNorm(doc=5846)
0.5 = coord(2/4)
- Content
- "Noch können Neugierige nicht genau erkennen, was der Nachbar in seinem Garten gerade so macht. Doch weit entfernt von derart privaten Einblicken sind die PC-Anwendungen, mit deren Hilfe man aus dem Weltraum per Satellit auf die Erde schaut, nicht mehr. Google Earth ist längst Kult. Kritiker weisen zwar darauf hin, dass die Bilder zumindest bei militärischen Anlagen ein hohes Sicherheitsrisiko darstellen. Aber die Faszination überwiegt. Und die Möglichkeit, viel Geld zu verdienen. Immer mehr Firmen lassen sich gegen Gebühr bei Google Earth listen, damit sie für jeden Nutzer auf diesem Weg zu finden sind. Inzwischen gibt es sogar eine Gemeinschaft (Comunity) der Google Earth-Nutzer weltweit. jeder Interessierte hat die Möglichkeit, persönliche Landmarken einzufügen und auf diese Weise alle, die das kostenlose Programm nutzen, überall auf der Welt auf die eigene Gartenlaube aufmerksam zu machen. Spannend sind auch Wettbewerbe der Comunity. Etwa: "Wo sind die größten Parkplätze auf der Welt zu finden?" Eine richtige Antwort lautet: im Disneyland von Tokio. Von großartigen Ideen möchten schnell auch andere profitieren. Klicktel.de bietet eine besonders clevere wie nützliche Lösung für seinen Routenplaner an. Straße mit Nummer eingeben, die Stadt nennen - und schon kann man ein Blick auf das Haus werfen, in dem man wohnt, und auf die Straße, die man sucht. Erstaunlich, dass die Auflösung hier meist besser ist als bei den Aufnahmen von Google Earth für Deutschland. Die Google-Bilder aus den USA dagegen sind "gestochen scharf, teilweise sogar bis hinunter auf rund 30 Meter Höhe. Hier hat Google auf Sicherheitsbedenken reagiert und per Bildbearbeitung eingegriffen. Das Dach des Weißen Hauses wurde für die Ansicht nachträglich geschwärzt, ebenso wie zahlreiche andere Regierungseinrichtungen.
Wenn man die Betrachtungsebene bei Google Earth langsam kippt, wird sogar eine dreidimensionale Ansicht - teilweise echt, zum größten Teil aber vom Computer errechnet und künstlich wirkend - sichtbar. Und das schafft Google Earth mit Aufnahmen von einem einzigen Satelliten. Wer World Wind (den Dienst der US-Weltraumagentur Nasa) bemüht, kann je nach Gebiet auf unterschiedlich hoch auflösende Karten zurückgreifen. Das rund 20 Euro teure, leider sehr aufwändig zu installierende Programm NaSat verwendet Aufnahmen von diversen Nasa-Satelliten. Hiermit lassen sich beispielsweise ein Vulkanausbruch in der Südsee oder eine Feuersbrunst in Kalifornien beobachten. NaSat kann nahezu jeden Quadratkilometer der Erde abbilden und ist zudem mit Klicktel kompatibel, was bedeutet, dass in Klicktel gefundene Adressdaten in NaSat eingelesen und bis auf die Straße genau angezeigt werden können. Für Geographen ist interessant, dass man sich zusätzlich über Temperaturen und die Verteilung von Niederschlägen überall auf der Welt visuell informieren kann. Auch die Entdeckung beeindruckender Touristenziele wie den Kreml in Moskau, die Pyramiden von Gizeh oder die Villa von Bill Gates ist blitzschnell möglich. Google Earth hat als Anwendung, die ständig aktualisiert wird, den Vorteil, dass jeden Tag neue Daten den Blick auf die Erde interessanter machen. Und die Möglichkeiten sind noch lange nicht ausgereizt. So hat sich jetzt eine Initiative gefunden, die unter dem Motto "Deutschland muss schärfer werden" dafür sorgen möchte, dass zur Fußball-WM die Bereiche um die zwölf WM-Arenen höher aufgelöst ins Netz gestellt werden. Für Profis hat Google nachgelegt und bietet mit Earth Plus und Earth Pro zwei kostenpflichtige Versionen an. Unter anderem wurde GPS integriert. Daten des Ortungssystems können an Google übergeben werden."
-
Ansorge, K.; Vierschilling, N.: http://dnb.ddb.de : Von dicken Wälzern zur Online-Verzeichnung (2003)
0.11
0.10564966 = product of:
0.21129932 = sum of:
0.03695954 = weight(_text_:und in 2952) [ClassicSimilarity], result of:
0.03695954 = score(doc=2952,freq=20.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.2712157 = fieldWeight in 2952, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2952)
0.17433977 = weight(_text_:hiermit in 2952) [ClassicSimilarity], result of:
0.17433977 = score(doc=2952,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.33124536 = fieldWeight in 2952, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.02734375 = fieldNorm(doc=2952)
0.5 = coord(2/4)
- Abstract
- Wer kennt sie nicht, die Deutsche Nationalbibliografie, repräsentiert durch das zahlreiche Bibliotheksregale füllende Fünfjahresverzeichnis. Schwarze, dicke Bände mit Goldaufdruck - zahlreiche Generationen von Bibliotheksauszubildenden haben ihren Inhalt, ihre Besonderheiten, ihre Berichtszeiträume gelernt. Die Deutsche Bibliothek erfüllt mit der Deutschen Nationalbibliografie ihre durch das »Gesetz über die Deutsche Bibliothek« definierte Pflicht zur umfassenden Dokumentation des deutschen Schrifttums. Gab es 1990 noch zwei getrennte Verzeichnisse - die »Deutsche Nationalbibliographie« der Deutschen Bücherei Leipzig sowie die »Deutsche Bibliographie« der Deutschen Bibliothek Frankfurt am Main -, so brachte die Vereinigung zu Der Deutschen Bibliothek eine entscheidende Veränderung: Die beiden Verzeichnisse verschmolzen Anfang 1991 zu einem gemeinsamen Verzeichnis mit dem Titel »Deutsche Nationalbibliographie und Bibliographie der im Ausland erschienenen deutschsprachigen Veröffentlichungen«. Die Deutsche Bibliothek hat seit geraumer Zeit Überlegungen angestellt, wie sie künftig ihren gesetzlichen Auftrag zur bibliografischen Verzeichnung erfüllen kann. Wir stellen Ihnen hiermit die Ergebnisse dieser Überlegungen vor und erläutern, wie ab dem Jahr 2004 die Deutsche Nationalbibliografie aussehen wird. Wir gehen davon aus, dass künftig mit der Datenbank Der Deutschen Bibliothek", in der bereits heute der Bibliotheksbestand verzeichnet und über öffentliche Netze kostenfrei recherchierbar ist, die Erstverzeichnung und damit der gesetzliche Auftrag erfüllt ist. Die Kontinuität der bibliografischen Verzeichnung wird durch das Datensicherungskonzept und das Engagement Der Deutschen Bibliothek auf dem Gebiet der Langzeitverfügbarkeit sichergestellt. Die Deutsche Bibliothek liegt mit dieser Entscheidung im Trend der Entwicklung bei den Nationalbibliografien anderer Länder. Neben dieser frei zugänglichen Datenbank soll ein separates nationalbibliografisches Angebot realisiert werden, das die Bedürfnisse derjenigen Kunden erfüllt, die als Mehrwert gegenüber der Nutzung der Datenbank die Selektion der neu hinzugekommenen Datensätze in bestimmten Lieferintervallen nutzen möchten oder die auf eine bestimmte, gewohnte Ausgabeform nicht verzichten möchten. Diese zukünftigen Angebote entsprechen den Ergebnissen der Nutzerbefragung Der Deutschen Bibliothek, auf die später noch im Detail eingegangen wird. Bedingt durch die Möglichkeiten der technischen Realisierung sollen die neuen Angebote in zwei Stufen eingeführt werden: Angebote, für die bereits Verfahren existieren bzw. die Iosgelöst von der Entwicklung des noch zu schaffenden Gesamtkatalogs entwickelt werden können: - Druckausgabe der Hauptteile der einzelnen Bibliografiereihen in Heftform, - HTML-Dateien der Hauptteile der einzelnen Bibliografiereihen zur Bearbeitung am Bildschirm mit der Möglichkeit, über die Sachgruppen zu navigieren, Teile auszuschneiden und abzuspeichern oder auszudrucken. Gesamtkatalog über ein noch zu entwickelndes Portal Der Deutschen Bibliothek mit - Filter auf die einzelnen Reihen der Deutschen Nationalbibliografie,
- Möglichkeit des Generierens von SDIProfilen (z.B. wöchentliche Abfrage einer bestimmten Bibliografiereihe und/oder einer bestimmten Sachgruppe auf neu hinzugekommene Titel), - Auswahl bestimmter Medienarten (z. B. nur Online-Publikationen oder Dissertationen), - Fortentwicklung der Möglichkeit, Datensätze in strukturierter Form online abzurufen und damit das jetzige Angebot über DDB-online durch weitere Datenformate wie z.B. den Zugriff auf weitere Datenbestände wie die Daten des Deutschen Musikarchivs Berlin zu erweitern, - Verlinkung der Suchanfrage zu einer Bestellmöglichkeit des Titels beim Buchhandel. Daneben bleiben natürlich die bisherigen Angebote des Datendienstes und der Titelkartendienste erhalten. Dass eine Änderung der bisherigen Erscheinungsweise notwendig ist, belegen unter anderem die Absatzzahlen der gedruckten Ausgaben der Deutschen Nationalbibliografie. Die Zahl der Abonnenten für die gedruckten Verzeichnisse ist in den vergangenen Jahren kontinuierlich gesunken. Der Verlag MVB Marketing- und Verlagsservice des Buchhandels GmbH hat Der Deutschen Bibliothek aufgrund dieser Entwicklung mitgeteilt, dass die gedruckten Ausgaben der Deutschen Nationalbibliografie in der jetzigen Ausstattung nicht mehr wirtschaftlich herzustellen sind.
-
Wegner, B.: Neuigkeiten vom Zentralblatt für Mathematik (2009)
0.10
0.10470133 = product of:
0.20940267 = sum of:
0.035062898 = weight(_text_:und in 220) [ClassicSimilarity], result of:
0.035062898 = score(doc=220,freq=18.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.2572978 = fieldWeight in 220, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=220)
0.17433977 = weight(_text_:hiermit in 220) [ClassicSimilarity], result of:
0.17433977 = score(doc=220,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.33124536 = fieldWeight in 220, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.02734375 = fieldNorm(doc=220)
0.5 = coord(2/4)
- Content
- "Die DMV ist nun in erweitertem Maße in den Aufsichtsgremien des Zentralblatts präsent. Nach dem Ausscheiden von Professor Bierstedt wird die Mathematik im Wissenschaftlichen Beirat und in der Gesellschafterversammlung des FIZ Karlsruhe, von dem die Redaktion des Zentralblatts ein Teil ist, durch Professor Ziegler vertreten. Diese beiden Positionen sind der DMV zugeordnet, und nun hat die DMV auch ihren eigenen Sitz im Koordinierungsausschuss des Zentralblatts erhalten, dem Gremium, das das Zentralblatt aus herausgeberischer Sicht überwacht. Hierfür hat die DMV Professor Leuzinger aus Karlsruhe benannt. Eine wichtige Kooperation zwischen der DMV und dem Zentralblatt stellt das DMV-Konsortium dar. Im Rahmen dieses Konsortiums kann das Zentralblatt zu besonders günstigen Konditionen bezogen werden. Das aktuelle DMV-Konsortium läuft nach nun fünf Jahren am 31. Dezember 2009 aus. Ein neues Konsortium wird zurzeit zwischen der DMV, dem FIZ Karlsruhe und dem Springer-Verlag ausgearbeitet. Hierfür sollen die Preise sich an der potenziellen Nutzung orientieren. Die Entwicklung eines solchen Modells braucht allerdings noch etwas Zeit. Aus diesem Grund werden die aktuellen Bedingungen für das DMV-Konsortium um ein Jahr verlängert. Die gedruckte Version des Zentralblatts wird es in der vertrauten Form ab dem kommenden Jahr nicht mehr geben. Einzige erkennbare Funktion der gedruckten Version, die nicht besser durch das Online-Angebot abgedeckt wird, ist das gebietsweise Stöbern, welche Publikationen gerade aktuell sind. Ein kompletter Abdruck aller Neuzugänge in der Datenbank ist hierfür zu hoch gegriffen. Deshalb bietet das Zentralblatt in gedruckter Form nur noch einen neuen Dienst namens "Excerpts from Zentralblatt MATH" an. Er ist wesentlich handlicher und natürlich auch preiswerter und versucht, einen guten Überblick zu geben, ohne den Anspruch zu erheben, nun unbedingt die besten Arbeiten herauszufischen. Das stellt sich ja oft erst viel später heraus.
Letztere Tatsache ist der Grund für ein Projekt, das beim Zentralblatt gerade angestoßen wird und langfristig zu einer Vervollständigung der in der Datenbank angebotenen Information führen soll. Man könnte es "dynamic reviewing" nennen. Das Prinzip ist, dass die Daten kontinuierlich um relevante Informationen erweitert werden, die erst nach dem Referieren zu unserer Kenntnis gelangen. Das kann in vielen Fällen dazu führen, dass später noch einmal ein weiteres Referat eingeholt wird, das retrospektiv den Einfluss der jeweiligen Arbeit auf die Weiterentwicklung der Mathematik aufgreift. Das ist natürlich nur bei einer Einbeziehung der forschenden Mathematiker und Anwender von Mathematik in solch ein Projekt möglich. Hinweise zu diesen Ideen sind jederzeit willkommen. Mit Beginn des neuen Jahres bietet die Datenbank des Zentralblatts eine neue Suchoberfläche an, ohne die gewohnten Suchmöglichkeiten abzuschalten. Sie ist einfacher gestaltet und mit neuen attraktiven Funktionalitäten gekoppelt. Eine Testversion ist bereits seit November 2009 verfügbar. Dort wird dann auch bald der eingetragene Name für die Datenbank erscheinen, der hoffentlich einmal einen Schlusspunkt auf das Namenswirrwarr setzt: ZBMATH. Hiermit dürfte es auch international keine Ausspracheprobleme geben. Schließlich sei noch darauf hingewiesen, dass die gemeinsam mit den Mathematical Reviews durchgeführte Revision des MSC erfolgreich beendet ist. Das MSC 2010 weist nur geringfügige Modifikationen gegenüber dem MSC 2000 auf. Das Schema wird ab dem I. 1.2010 eingesetzt. Die Anwendung auf die redaktionellen Arbeiten erfolgte bereits 2009. Das MSC ist auf den Webseiten des Zentralblatts frei zugänglich. Eine gedruckte Version kann in der Redaktion angefordert werden."
-
Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996)
0.10
0.10219855 = product of:
0.4087942 = sum of:
0.4087942 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
0.4087942 = score(doc=6014,freq=6.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.94405925 = fieldWeight in 6014, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6014)
0.25 = coord(1/4)
- Abstract
- Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
- Object
- JAVA
-
Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998)
0.10
0.10219855 = product of:
0.4087942 = sum of:
0.4087942 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
0.4087942 = score(doc=4612,freq=6.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.94405925 = fieldWeight in 4612, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4612)
0.25 = coord(1/4)
- Abstract
- Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
- Object
- Java
-
Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001)
0.10
0.10219855 = product of:
0.4087942 = sum of:
0.4087942 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
0.4087942 = score(doc=6896,freq=6.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.94405925 = fieldWeight in 6896, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6896)
0.25 = coord(1/4)
- Abstract
- This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
-
Sandner, M.: Neues aus der Kommission für Sacherschließung (2009)
0.10
0.102152385 = product of:
0.20430477 = sum of:
0.05487069 = weight(_text_:und in 312) [ClassicSimilarity], result of:
0.05487069 = score(doc=312,freq=60.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.40265095 = fieldWeight in 312, product of:
7.745967 = tf(freq=60.0), with freq of:
60.0 = termFreq=60.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=312)
0.14943407 = weight(_text_:hiermit in 312) [ClassicSimilarity], result of:
0.14943407 = score(doc=312,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.28392458 = fieldWeight in 312, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.0234375 = fieldNorm(doc=312)
0.5 = coord(2/4)
- Content
- "Am Grazer Bibliothekartag bot die KofSE diesmal ein eigenes SE-Panel unter dem Motto "Inhaltserschließung: Ingredienzen, Instrumentarien, Internationalität" mit drei Vorträgen an und lud zu einem Runden Tisch über "Strategien für Inhaltserschließung und sachliche Suche der Ne(x)t Generation" ein. Zunächst referierte Felix BOTERAM (Institut für Informationsmanagement, FH Köln) über die "Typisierung semantischer Relationen für Strategien der Wissensexploration". Das Projekt RESEDA hat zum Ziel, theoretische und datentechnische Repräsentationsmodelle für begriffliche Daten und die zwischen ihnen bestehenden Beziehungen zuradäquaten Modellierung sprachlichen Wissens zu entwickeln. Angesichts zunehmender Heterogenität von SE-Daten und eines spürbar wachsenden SE-Datentausches erscheint es wichtig, die theoretische Basis für mögliche oder bereits in Arbeit befindliche Lösungsstrategien nicht zu vernachlässigen. Ausgehend von einem auf solchem Weg bereits weit fortgeschrittenen Projekt referierte Jessica HUBRICH (Institut für Informationsmanagement, FH Köln) dann über "Begriffliche Suche und Wissensexploration in heterogenen Informationsräumen". Konkret erläuterte sie, wie die Herstellung von Verbindungen zwischen Daten vorhandener Dokumentationssprachen dazu beiträgt, das mit einem Wissenssystem gegebene Potenzial über Teilmengen hinaus nutzbar zu machen. Das Projekt CrissCross hat zum Ziel, eine Verbindung zwischen SWD, DDC Deutsch, LCSH und RAMEAU herzustellen. Die ebenfalls gezeigten, mit diesen Mappings entstehenden Möglichkeiten zur Strukturierung von Treffermengen wirken überzeugend. Schließlich bot Rudolf LINDPOINTNER (OÖLB, Linz) mit seiner Präsentation über "Die Einführung der DDC in der Oberösterreichischen Landesbibliothek" einen ersten Blick in den nach dem kürzlich beendeten Umbau eröffneten neuen, nach Dewey strukturierten Freihandbereich, legte die Gründe für den Umstieg auf DDC Deutsch dar und berichtete über die hohe Fremddatennutzungsrate und die eigene Vergabe der Notationen mit MelvilClass sowie über Recherchemöglichkeiten im Katalog und über die Art der Signaturenbildung für die Aufstellung, die wohl Vorbildwirkung haben könnte. Die ersten Eindrücke des Publikumsbetriebs waren positiv. Auch eine Benutzerforschungsstudie soll es eventuell in einiger Zeit geben.
Alle Vortragsfolien sind auf der KofSE-Seite der VÖB-Homepage verlinkt. Schriftliche Fassungen aller Vorträge sind für den BT-Band geplant. Eine Kurzfassung von Frau Hubrichs Referat erscheint bereits in diesem Heft. Beim Roundtable-Gespräch am Nachmittag führten die zahlreichen Teilnehmer/-innen eine rege Diskussion über veränderte Suchgewohnheiten, die nötige Anpassung unseres professionellen Erschließungsangebots und die dafür erforderlichen Strategien. Flexibilität und die Entwicklung integrierter Serviceleistungen sind genauso wichtig wie fundierte Erfahrung, Basisfunktionalitäten und die zielsichere datentechnische Umsetzung neuer Ideen. Daher dürfen Wert und Funktion von Normdaten und kontrollierten Vokabularen nicht unterschätzt werden, müssen kollaborative Ansätze zur Erschließung und Anreicherung herkömmlicher Verfahren zwar sinnvoll eingesetzt aber zuvor kritisch bewertet werden, sollen automatische Verfahren und anspruchsvolle intellektuelle Erschließungsmethoden nicht gegeneinander ausgespielt sondern als ergänzende Komponenten verstanden werden und haben relationale Strukturen von Dokumentationssprachen und Wissensorganisationssystemen Zukunftspotenzial. Der Vorschlag, versuchsweise im Rahmen von praktischer Erschließungsarbeit und Thesauruspflege in Bibliotheken und Verbünden Relationeninventare (etwa Klassifikationenkonkordanzen) zu erstellen, erscheint vielversprechend und dürfte einen Versuch wert sein. Im Vorfeld des Bibliothekartags fand am 15. 9. 2009 auch eine programmatische Sitzung der KofSE statt. Wir haben ausgelotet, welche Themen die Mitglieder mittelfristig in den Vordergrund stellen möchten und passende Vorträge, Workshops und Roundtables geplant.
Dazu gehören - im Bereich der verbalen Erschließung: - - RSWK-Reform - SWD-Arbeit - SW-Vergabe vor dem Hintergrund von RDA, GND und MARC - im Bereich der klassifikatorischen Inhaltserschließung: - - Systematische Freihandaufstellung; RVK als Aufstellungssystematik - - RVK-On line: der neue Web-Auftritt - - Aktive Vergabe von DDC Deutsch; praktischer Nutzen für die Recherche; Vertiefung für Spezialbereiche wie z. B. das Recht; - - MSC-Aktualisierung und Aleph-Normdatei - - Konkordanzen zwischen Klassifikationen Zu diesem zukunftsträchtigen, ziemlich komplexen Bereich hat sich spontan ein kommissionsinterner Arbeitskreis gebildet. Das erste Treffen fand am 29. 10. 2009 statt: bei Interesse zur Mitarbeit melden Sie sich bitte jederzeit. - Suchmaschinen in Bibliotheken: SE-Komponenten (z. B. semantische Facettierung) - Elektronische Ressourcen: SE Erschließungskonzepte - SemanticWeb und bibliothekarische SE - Blick über die Grenzen: - - SE-Praxis in Südtirol - - SE-Praxis in der Schweiz - - SE-Praxis in DNB, Leipzig: auch österreichische Publikationen - - Résumé zu Serie von Vorträgen über die SE-Praxis in anderen Verbünden und Schlussfolgerungen für Österreich Diese Vielzahl von Themen und eine bunte Palette an Wünschen zeigt, dass das Arbeitsfeld Sacherschließung ein spannendes bleiben wird. Für die künftige Kommissionsarbeit ist also weiterhin ein breites Spektrum offen. Da die Mitgliederliste zuletzt etwas kleiner wurde, lade ich im Namen der KofSE hiermit wieder alle Interessierten herzlich zur aktiven Mitgestaltung ein."
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.4, S.41-43
-
Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999)
0.10
0.10115033 = product of:
0.4046013 = sum of:
0.4046013 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
0.4046013 = score(doc=1743,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.9343763 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Abstract
- Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
-
Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996)
0.10
0.10115033 = product of:
0.4046013 = sum of:
0.4046013 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
0.4046013 = score(doc=2137,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.9343763 = fieldWeight in 2137, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2137)
0.25 = coord(1/4)
-
Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001)
0.10
0.10115033 = product of:
0.4046013 = sum of:
0.4046013 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
0.4046013 = score(doc=2035,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.9343763 = fieldWeight in 2035, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2035)
0.25 = coord(1/4)
-
Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001)
0.10
0.10115033 = product of:
0.4046013 = sum of:
0.4046013 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
0.4046013 = score(doc=2050,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.9343763 = fieldWeight in 2050, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2050)
0.25 = coord(1/4)