-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.12319346 = product of:
0.24638692 = sum of:
0.1720931 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.1720931 = score(doc=50,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.07429382 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.07429382 = score(doc=50,freq=38.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.12096868 = product of:
0.24193735 = sum of:
0.2065117 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.2065117 = score(doc=1181,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.035425648 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.035425648 = score(doc=1181,freq=6.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.12096764 = product of:
0.24193528 = sum of:
0.19470109 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.19470109 = score(doc=1761,freq=4.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.047234196 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.047234196 = score(doc=1761,freq=24.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997)
0.12
0.12046515 = product of:
0.4818606 = sum of:
0.4818606 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
0.4818606 = score(doc=5463,freq=8.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
1.0901057 = fieldWeight in 5463, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5463)
0.25 = coord(1/4)
- Abstract
- A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
- Object
- JAVA
-
Read, T.; Hall, H.: Java: an explosion on the Internet (1996)
0.12
0.12046515 = product of:
0.4818606 = sum of:
0.4818606 = weight(_text_:java in 86) [ClassicSimilarity], result of:
0.4818606 = score(doc=86,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
1.0901057 = fieldWeight in 86, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.109375 = fieldNorm(doc=86)
0.25 = coord(1/4)
-
Jahns, Y.; Karg, H.: Translingual retrieval : Moving between vocabularies - MACS 2010 (2011)
0.12
0.11711815 = product of:
0.2342363 = sum of:
0.017044172 = weight(_text_:und in 1648) [ClassicSimilarity], result of:
0.017044172 = score(doc=1648,freq=2.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.12252277 = fieldWeight in 1648, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1648)
0.21719213 = weight(_text_:hubrich in 1648) [ClassicSimilarity], result of:
0.21719213 = score(doc=1648,freq=2.0), product of:
0.49658453 = queryWeight, product of:
7.917278 = idf(docFreq=43, maxDocs=44421)
0.062721625 = queryNorm
0.4373719 = fieldWeight in 1648, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.917278 = idf(docFreq=43, maxDocs=44421)
0.0390625 = fieldNorm(doc=1648)
0.5 = coord(2/4)
- Series
- Bibliotheca Academica - Reihe Informations- und Bibliothekswissenschaften; Bd. 1
- Source
- Concepts in context: Proceedings of the Cologne Conference on Interoperability and Semantics in Knowledge Organization July 19th - 20th, 2010. Eds.: F. Boteram, W. Gödert u. J. Hubrich
-
Effenberger, C.; Hauser, J.: Would an explicit versioning of the DDC bring advantages for retrieval? (2011)
0.12
0.11711815 = product of:
0.2342363 = sum of:
0.017044172 = weight(_text_:und in 1650) [ClassicSimilarity], result of:
0.017044172 = score(doc=1650,freq=2.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.12252277 = fieldWeight in 1650, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1650)
0.21719213 = weight(_text_:hubrich in 1650) [ClassicSimilarity], result of:
0.21719213 = score(doc=1650,freq=2.0), product of:
0.49658453 = queryWeight, product of:
7.917278 = idf(docFreq=43, maxDocs=44421)
0.062721625 = queryNorm
0.4373719 = fieldWeight in 1650, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.917278 = idf(docFreq=43, maxDocs=44421)
0.0390625 = fieldNorm(doc=1650)
0.5 = coord(2/4)
- Series
- Bibliotheca Academica - Reihe Informations- und Bibliothekswissenschaften; Bd. 1
- Source
- Concepts in context: Proceedings of the Cologne Conference on Interoperability and Semantics in Knowledge Organization July 19th - 20th, 2010. Eds.: F. Boteram, W. Gödert u. J. Hubrich
-
Dunsire, G.: Interoperability and semantics in RDF representations of FRBR, FRAD and FRSAD (2011)
0.12
0.11711815 = product of:
0.2342363 = sum of:
0.017044172 = weight(_text_:und in 1651) [ClassicSimilarity], result of:
0.017044172 = score(doc=1651,freq=2.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.12252277 = fieldWeight in 1651, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1651)
0.21719213 = weight(_text_:hubrich in 1651) [ClassicSimilarity], result of:
0.21719213 = score(doc=1651,freq=2.0), product of:
0.49658453 = queryWeight, product of:
7.917278 = idf(docFreq=43, maxDocs=44421)
0.062721625 = queryNorm
0.4373719 = fieldWeight in 1651, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.917278 = idf(docFreq=43, maxDocs=44421)
0.0390625 = fieldNorm(doc=1651)
0.5 = coord(2/4)
- Series
- Bibliotheca Academica - Reihe Informations- und Bibliothekswissenschaften; Bd. 1
- Source
- Concepts in context: Proceedings of the Cologne Conference on Interoperability and Semantics in Knowledge Organization July 19th - 20th, 2010. Eds.: F. Boteram, W. Gödert u. J. Hubrich
-
Vonhoegen, H.: Einstieg in XML (2002)
0.12
0.11617917 = product of:
0.23235834 = sum of:
0.17036346 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.17036346 = score(doc=5002,freq=4.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.061994877 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.061994877 = score(doc=5002,freq=54.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998)
0.12
0.11544354 = product of:
0.46177417 = sum of:
0.46177417 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
0.46177417 = score(doc=6217,freq=10.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
1.0446644 = fieldWeight in 6217, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=6217)
0.25 = coord(1/4)
- Abstract
- A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
-
Wissensspeicher in digitalen Räumen : Nachhaltigkeit, Verfügbarkeit, semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Konstanz, 20. bis 22. Februar 2008 (2010)
0.11
0.11498682 = product of:
0.22997364 = sum of:
0.056219935 = weight(_text_:und in 1774) [ClassicSimilarity], result of:
0.056219935 = score(doc=1774,freq=34.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.40413946 = fieldWeight in 1774, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1774)
0.17375371 = weight(_text_:hubrich in 1774) [ClassicSimilarity], result of:
0.17375371 = score(doc=1774,freq=2.0), product of:
0.49658453 = queryWeight, product of:
7.917278 = idf(docFreq=43, maxDocs=44421)
0.062721625 = queryNorm
0.34989753 = fieldWeight in 1774, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.917278 = idf(docFreq=43, maxDocs=44421)
0.03125 = fieldNorm(doc=1774)
0.5 = coord(2/4)
- Abstract
- In diesem Band 11 der Reihe Fortschritte der Wissensorganisation mit dem Titel Wissensspeicher in digitalen Räumen sind Beiträge enthalten, die auf die Vorträge der 11. Tagung der Deutschen Sektion der International Society of Knowledge Organnation 2008 in Konstanz zurückgehen. Diese Texte mußten nur in einigen Fällen aktualisiert werden, was für die damalige wie heutige Aktualität und Relevanz spricht. Manche damals neuen Ansätze sind gar inzwischen zum gängigen Standard geworden.
- Content
- Inhalt: A. Grundsätzliche Fragen (aus dem Umfeld) der Wissensorganisation Markus Gottwald, Matthias Klemm und Jan Weyand: Warum ist es schwierig, Wissen zu managen? Ein soziologischer Deutungsversuch anhand eines Wissensmanagementprojekts in einem Großunternehmen H. Peter Ohly: Wissenskommunikation und -organisation. Quo vadis? Helmut F. Spinner: Wissenspartizipation und Wissenschaftskommunikation in drei Wissensräumen: Entwurf einer integrierten Theorie B. Dokumentationssprachen in der Anwendung Felix Boteram: Semantische Relationen in Dokumentationssprachen vom Thesaurus zum semantischen Netz Jessica Hubrich: Multilinguale Wissensorganisation im Zeitalter der Globalisierung: das Projekt CrissCross Vivien Petras: Heterogenitätsbehandlung und Terminology Mapping durch Crosskonkordanzen - eine Fallstudie Manfred Hauer, Uwe Leissing und Karl Rädler: Query-Expansion durch Fachthesauri Erfahrungsbericht zu dandelon.com, Vorarlberger Parlamentsinformationssystem und vorarlberg.at
C. Begriffsarbeit in der Wissensorganisation Ingetraut Dahlberg: Begriffsarbeit in der Wissensorganisation Claudio Gnoli, Gabriele Merli, Gianni Pavan, Elisabetta Bernuzzi, and Marco Priano: Freely faceted classification for a Web-based bibliographic archive The BioAcoustic Reference Database Stefan Hauser: Terminologiearbeit im Bereich Wissensorganisation - Vergleich dreier Publikationen anhand der Darstellung des Themenkomplexes Thesaurus Daniel Kless: Erstellung eines allgemeinen Standards zur Wissensorganisation: Nutzen, Möglichkeiten, Herausforderungen, Wege D. Kommunikation und Lernen Gerald Beck und Simon Meissner: Strukturierung und Vermittlung von heterogenen (Nicht-)Wissensbeständen in der Risikokommunikation Angelo Chianese, Francesca Cantone, Mario Caropreso, and Vincenzo Moscato: ARCHAEOLOGY 2.0: Cultural E-Learning tools and distributed repositories supported by SEMANTICA, a System for Learning Object Retrieval and Adaptive Courseware Generation for e-learning environments Sonja Hierl, Lydia Bauer, Nadja Böller und Josef Herget: Kollaborative Konzeption von Ontologien in der Hochschullehre: Theorie, Chancen und mögliche Umsetzung Marc Wilhelm Küster, Christoph Ludwig, Yahya Al-Haff und Andreas Aschenbrenner: TextGrid: eScholarship und der Fortschritt der Wissenschaft durch vernetzte Angebote
E. Metadaten und Ontologien Thomas Baker: Dublin Core Application Profiles: current approaches Georg Hohmann: Die Anwendung des CIDOC für die semantische Wissensrepräsentation in den Kulturwissenschaften Elena Semenova: Ontologie als Begriffssystem. Theoretische Überlegungen und ihre praktische Umsetzung bei der Entwicklung einer Ontologie der Wissenschaftsdisziplinen F. Repositorien und Ressourcen Christiane Hümmer: TELOTA - Aspekte eines Wissensportals für geisteswissenschaftliche Forschung Philipp Scham: Integration von Open-Access-Repositorien in Fachportale Benjamin Zapilko: Dynamisches Browsing im Kontext von Informationsarchitekturen
-
Concepts in Context : Cologne Conference on Interoperability and Semantics in Knowledge Organization
0.11
0.11414753 = product of:
0.22829506 = sum of:
0.05454135 = weight(_text_:und in 38) [ClassicSimilarity], result of:
0.05454135 = score(doc=38,freq=32.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.39207286 = fieldWeight in 38, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=38)
0.17375371 = weight(_text_:hubrich in 38) [ClassicSimilarity], result of:
0.17375371 = score(doc=38,freq=2.0), product of:
0.49658453 = queryWeight, product of:
7.917278 = idf(docFreq=43, maxDocs=44421)
0.062721625 = queryNorm
0.34989753 = fieldWeight in 38, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.917278 = idf(docFreq=43, maxDocs=44421)
0.03125 = fieldNorm(doc=38)
0.5 = coord(2/4)
- Abstract
- Am 19. und 20. Juli 2010 richten das Institut für Informationsmanagement (IIM) der Fachhochschule Köln und die Deutsche Nationalbibliothek (DNB) im Rahmen der Projekte CrissCross und RESEDA die Fachtagung Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization aus. Die Tagung findet in der Fachhochschule Köln statt und widmet sich Fragen der Interoperabilität und semantischer Informationen in der Wissensorganisation. Die Konferenz bietet Experten, Anwendern und Interessierten die Möglichkeit, verschiedene Modelle und Strategien der Wissensorganisation zu diskutieren und sich über neue Entwicklungen im Bereich der Standardisierung und Implementierung solcher Modelle zu informieren und auszutauschen. Der erste Tag ist als Abschlussworkshop für das DFG-Projekt CrissCross konzipiert und bietet neben einem umfassenden Überblick über das Projekt auch weitere praktische Anwendungsbeispiele für semantische Interoperabilität und mögliche Szenarien für ihre Anwendung in Online-Katalogen und im Rahmen des Semantic Web. Eine vertiefte Auseinandersetzung mit neueren Entwicklungen im Bereich der Interoperabilität unterschiedlicher Begriffssysteme sowie mit zukunftsträchtigen Modellen der semantischen Wissensorganisation findet am zweiten Tag statt. Aktuelle thematische Schwerpunkte werden hier die Functional Requirements for Bibliographic Records (FRBR) und die Functional Requirements for Subject Authority Data (FRSAD) sein. Zur Konferenz werden Informationsspezialisten aus mehreren Ländern erwartet.
- Content
- Beiträge: Insights and Outlooks: A Retrospective View on the CrissCross Project - Jan-Helge Jacobs, Tina Mengel, Katrin Müller Translingual Retrieval: Moving between Vocabularies - MACS 2010 - Helga Karg und Yvonne Jahns Intersystem Relations: Characteristics and Functionalities - Jessica Hubrich Would an Explicit Versioning of the DDC Bring Advantages for Retrieval? - Claudia Effenberger und Julia Hauser A Semantic Web View on Concepts and their Alignments - From Specific Library Cases to a Wider Linked Data Perspective - Antoine Isaac Conceptual Foundations for Semantic Mapping and Semantic Search - Dagobert Soergel In Pursuit of Cross-Vocabulary Interoperability: Can We Standardize Mapping Types? - Stella Dextre Clarke Searching in a Multi-Thesauri-Scenario - Experiences with SKOS and Terminology Mappings - Philipp Mayr Interoperability and Semantics in RDF Representations of FRBR, FRAD and FRSAD - Gordon Dunsire FRSAD: Challenges of Modelling the Aboutness - Maja Zumer Integrating Interoperability into FRSAD - Felix Boteram
-
Gödert, W.; Hartmann, S.; Hubrich, J.; Lepsky, K.; Schulenborg, K.; Trunk, D.: Semantische Anreicherung der Schlagwortnormdatei : Ergebnisbericht (2004)
0.11
0.106160134 = product of:
0.21232027 = sum of:
0.03856656 = weight(_text_:und in 2815) [ClassicSimilarity], result of:
0.03856656 = score(doc=2815,freq=16.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.2772374 = fieldWeight in 2815, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2815)
0.17375371 = weight(_text_:hubrich in 2815) [ClassicSimilarity], result of:
0.17375371 = score(doc=2815,freq=2.0), product of:
0.49658453 = queryWeight, product of:
7.917278 = idf(docFreq=43, maxDocs=44421)
0.062721625 = queryNorm
0.34989753 = fieldWeight in 2815, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.917278 = idf(docFreq=43, maxDocs=44421)
0.03125 = fieldNorm(doc=2815)
0.5 = coord(2/4)
- Abstract
- Die Schlagwortnormdatei (SWD) ist mit einem Umfang von ca. 150.000 Sachschlagwörtern das umfangreichste terminologisch kontrollierte deutschsprachige Vokabular, das zur verbalen Inhaltserschließung von Dokumenten genutzt werden und somit prinzipiell auch als Kandidat für den Aufbau semantischer Navigationsstrukturen im Online-Retrieval angesehen werden kann. Die Strukturierung der Schlagwörter in der SWD folgt den Vorgaben zur Ausweisung begrifflicher Strukturen in einem Thesaurus. Durch Veränderungen des der Erstellung der SWD zu Grunde liegenden Regelwerkes RSWK hat sich im Verlauf der Zeit ein Nebeneinander von unterschiedlich dichten Beziehungsnetzen ergeben, ohne dass hierzu bislang Details erhoben und dokumentiert wären. In dieser Studie werden Aussagen über den Aufwand gemacht, der erforderlich wäre, die semantische Relationenstruktur der Schlagwortnormdatei (SWD) zu homogenisieren. Hierzu wird eine quantitative und qualitative Analyse am Beispiel mehrerer Themengebiete vorgenommen. Die Berücksichtigung mehrerer Gebiete soll es gestatten, möglichst repräsentative Aussagen für das gesamte Vokabular abzuleiten. Die Autorinnen und Autoren der Studien sind sich angesichts der zur Verfügung stehenden begrenzten Ressourcen bewusst, dass dieser Anspruch nur mit Einschränkungen eingelöst werden kann. Die für die Analyse der Relationenstruktur benutzten Kriterien orientieren sich an Grundsätzen zur Gestaltung strukturierten Vokabulars sowie insbesondere der Eignung der SWD, zum Aufbau bestandsunabhängiger semantischer Navigationssysteme im Online-Retrieval, für Zwecke des wörterbuchgestützten automatischen Indexierens.
Mit diesem Kriterium lässt es sich nicht vermeiden, dass Relationen als fehlend charakterisiert werden, auch wenn sie vom Regelwerk nicht gefordert werden. Die Analysen berücksichtigen allerdings die Verzahnung der SWD zum Regelwerk RSWK insoweit, als in der Regel nur bereits vorhandene Schlagwörter betrachtet wurden und nicht auch Lücken analysiert wurden, die allein deswegen vorhandenen sind, weil Schlagwörter wegen nicht vorhandener Bücher (noch) nicht gebildet wurden. Die Funktion der SWD zur terminologischen Ansetzung von Schlagwörtern ist nicht Gegenstand der Studie. Der Bericht dokumentiert zusätzlich Inkonsistenzen, die während der Analysen ermittelt wurden. Ziel dieses Projekts ist es, die tatsächlich erreichte Situation der Relationenstruktur der SWD zu ermitteln sowie Vorschläge auszuarbeiten, an welchen Stellen eine Nachbearbeitung der Relationen erfolgen sollte und wie dies realisiert werden könnte. Bei dieser Analyse wird nicht differenziert zwischen Relationierungen, die vom Regelwerk RSWK gedeckt sind und Relationierungen, die allgemeinen Regeln zur Darstellung begrifflicher Strukturen entsprechen.
- Footnote
- Diese Studie wurde im Auftrag der Deutschen Bibliothek durchgeführt und nicht veröffentlicht.
-
Wissen - Wissenschaft - Organisation : Proceedings der 12. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Bonn, 19. bis 21. Oktober 2009 (2013)
0.11
0.106160134 = product of:
0.21232027 = sum of:
0.03856656 = weight(_text_:und in 4469) [ClassicSimilarity], result of:
0.03856656 = score(doc=4469,freq=16.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.2772374 = fieldWeight in 4469, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4469)
0.17375371 = weight(_text_:hubrich in 4469) [ClassicSimilarity], result of:
0.17375371 = score(doc=4469,freq=2.0), product of:
0.49658453 = queryWeight, product of:
7.917278 = idf(docFreq=43, maxDocs=44421)
0.062721625 = queryNorm
0.34989753 = fieldWeight in 4469, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.917278 = idf(docFreq=43, maxDocs=44421)
0.03125 = fieldNorm(doc=4469)
0.5 = coord(2/4)
- Content
- Inhalt: H. P. Ohly: Wissen - Wissenschaft - Organisation. Eine Einführung 1. Grundlagen der Wissensorganisation G. Rahmstorf: Philosophie als grundlegende Erkenntnis-Wissenschaft K. Weber: Informationsnachhaltigkeit. Vom schwierigen Umgang mit Informationsgütern - H. P. Ohly: Wissens- und informationssoziologische Aspekte der Wissensorganisation - U. Adler Feministische Wissenschaftsorganisation 2. Wissenskonzepte H. Cap: Erkennen durch künstliche Systeme - K Prätor: Logik als Organisation von Handlungen - V. Dreier: Fotografien als empirische Daten - J. Blasius: Informationen und Fehlinformationen durch die Sozialwissenschaften - A. Kovaleva: Psychologische Konstrukte und Modelle der Persönlichkeitspsychologie - J. Hagenah, D. Gilles, D. Becker: Überregionale Tageszeitungen 3. Wissensmehrwert I. Dahlberg: Desiderate für die Wissensorganisation - J. Lindenthal, E. Scheven: ISO 25964 - Standard der Information und Dokumentation - M. Stempfhuber, B. Zapilko: Ein Ebenenmodell für die semantische Integration von Primärdaten und Publikationen in Digitalen Bibliotheken - P. Mayr, P. Mutschke, P. Schaer, Y. Sure: Mehrwertdienste für das Information Retrieval - 4. Semantik in der Wissensorganisation W. Koch: Vokabularien und WebServices - F. Boteram: Typisierung semantischer Relationen in integrierten Systemen der Wissensorganisation - J. Hubrich: Vom Stringmatching zur Begriffsexploration - B. Zapilko, Y. Sure: Neue Möglichkeiten für die Wissensorganisation durch die Kombination von Digital Library Verfahren mit Standards des Semantic Web 5. Wissenserwerb K. S. Raghavan: Education for Information Management as a Transformation Force - T. Sporer, P. Meyer, M. Steinle: Begleitstudium als Modell zur Einbettung informellen Lernens in das Universitätsstudium - E. Horvatic: Vom Verhältnis von Gedächtnis, Medien und der Wissensorganisation - Hofhues, M. Kamper, T. Specht: Förderung des Wissensaustauschs unter Studierenden
6. Fachkommunikation L. Pinna, W. Wessels: Wissensorganisationssysteme für Archäologie und Kulturerbe - Sandra Ducker, Uta Roth: Wissenslandkarte Berufsbildungsforschung - S. Gradmann, M. Olensky: Semantische Kontextualisierung von Museumsbeständen in Europeana - W. Shen, M. Stempfhuber: Embedding Discussion in Online Publications 7. Wissensgemeinschaften O. Bidlo, C. J. Englert: Wissen verbindet - verbindet Wissen - H. Paepcke, J. Hafensteller: Building an Epistemic Community 2.0 - K. Weishaupt: Open-Access-Zeitschriften als Schuttabladeplatz für minderwertige Beiträge? - K M. Janowit: Netnographie 8. Wissensmanagement E. Ammann: A Conception of Knowledge and Knowledge Dynamics in an Enterprise - J. Bertram: Stand der unternehmensweiten Suche in österreichischen Großunternehmen - M. Braschler, B. Heuwing, T. Mandl, C. Womser-Hacker, J. Herget, P. Schäuble, J. Stuker.: Evaluation der Suchfunktion deutscher Unternehmenswebsites 9. Wissensqualität L. Bornmann: Lässt sich die Qualität von Forschung messen? - H. H. Lietz: Diagnose von Emerging Science - U. Herb: Relevanz von Impact-Maßen für Open Access - U. Miller: Peer-Review-Verfahren zur Qualitätssicherung von Open-AccessZeitschriften - W. Dees: "Publication power approach"
-
Klassifikationen in Bibliotheken : Theorie - Anwendung - Nutzen (2018)
0.11
0.106160134 = product of:
0.21232027 = sum of:
0.03856656 = weight(_text_:und in 682) [ClassicSimilarity], result of:
0.03856656 = score(doc=682,freq=16.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.2772374 = fieldWeight in 682, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=682)
0.17375371 = weight(_text_:hubrich in 682) [ClassicSimilarity], result of:
0.17375371 = score(doc=682,freq=2.0), product of:
0.49658453 = queryWeight, product of:
7.917278 = idf(docFreq=43, maxDocs=44421)
0.062721625 = queryNorm
0.34989753 = fieldWeight in 682, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.917278 = idf(docFreq=43, maxDocs=44421)
0.03125 = fieldNorm(doc=682)
0.5 = coord(2/4)
- Abstract
- Klassifikationen sind in Bibliotheken heute wichtiger als je zuvor. Sie eignen sich nicht nur hervorragend für die physische Anordnung von Büchern und anderen Medienwerken, sondern sind genauso erfolgreich dafür einsetzbar, große Datenmengen in Katalogen und anderen Nachweisinstrumenten zu strukturieren und sinnvoll nutzbar zu machen. Der Band gibt zunächst eine Einführung in die bibliothekarische Klassifikationstheorie und stellt dann die in Bibliotheken des deutschen Sprachraums überregional eingesetzten Universalklassifikationen vor. Er informiert außerdem über die Nutzung von Klassifikationen in Katalogen und Suchsystemen sowie die Frage der semantischen Interoperabilitätim Kontext der Wissensorganisation. Ziel des Bandes ist es, eine Übersicht über die gegenwärtig in Bibliotheken des deutschen Sprachraums überregional eingesetzten Universalklassifikationen zu geben. Die Fülle an vorhandenen Klassifikationen bedingt die thematische Konzentration auf Universalklassifikationen; reine Fachklassifikationen sind nicht Gegenstand der Darstellung, finden jedoch in einzelnen Beiträgen Erwähnung.
- Content
- Enthält die Beiträge: Lorenz, Bernd: Zur Theorie und Terminologie der bibliothekarischen Klassifikation - Bee, Guido: Universalklassifikationen in Bibliotheken des deutschen Sprachraums - Alex, Heidrun: Die Dewey-Dezimalklassifikation (DDC) - Junger, Ulrike: Basisinformationen zur Universellen Dezimalklassifikation (UDK) - Häusler, Ines / Werr, Naoka: Die Regensburger Verbundklassifikation (RVK) - Umlauf, Konrad: Klassifikationen in Öffentlichen Bibliotheken - Pfeffer, Magnus / Schöllhorn, Katharina: Praktische Nutzung von Klassifikationssystemen - Hubrich, J.: Semantische Interoperabilität zwischen Klassifikationen und anderen Wissenssystemen.
- Series
- Bibliotheks- und Informationspraxis; 53
-
Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996)
0.10
0.10432589 = product of:
0.41730356 = sum of:
0.41730356 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
0.41730356 = score(doc=6014,freq=6.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.94405925 = fieldWeight in 6014, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6014)
0.25 = coord(1/4)
- Abstract
- Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
- Object
- JAVA
-
Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998)
0.10
0.10432589 = product of:
0.41730356 = sum of:
0.41730356 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
0.41730356 = score(doc=4612,freq=6.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.94405925 = fieldWeight in 4612, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4612)
0.25 = coord(1/4)
- Abstract
- Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
- Object
- Java
-
Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001)
0.10
0.10432589 = product of:
0.41730356 = sum of:
0.41730356 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
0.41730356 = score(doc=6896,freq=6.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.94405925 = fieldWeight in 6896, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6896)
0.25 = coord(1/4)
- Abstract
- This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
-
Hubrich, J.: Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization : Internationale Fachtagung und Abschlussworkshop des DFGProjekts CrissCross in Köln (2010)
0.10
0.10373822 = product of:
0.20747644 = sum of:
0.053898405 = weight(_text_:und in 315) [ClassicSimilarity], result of:
0.053898405 = score(doc=315,freq=80.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.38745102 = fieldWeight in 315, product of:
8.944272 = tf(freq=80.0), with freq of:
80.0 = termFreq=80.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=315)
0.15357803 = weight(_text_:hubrich in 315) [ClassicSimilarity], result of:
0.15357803 = score(doc=315,freq=4.0), product of:
0.49658453 = queryWeight, product of:
7.917278 = idf(docFreq=43, maxDocs=44421)
0.062721625 = queryNorm
0.30926865 = fieldWeight in 315, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.917278 = idf(docFreq=43, maxDocs=44421)
0.01953125 = fieldNorm(doc=315)
0.5 = coord(2/4)
- Content
- "Am 19. und 20. Juli 2010 fand in der Fachhochschule Köln die internationale Tagung "Concepts in Context - Cologne Conference on Interoperability and Semantics in Knowledge Organization" statt. Ausgerichtet wurde sie mit finanzieller Unterstützung der Deutschen Forschungsgemeinschaft (DFG) vom Institut für Informationsmanagement (IIM) der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek (DNB). Im Mittelpunkt der Veranstaltung standen Fragen der Modellierung von Interoperabilität und semantischen Informationen in der Wissensorganisation, die einen unmittelbaren thematischen Zusammenhang mit den am Institut für Informationsmanagement angesiedelten Projekten CrissCross und RESEDA aufweisen. Das Programm umfasste 11 Beiträge aus 5 verschiedenen Ländern sowohl zu praktischen als auch zu theoretischen Aspekten der Wissensorganisation unter besonderer Berücksichtigung moderner Technologien, aktueller Entwicklungen und zukunftsbezogener Perspektiven. Der erste Tag war als Abschlussworkshop für das CrissCross-Projekt konzipiert und bot in zwei Sessions neben einem umfassenden Überblick über das Projekt auch weitere Best-Practice-Beispiele für die Gestaltung von Interoperabilität vor allem im Rahmen von Ansätzen der Semantic-Web- und Linked-Data-Initiativen. Eine vertiefte Auseinandersetzung mit sich in der Entwicklung befindlichen oder auch erst kürzlich fertiggestellten Standards und Modellen der Interoperabilität und Wissensorganisation erfolgte am zweiten Tag, der mit einer Keynote von Dagobert Soergel von der University at Buffalo (USA) eröffnet wurde und in zwei weitere Sessions unterteilt war. Zu der Veranstaltung konnten Prof. Dr. Klaus-Dirk Schmitz, Leiter des Kölner Instituts für Informationsmanagement, sowie Ulrike Junger, Leiterin der Abteilung Sacherschließung der Deutschen Nationalbibliothek in Stellvertretung der Generaldirektorin, Dr. Elisabeth Niggemann, ca. 120 Teilnehmer aus insgesamt 16 Ländern begrüßen. Prof. Klaus-Dirk Schmitz stellte in seiner Eröffnungsrede die Fachhochschule Köln und insbesondere das Institut für Informationsmanagement vor und erörterte das Konferenzthema mit Beispielen aus Forschungsgebieten der Terminologiearbeit. Ulrike Junger ging auf die gelungene Zusammenarbeit zwischen der Fachhochschule Köln und der Deutschen Nationalbibliothek ein, die mit dem DFG-Projekt DDC Deutsch begonnen und in dem DFG-Projekt CrissCross eine Fortsetzung gefunden hatte. Eine Einführung in die spezifischen Konferenzinhalte gab schließlich Prof. Winfried Gödert, Leiter des RESEDA-Projekts sowie - seitens der Fachhochschule Köln - des CrissCross-Projekts.
Die erste Session der Veranstaltung war dem von der DFG geförderten Projekt CrissCross gewidmet, das von der Fachhochschule Köln in Kooperation mit der Deutschen Nationalbibliothek durchgeführt wird. Das Projekt, das 2006 begann und im Herbst diesen Jahres endet, verfolgt das Ziel, ein multilinguales, thesaurusbasiertes und nutzerfreundliches Recherchevokabular zu heterogen erschlossenen Informationsressourcen zu schaffen. Hierzu wird einerseits eine unidirektionale Verbindung zwischen Sachschlagwörtern der Schlagwortnormdatei (SWD) und Notationen der Dewey-Dezimalklassifikation hergestellt, andererseits werden - in Fortführung der in dem Projekt Multilingual Access to Subject Headings (MACS) entwickelten Methodik - häufig verwendete SWD-Schlagwörter mit ihren Äquivalenten in der englischen Schlagwortsprache Library of Congress Subject Headings (LCSH) und der französischen Schlagwortsprache Répertoire d'autorité-matière encyclopédique et alphabétique unifié (RAMEAU) verknüpft. Jan-Helge Jacobs, Katrin Müller und Tina Mengel von der Fachhochschule Köln gaben einen Überblick über das für das Projekt spezifische SWD-DDC-Mapping. Sie erläuterten die zugrunde liegende Methodik und stellten den mit den Daten gegebenen möglichen Mehrwert sowohl zur Verbesserung des Zugangs zur DDC und zu DDC-erschlossenen Informationsressourcen im Allgemeinen als auch zur Unterstützung von explorativen Suchprozessen im Speziellen dar. Ergänzend präsentierten Yvonne Jahns und Helga Karg von der Deutschen Nationalbibliothek den im MACSProjekt praktizierten Ansatz zur Verbindung von Indexierungsinstrumenten verschiedener Sprachen und das damit gegebene Potential zur Unterstützung eines multilingualen Retrievals. Die adäquate Modellierung von Dokumentationssprachen und Relationen zur Gewährleistung von Interoperabilität und Verbesserung von Suchfunktionalitäten bei heterogen erschlossenen Dokumentbeständen besonders in Hinblick auf Semantic-Web-Applikationen war Thema der zweiten Session. Jessica Hubrich von der Fachhochschule Köln nahm theoretische Ergebnisse des CrissCross-Projektes auf und stellte ein gestuftes Interoperabilitätsmodell vor, in dem Methoden zur Erstellung von Links zwischen Begriffen verschiedener Wissenssysteme in Bezug gesetzt wurden zu spezifischen Suchfunktionalitäten in Retrievalszenarien. Im anschließenden Vortrag von Claudia Effenberger und Julia Hauser von der Deutschen Nationalbibliothek wurde von den bisherigen Ergebnissen eines an der Deutschen Nationalbibliothek angesiedelten Forschungsprojekts berichtet, in dem jeder Klasse der Dewey-Dezimalklassifikation ein eindeutiger Identifier zugeordnet wird, durch den verschiedene Versionen einer Klasse unterschieden werden können. Dies dient der Verbesserung des Zugriffs auf bibliografische Titeldaten, die auf der Basis unterschiedlicher DDC-Versionen erschlossen wurden. Der erste Tag schloss mit einer Präsentation von Antoine Isaac von der Vrije Universiteit in Amsterdam ab. In dieser wurde Interoperabilität als Teil eines semantischen Netzes von Linked Data diskutiert und ein Überblick über zentrale Linked-Data-Projekte gegeben.
Der zweite Tag begann mit einer Keynote von Dagobert Soergel von der University at Buffalo mit dem Thema Conceptual Foundations for Semantic Mapping and Semantic Search. Im Zentrum stand die Idee eines Hubs, einer semantischen Verbindungsstruktur in Form einer Kernklassifikation, die elementare Begriffe sowie semantische Relationen enthält und über die ein Mapping zwischen unterschiedlichen Wissensorganisationssystemen erfolgen soll. Die Methode wurde durch zahlreiche Beispiele veranschaulicht. Die erste Session des zweiten Tages war dem Thema Interoperabilität und Standardisierung gewidmet. Stella Dextre Clarke aus Großbritannien berichtete - ausgehend von den in zentralen Mappingprojekten erstellten Relationen zwischen Begriffen unterschiedlicher Dokumentationssprachen - über Herausforderungen und Fragestellungen bei der Entwicklung des neuen ISO-Standards 25964-2, der als Leitfaden zur Herstellung von Interoperabilität zwischen Thesauri und anderen Vokabularien fungieren soll. In dem Folgevortrag von Philipp Mayr vom GESIS Leipniz-Institut für Sozialwissenschaften wurd mit KoMoHe (Kompetenzzentrum Modellbildung und Heterogenitätsbehandlung) ein bereits abgeschlossenes Projekt vorgestellt, dessen Mehrwert für das Retrieval in heterogen erschlossenen Informationsräumen mittels eines Information-Retrieval-Tests bestätigt werden konnte. Unpräzise Trefferresultate motivierten indes zu dem Nachfolgeprojekt IRM (Value-Added Services for Information Retrieval), in dem Möglichkeiten von Suchexpansion und Re-Ranking untersucht werden.
Ein sehr aktuelles Thema mit hohem Potential für zukünftige Entwicklung wurde mit der letzten Session adressiert: die Functional Requirements for Bibliographic Records (FRBR), die Functional Requirements for Authority Data (FRAD) sowie die Functional Requirements for Subject Authority Data (FRSAD), wobei der Schwerpunkt auf den letzteren lag. Gordon Dunsire von der University of Strathclyde in Glasgow beschrieb aktuelle Ansätze für eine adäquate RDF-Repräsentation von FRBR, FRAD und FRSAD und diskutierte die dabei auftretenden Fragen der Interoperabilität, die mitunter dadurch bedingt sind, dass die RDF-Versionen von FRBR, FRAD und FRSAD mit eigenständigen Namensräumen erstellt werden. Auf FRSAD im Speziellen ging Maja Zumer von der Universität von Ljubljana ein. Sie berichtete von den Schwierigkeiten, die mit der Entwicklung des Modells einhergingen und stellte auch einige der zu dem Draft eingegangenen Kommentare vor. Die Zukunftsaufgabe liegt für sie in der Harmonisierung der Modelle der FRBR-Familie. Aus der Perspektive der Projekte CrissCross und RESEDA ist Interoperabilität indes in FRSAD bisher nur unzureichend berücksichtigt. Eine Erweiterung wird für notwendig gehalten. Zentrale Überlegungen hierzu wurden von Felix Boteram von der Fachhochschule Köln vorgestellt. Die Folien sowie zahlreiche mp3-Aufnahmen der Vorträge können auf der Konferenzhomepage unter http://linux2.fbi.fh-koeln.de/cisko2010/ programm.html eingesehen werden. Die Herausgabe eines Sammelbandes mit Artikeln zu den in der Konferenz behandelten Themen ist in Planung."
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.129-132
-
Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999)
0.10
0.10325585 = product of:
0.4130234 = sum of:
0.4130234 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
0.4130234 = score(doc=1743,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.9343763 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Abstract
- Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate