-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.13
0.1322942 = product of:
0.2645884 = sum of:
0.18480621 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.18480621 = score(doc=50,freq=2.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.079782166 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.079782166 = score(doc=50,freq=38.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.13
0.12990506 = product of:
0.25981012 = sum of:
0.22176746 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.22176746 = score(doc=1181,freq=2.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.03804267 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.03804267 = score(doc=1181,freq=6.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.13
0.12990394 = product of:
0.25980788 = sum of:
0.20908435 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.20908435 = score(doc=1761,freq=4.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.050723553 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.050723553 = score(doc=1761,freq=24.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Read, T.; Hall, H.: Java: an explosion on the Internet (1996)
0.13
0.12936434 = product of:
0.51745737 = sum of:
0.51745737 = weight(_text_:java in 86) [ClassicSimilarity], result of:
0.51745737 = score(doc=86,freq=2.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
1.0901057 = fieldWeight in 86, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.109375 = fieldNorm(doc=86)
0.25 = coord(1/4)
-
Thissen, F.: Screen-Design-Handbuch : Effektiv informieren und kommunizieren mit Multimedia (1999)
0.13
0.12748191 = product of:
0.25496382 = sum of:
0.08283122 = weight(_text_:und in 1742) [ClassicSimilarity], result of:
0.08283122 = score(doc=1742,freq=16.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.5544748 = fieldWeight in 1742, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1742)
0.17213258 = weight(_text_:hand in 1742) [ClassicSimilarity], result of:
0.17213258 = score(doc=1742,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.47527373 = fieldWeight in 1742, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0625 = fieldNorm(doc=1742)
0.5 = coord(2/4)
- Abstract
- Das Screen-Design-Handbuch gibt Gestaltern interaktiver Medien eine praktische Arbeitshilfe an die Hand, um Informationen zielgruppen- und mediengerecht aufzubereiten und darzustellen. Es zeigt Hintergründe und Zusammenhänge auf, verdeutlicht diese anhand von Beispielen und regt dazu an, die Sprache der digitalen Medien weiter zu entwickeln. Grundlagen der Wahrnehmungs- und Lernpsychologie, der Ergonomie, der Kommunikationstheorie, der Imagery-Forschung und der Ästhethik werden dabei ebenso berücksichtigt wie Fragen der Gestaltung von Navigations- und Orientierungselementen
-
Schraudolph, M.: T-Online an der Leine (1996)
0.13
0.12588614 = product of:
0.25177228 = sum of:
0.036606573 = weight(_text_:und in 3349) [ClassicSimilarity], result of:
0.036606573 = score(doc=3349,freq=2.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.24504554 = fieldWeight in 3349, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=3349)
0.21516572 = weight(_text_:hand in 3349) [ClassicSimilarity], result of:
0.21516572 = score(doc=3349,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.59409213 = fieldWeight in 3349, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.078125 = fieldNorm(doc=3349)
0.5 = coord(2/4)
- Abstract
- Mit dem kostenlosen Decoder auf CD-ROM haben alle Nutzer von T-Online ein sehr leistungsfähiges und flexibles Online-Werkzeug in die Hand bekommen. Wenn die eingebauten Möglichkeiten nicht mehr ausreichen, kann man ihn über die eingebaute Makro-Sprache sogar selbst programmieren
-
Schlaffer, H.: Selbstzitat (1997)
0.13
0.12588614 = product of:
0.25177228 = sum of:
0.036606573 = weight(_text_:und in 533) [ClassicSimilarity], result of:
0.036606573 = score(doc=533,freq=2.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.24504554 = fieldWeight in 533, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=533)
0.21516572 = weight(_text_:hand in 533) [ClassicSimilarity], result of:
0.21516572 = score(doc=533,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.59409213 = fieldWeight in 533, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.078125 = fieldNorm(doc=533)
0.5 = coord(2/4)
- Abstract
- 'Zwischenruf' zur Zitierpraxis im Wissenschaftsbereich: "Jeder kann seine Plazierung auf dieser Weltrangliste gelehrter Eitelkeit verbessern, indem er sich so oft und andere so wenig wie möglich zitiert. Die Verbreitung des Ruhms, den man braucht, nimmt man am besten selbst in die Hand, von Jugend an"
-
Vonhoegen, H.: Einstieg in XML (2002)
0.12
0.12476174 = product of:
0.24952348 = sum of:
0.18294881 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.18294881 = score(doc=5002,freq=4.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.06657466 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.06657466 = score(doc=5002,freq=54.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Retti, G.: "Schlagwortnormdatei" und "Regeln für den Schlagwortkatalog" (1995)
0.12
0.12462093 = product of:
0.24924186 = sum of:
0.036238655 = weight(_text_:und in 2354) [ClassicSimilarity], result of:
0.036238655 = score(doc=2354,freq=4.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.24258271 = fieldWeight in 2354, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2354)
0.2130032 = weight(_text_:hand in 2354) [ClassicSimilarity], result of:
0.2130032 = score(doc=2354,freq=4.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.58812124 = fieldWeight in 2354, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0546875 = fieldNorm(doc=2354)
0.5 = coord(2/4)
- Abstract
- Es scheint naheliegend, daß der Unsicherheit, welche durch die "Vielfalt der möglichen sprachlichen Ausdrucksweisen für einen Sachverhalt" beim Beschlagworter ausgelöst wird, dadurch begegnet werden soll, "daß immer nur eine der möglichen Formen gewählt wird". Der Ruf nach einer "Standardisie- rung der Schlagwörter" geht damit Hand in Hand. Zwei Ergebnisse dieser Standardisierungsbemühungen werden im folgenden dargestellt; ein Punkt aber sollte dabei nicht übersehen werden: "Ein allgemein akzeptiertes Verfahren der Inhaltsanalyse gibt es bisher nicht und es ist offen, ob das Problem überhaupt gelöst werden kann." Standardisiert kann demnach nur das Schlagwortsystem werden, nicht aber seine konkrete Anwendung bei der inhaltlichen Erschließung von Dokumenten.
-
Fabian, C.: Hand Press Book database und CERL Thesaurus (2004)
0.12
0.12423299 = product of:
0.24846599 = sum of:
0.065891825 = weight(_text_:und in 3605) [ClassicSimilarity], result of:
0.065891825 = score(doc=3605,freq=18.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.44108194 = fieldWeight in 3605, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3605)
0.18257417 = weight(_text_:hand in 3605) [ClassicSimilarity], result of:
0.18257417 = score(doc=3605,freq=4.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.5041039 = fieldWeight in 3605, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.046875 = fieldNorm(doc=3605)
0.5 = coord(2/4)
- Abstract
- Über Pläne, Konzepte und Initiativen im Aufbau der Hand Press Book Datenbank (HPB), die frühe europäische Drucke bis etwa 1830 nachweist,wurde seit Beginn dieses Projekts in Deutschland geschrieben und gesprochen. Ein neuerlicher Bericht bietet sich in diesem Themenheft an. Einmal gilt es - nach wie vor - die nationalen Erschließungsprojekte in diesen europäischen Kontext einzufügen, d.h. deutsche Initiativen und Leistungen vor dem Hintergrund und mit den Perspektiven der Einbindung in ein umspannenderes Erschließungsgefüge zu sehen, zum anderen vollzieht sich die Entwicklung der HPB in einem dynamischen Prozess, dessen erreichte und angestrebte Ziele in regelmäßigem Abstand referiert werden können. Das zehnjährige Jubiläum der formalen Gründung des die HPB aufbauenden Consortium of European Research Libraries (CERL), das zur diesjährigen Mitgliederversammlung im November 2004 in Edinburgh zu feiern ist, lädt ebenfalls zu einer Würdigung des Geleisteten und einer Besinnung der deutschen Bibliotheken auf ihre Rolle, Mitwirkung und Beteiligung bei dieser europäischen Gemeinschaftsaufgabe ein.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.4, S.229-235
-
Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998)
0.12
0.12397176 = product of:
0.49588704 = sum of:
0.49588704 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
0.49588704 = score(doc=6217,freq=10.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
1.0446644 = fieldWeight in 6217, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=6217)
0.25 = coord(1/4)
- Abstract
- A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
-
Heller, L.: Bibliographie und Sacherschließung in der Hand vernetzter Informationsbenutzer (2007)
0.12
0.1188082 = product of:
0.2376164 = sum of:
0.06548382 = weight(_text_:und in 591) [ClassicSimilarity], result of:
0.06548382 = score(doc=591,freq=10.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.4383508 = fieldWeight in 591, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=591)
0.17213258 = weight(_text_:hand in 591) [ClassicSimilarity], result of:
0.17213258 = score(doc=591,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.47527373 = fieldWeight in 591, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0625 = fieldNorm(doc=591)
0.5 = coord(2/4)
- Abstract
- Die Geschichte informeller, gemeinschaftlich gepflegter Online-Bibliographien sowie die zentralen Konzepte von Social-Bookmarking-Diensten (Bibliographie sozialer Netzwerke, Sacherschließung durch Social Tagging, Folksonomies als persönliche und Collabularies als gemeinschaftliche Vokabulare) werden dargestellt und diskutiert. Zur Charakterisierung der geschilderten Gesamtentwicklung wird der Begriff Metadatenrevolution eingeführt. Es werden Strategien vorgeschlagen, mit denen Bibliotheken und Informationseinrichtungen auf diese Entwicklung eingehen können.
- Source
- Bibliothek: Forschung und Praxis. 31(2007) H.2, S.162-171
-
Herrero-Solana, V.; Moya Anegón, F. de: Graphical Table of Contents (GTOC) for library collections : the application of UDC codes for the subject maps (2003)
0.12
0.11695563 = product of:
0.23391126 = sum of:
0.14784497 = weight(_text_:java in 3758) [ClassicSimilarity], result of:
0.14784497 = score(doc=3758,freq=2.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.31145877 = fieldWeight in 3758, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=3758)
0.08606629 = weight(_text_:hand in 3758) [ClassicSimilarity], result of:
0.08606629 = score(doc=3758,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.23763686 = fieldWeight in 3758, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.03125 = fieldNorm(doc=3758)
0.5 = coord(2/4)
- Abstract
- The representation of information contents by graphical maps is an extended ongoing research topic. In this paper we introduce the application of UDC codes for the subject maps development. We use the following graphic representation methodologies: 1) Multidimensional scaling (MDS), 2) Cluster analysis, 3) Neural networks (Self Organizing Map - SOM). Finally, we conclude about the application viability of every kind of map. 1. Introduction Advanced techniques for Information Retrieval (IR) currently make up one of the most active areas for research in the field of library and information science. New models representing document content are replacing the classic systems in which the search terms supplied by the user were compared against the indexing terms existing in the inverted files of a database. One of the topics most often studied in the last years is bibliographic browsing, a good complement to querying strategies. Since the 80's, many authors have treated this topic. For example, Ellis establishes that browsing is based an three different types of tasks: identification, familiarization and differentiation (Ellis, 1989). On the other hand, Cove indicates three different browsing types: searching browsing, general purpose browsing and serendipity browsing (Cove, 1988). Marcia Bates presents six different types (Bates, 1989), although the classification of Bawden is the one that really interests us: 1) similarity comparison, 2) structure driven, 3) global vision (Bawden, 1993). The global vision browsing implies the use of graphic representations, which we will call map displays, that allow the user to get a global idea of the nature and structure of the information in the database. In the 90's, several authors worked an this research line, developing different types of maps. One of the most active was Xia Lin what introduced the concept of Graphical Table of Contents (GTOC), comparing the maps to true table of contents based an graphic representations (Lin 1996). Lin applies the algorithm SOM to his own personal bibliography, analyzed in function of the words of the title and abstract fields, and represented in a two-dimensional map (Lin 1997). Later on, Lin applied this type of maps to create websites GTOCs, through a Java application.
-
Grieb, P.: Wissen schneller zur Hand (2004)
0.12
0.11535154 = product of:
0.23070309 = sum of:
0.05857051 = weight(_text_:und in 3316) [ClassicSimilarity], result of:
0.05857051 = score(doc=3316,freq=8.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.39207286 = fieldWeight in 3316, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3316)
0.17213258 = weight(_text_:hand in 3316) [ClassicSimilarity], result of:
0.17213258 = score(doc=3316,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.47527373 = fieldWeight in 3316, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0625 = fieldNorm(doc=3316)
0.5 = coord(2/4)
- Abstract
- OCR-Technologie beschleunigt anwendungsunabhängig die Referenzierung auf ergänzendes Wissen Unternehmen sind schneller geworden. Automatisierung und Digitalisierung beschleunigen Prozesse und Kommunikation. Die Ansprüche an einen schnellen Zugang zu direkt verwertbarem Wissen wachsen. Entscheidend ist dabei nicht die verfügbare Menge - die ist ohnehin nicht mehr mit menschlichen Kapazitäten zu erfassen ist - sondern die Relevanz und schnelle Verfügbarkeit.
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.2, S.107-110
-
Weber, J.: ¬"The copy in hand" : Voraussetzungen und Ziele exemplarspezifischer Erschließung (2002)
0.11
0.11489971 = product of:
0.22979942 = sum of:
0.077654265 = weight(_text_:und in 1598) [ClassicSimilarity], result of:
0.077654265 = score(doc=1598,freq=36.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.5198201 = fieldWeight in 1598, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1598)
0.15214516 = weight(_text_:hand in 1598) [ClassicSimilarity], result of:
0.15214516 = score(doc=1598,freq=4.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.42008662 = fieldWeight in 1598, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0390625 = fieldNorm(doc=1598)
0.5 = coord(2/4)
- Abstract
- Auf Fragen der exemplarspezifischen Erschließung werden wir meist von der prekären Seite des Umgangs mit Büchern gestoßen: Schadensfälle und -bilanzen. Ursula Baurmeister berichtet etwa davon, dass in der Bibliothèque National de France es eigentlich der Erfassung von Wasser- und Schimmelschäden an Büchern zu verdanken war" dass einzelne Exemplare noch einmal in die Hand genommen und die Provenienzen kurz dokumentiert werden konnten. Doch geht es um mehr: Mit der exemplarspezifischen Erschließung wird neben der Formal- und Sachkatalogisierung eine neue, dritte Stufe der Bestandserschließung eröffnet. Es geht nicht mehr nur darum, den Titel exakt zu verzeichnen und den Inhalt eines Textes intellektuell zu beschreiben. Es sind die in den Katalogisierungsregeln bislang wenig berücksichtigten individuellen physischen Details des Buches, z. B. des Einbandes oder der Provenienzspuren, die das Interesse der Kulturwissenschaftler und Bibliothekare geweckt haben. Es geht um die Entdeckung und Beschreibung des Buches als eines physischen Objekts. Exemplarspezifika bezeichnen Details von Provenienzen, Einbänden, der Buchherstellung und -gestaltung. Auf Urheber, Funktion und Datierung hin untersucht, liefern diese Details Befunde (Evidenzen), die die einzelnen Buchexemplare über den publizierten Text hinaus zu kulturwissenschaftlich bedeutsamen Dokumenten machen. So sind z.B. die Herkunfts- und Benutzungsprofile, die bei der Provenienzerschließung für einzelne Bücher oder Sammlungen erstellt werden, ein wichtiges Hilfsmittel für die historische und literaturwissenschaftliche Forschung und Textedition; sie dienen als Selektionskriterien für Ausstellungen und Buchpräsentationen und sind bei der Abwägung bestandserhaltender Maßnahmen unabdingbar. Es ist die Forderung nach dem Mehrwert digitaler Konversionsprodukte, die weitere Freiräume für die exemplarspezifische Erschließung eröffnet hat. Orientierung und Navigation in Dokumenten digitalisierter Bücher kommen ohne Rückgriff auf Elemente des physischen Buchaufbaus und der Gestaltung (Titelei, Vor- und Nachsatz, Beilagen, Einband) nicht aus.
-
Stock, M.; Stock, W.G.: Medizininformationen : Literaturnachweise, Volltexte und klinische Entscheidungen aus einer Hand (2004)
0.11
0.113744915 = product of:
0.22748983 = sum of:
0.0768738 = weight(_text_:und in 4288) [ClassicSimilarity], result of:
0.0768738 = score(doc=4288,freq=18.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.5145956 = fieldWeight in 4288, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=4288)
0.15061602 = weight(_text_:hand in 4288) [ClassicSimilarity], result of:
0.15061602 = score(doc=4288,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.41586453 = fieldWeight in 4288, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0546875 = fieldNorm(doc=4288)
0.5 = coord(2/4)
- Abstract
- Ovid Technologies speist sich aus unterschiedlichen Unternehmensgeschichten; die Erfahrungen von BRS, SilverPlatter, Ovid und Wolters-Kluwer ergänzen sich in den derzeit betriebenen zwei Plattformen Ovid und SilverPlatter. Ovid spricht vor allem praktizierende wie forschende Spezialisten in der medizinisch-biowissenschaftlichen Sparte an, während SilverPlatter eher auf den gesamten akademischen Betrieb abzielt. Wir konzentrieren uns in diesem Artikel auf die Ovid-Plattform und vernachlässigen SilverPlatter. Das Interessante an Ovid ist die Einheit von bibliographischen Nachweisdaten, Volltexten und praxisrelevanten klinischen Entscheidungshilfen. U.E. lohnt die Retrievaloberfläche von Ovid und die hier praktizierte durchgehende Verlinkung von Nachweisen und Volltexten und von Volltexten untereinander einer näheren Betrachtung. Unsere Ergebnisse stützen sich auf den Fragebogen, Gespräche mit Jens Gräßler, National Sales Manager Germany, vom deutschen Ovid-Büro in Berlin sowie auf Tests im März und im April 2004.
-
Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996)
0.11
0.112032816 = product of:
0.44813126 = sum of:
0.44813126 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
0.44813126 = score(doc=6014,freq=6.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.94405925 = fieldWeight in 6014, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6014)
0.25 = coord(1/4)
- Abstract
- Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
- Object
- JAVA
-
Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998)
0.11
0.112032816 = product of:
0.44813126 = sum of:
0.44813126 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
0.44813126 = score(doc=4612,freq=6.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.94405925 = fieldWeight in 4612, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4612)
0.25 = coord(1/4)
- Abstract
- Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
- Object
- Java
-
Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001)
0.11
0.112032816 = product of:
0.44813126 = sum of:
0.44813126 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
0.44813126 = score(doc=6896,freq=6.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.94405925 = fieldWeight in 6896, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6896)
0.25 = coord(1/4)
- Abstract
- This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
-
Mönch, A.; Haase, O.: Internet : Studentenmail in Köln (1995)
0.11
0.11142807 = product of:
0.22285613 = sum of:
0.050723553 = weight(_text_:und in 1117) [ClassicSimilarity], result of:
0.050723553 = score(doc=1117,freq=6.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.33954507 = fieldWeight in 1117, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1117)
0.17213258 = weight(_text_:hand in 1117) [ClassicSimilarity], result of:
0.17213258 = score(doc=1117,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.47527373 = fieldWeight in 1117, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0625 = fieldNorm(doc=1117)
0.5 = coord(2/4)
- Abstract
- Das vorliegende Skript soll eine Einführung für Anfänger sein und einen leichten Einstieg in das Internet-Leben, insbesondere in 'Studentenmail' ermöglichen. An vielen Stellen sind die Arbeitsschritte detailgenau anhand von Mitschnitten nachzuvollziehen. Wir haben hiermit genau das verfaßt, was wir in unserer eigenen Einstiegsphase vermißt haben: ein Skript, das Neulinge und vor allem Computer-Laien an die Hand nimmt und durch die Netzwerke UKLAN and Internet führt