-
Internet : Grundlagen, Technik, Anwendungen (1997)
0.11
0.10609543 = product of:
0.21219087 = sum of:
0.049609795 = weight(_text_:und in 4072) [ClassicSimilarity], result of:
0.049609795 = score(doc=4072,freq=26.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.3534097 = fieldWeight in 4072, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4072)
0.16258107 = weight(_text_:herchen in 4072) [ClassicSimilarity], result of:
0.16258107 = score(doc=4072,freq=2.0), product of:
0.48253193 = queryWeight, product of:
7.62393 = idf(docFreq=58, maxDocs=44421)
0.06329176 = queryNorm
0.33693328 = fieldWeight in 4072, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.62393 = idf(docFreq=58, maxDocs=44421)
0.03125 = fieldNorm(doc=4072)
0.5 = coord(2/4)
- Content
- ALTMANN, O. u. S. PÖHL: Information Retrieval im Internet: Bekannte Suchdienst und ihre Eigenschaften; AUER, J.: Bibliothekskooperation bei der Erschließung des Internet; BABIAK, U.: Mit einem eigenen Server im Internet: Aufbau und Betrieb populärer Internet-Dienste; BEST, H.: Den Onlinern auf der Spur: das Internetprojekt BINE in der Stadtbibliothek Bremen; CREMER, M.: Schwer im Kommen: Elektronische Bibliotheken - national und international; DUGALL, B.: Elektronische Dokumentlieferung via Internet; GUSIK, A.: Die spezifischen Probleme einer kleinen Bibliothek, die Internet anbieten will; SCHMID, C.: Einführung in das Web-Design: Gestaltung von Informationsangeboten für das World Wide Web; HOMMES, K.P. u. F. UNTIEDT: Bibliothekskataloge und Bibliotheksverbünde im Internet; KEIPER, K.: Die Nutzung von Internet an der Auskunft der Bibliothek Konstanz: ein Erfahrungsbericht; KRÄMER, M.: Die gebräuchlichsten Internet-Anwendungen und Protokolle - eine allgemeine Einführung; KUBICEK, H.: Internet und Bibliotheken - eine gesellschaftliche Herausforderung; LEHMANN, K.: Vor dem Start ins Internet: Hardware - Software - Telekommunikation; LOBECK, M.A.: "Aber keine Angst...": Literatur zum Internet - Einführungen, Nachschlagewerke, Spezialthemen; MÜLLER, H.: Die rechtlichen Espekte des Internet für Bibliotheken; OßWALD, A.: Pauschale Internet-Kompetenz ist nicht genug: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der Fachhochschule Köln - Inhalte und Erfahrungen; RAUMEL, F.: Internetkurse im Medien- und Informationszentrum Biberach: Schulungsinhalte für Einsteiger - ein Praxisbericht; PLUTAT, B.: "Zwei Leben, um alle Seiten anzuschauen...": oder Der Nutzer braucht eine gute Inhaltserschließung; RUSCH-FEJA, D. u. R. BERTELMANN: Informationsretrieval im Internet: Surfen, Browsen, Suchen - mit einem Überblick über strukturierte Informationsangebote; SAUER, C.D.: "Search, don't surf!": FirstSearch in der Zentralbibliothek Berlin (ZLB) - ein unverzichtbares Auskunftsmittel; SCHAARWÄCHTER, M.: Die Nutzung der elektronischen Kommunikation in Bibliotheken; SOETHE, F.: Intranet: Bedeutung, Praxis, Sicherheit, Kosten und Anwendungen in Bibliotheken; ULRICH, P.S.: Die Antwort ist irgendwo das draußen ...: Kooperative Auskunft mit der MailingListe 'Stumpers-L' - Arbeitsweise und Erfahrungen; VONHOF, C.: Internet als politischer Auftrag ... - und was dann? Bedingungen und Erfahrungen bei der Einführung des Internet in der Stadtbibliothek Göppingen; STIEGLITZKI, S. u. M. BRAUN: Internet: Das dreistufige Schulungskonzept der Bücherhalle Harburg
- Imprint
- Bad Honnef : Bock+Herchen
-
Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999)
0.10
0.10419443 = product of:
0.41677773 = sum of:
0.41677773 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
0.41677773 = score(doc=1743,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.9343763 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Abstract
- Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
-
Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996)
0.10
0.10419443 = product of:
0.41677773 = sum of:
0.41677773 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
0.41677773 = score(doc=2137,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.9343763 = fieldWeight in 2137, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2137)
0.25 = coord(1/4)
-
Heinicke, D.: ¬Die neue KAB (2005)
0.10
0.10410772 = product of:
0.20821545 = sum of:
0.045634374 = weight(_text_:und in 4199) [ClassicSimilarity], result of:
0.045634374 = score(doc=4199,freq=22.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.32508966 = fieldWeight in 4199, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4199)
0.16258107 = weight(_text_:herchen in 4199) [ClassicSimilarity], result of:
0.16258107 = score(doc=4199,freq=2.0), product of:
0.48253193 = queryWeight, product of:
7.62393 = idf(docFreq=58, maxDocs=44421)
0.06329176 = queryNorm
0.33693328 = fieldWeight in 4199, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.62393 = idf(docFreq=58, maxDocs=44421)
0.03125 = fieldNorm(doc=4199)
0.5 = coord(2/4)
- Abstract
- Elf Jahre nach Erscheinender letzten Ausgabe der insbesondere in den Öffentlichen Bibliotheken der »neuen« Länder angewandten »Klassifikation für Allgemeinbibliotheken« hat der Bock+ Herchen Verlag (info@bock-net.de) im Dezember 2004 eine neue, von Kathrin Lehmann und Dagmar Weber-Tamschick bearbeitete, zweibändige Ausgabe der KAB/E vorgelegt. Band 1 enthält die Gliederung und das Alphabetische Schlagwortregister (Euro 42,90, ISBN 3-88347-238-7), Band 2 das Systematische Schlagwortregister (Euro 38,90, ISBN 3-88347-239-5).
- Content
- "Unter dem Leitsatz »So wenig wie möglich, soviel wie nötig« standen in Sachsen fünf Fortbildungsveranstaltungen zur KAB/ E. Der Referentin Katrin Lehmann gelang es, den insgesamt mehr als 170 Teilnehmern die Geschichte des langwierigen und komplizierten Werdegangs der Klassifikation beziehungsweise ihrer Neubearbeitung sachgerecht zu dokumentieren. Garant für die zwingend erforderliche weitere Pflege der Klassifikationen KAB und ASB ist ein Kooperationsvertrag, abgeschlossen vom »Berufsverband Information Bibliothek - BIB«, dem Deutschen Bibliotheksverband - DBV und der ekz. (Vgl. Kathrin Lehmann und Heinz-Jürgen Lorenzen, »Was lange währt... / Die Überarbeitung der KAB/E ist abgeschlossen«, in BuB Heft 6/2004, Seite 384-385.) Die Teilnehmer der Veranstaltungen konnten sich von der Sorgfalt der geleisteten Arbeit überzeugen und in Frage und Antwort zu speziellen Details fachgerechte Auskunft erhalten. Die Öffentlichen Bibliotheken stehen nun vor der zeit- und arbeitsaufwendigen Aufgabe, die überarbeitete Klassifikation umzusetzen. Die drei sächsischen Fachstellen wiesen über die Regionaldirektion Sachsen der Agentur für Arbeit auf die Förderung von Arbeitsbeschaffungsmaßnahmen (ABM) für diesen Kraftakt hin und baten um generelle Unterstützung bei der Bewilligung von ABM durch die örtlichen Arbeitsagenturen. Im Antwortschreiben der Agentur wurde neben wichtigen Hinweisen zur Maßnahmebeantragung auch die Zusicherung gegeben, die örtlichen Agenturen zu informieren und auf die Bedeutung dieser Maßnahme im öffentlichen Interesse zu verweisen. Erste Ergebnisse in den Bibliotheken bestätigen, dass dieses Projekt bei der Vergabe von Arbeitsbeschaffungsmaßnahmen durch die örtlichen Agenturen für Arbeit Berücksichtigungfindet."
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.10
0.10402779 = product of:
0.20805559 = sum of:
0.17365739 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.17365739 = score(doc=729,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.38932347 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.0343982 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.0343982 = score(doc=729,freq=8.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
-
Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996)
0.10
0.102456555 = product of:
0.20491311 = sum of:
0.13892591 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
0.13892591 = score(doc=2567,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.31145877 = fieldWeight in 2567, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.06598719 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
0.06598719 = score(doc=2567,freq=46.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.47007886 = fieldWeight in 2567, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.5 = coord(2/4)
- Abstract
- Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
- Classification
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
- RVK
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
-
Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998)
0.10
0.10172355 = product of:
0.2034471 = sum of:
0.17365739 = weight(_text_:java in 617) [ClassicSimilarity], result of:
0.17365739 = score(doc=617,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.38932347 = fieldWeight in 617, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.029789718 = weight(_text_:und in 617) [ClassicSimilarity], result of:
0.029789718 = score(doc=617,freq=6.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.21221566 = fieldWeight in 617, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.5 = coord(2/4)
- Abstract
- Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
-
Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996)
0.10
0.09520421 = product of:
0.19040842 = sum of:
0.13892591 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
0.13892591 = score(doc=2121,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.31145877 = fieldWeight in 2121, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.051482514 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
0.051482514 = score(doc=2121,freq=28.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.36675057 = fieldWeight in 2121, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.5 = coord(2/4)
- Content
- Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.10
0.09520421 = product of:
0.19040842 = sum of:
0.13892591 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.13892591 = score(doc=346,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.051482514 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.051482514 = score(doc=346,freq=28.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.09
0.09329473 = product of:
0.18658946 = sum of:
0.13892591 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.13892591 = score(doc=6889,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.04766355 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.04766355 = score(doc=6889,freq=24.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.09
0.09329473 = product of:
0.18658946 = sum of:
0.13892591 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.13892591 = score(doc=1642,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.04766355 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.04766355 = score(doc=1642,freq=24.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
Vom Wandel der Wissensorganisation im Informationszeitalter : Festschrift für Walther Umstätter zum 65. Geburtstag. (2006)
0.09
0.09235332 = product of:
0.18470664 = sum of:
0.062770836 = weight(_text_:und in 1421) [ClassicSimilarity], result of:
0.062770836 = score(doc=1421,freq=74.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.44716617 = fieldWeight in 1421, product of:
8.602325 = tf(freq=74.0), with freq of:
74.0 = termFreq=74.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1421)
0.12193581 = weight(_text_:herchen in 1421) [ClassicSimilarity], result of:
0.12193581 = score(doc=1421,freq=2.0), product of:
0.48253193 = queryWeight, product of:
7.62393 = idf(docFreq=58, maxDocs=44421)
0.06329176 = queryNorm
0.25269997 = fieldWeight in 1421, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.62393 = idf(docFreq=58, maxDocs=44421)
0.0234375 = fieldNorm(doc=1421)
0.5 = coord(2/4)
- Abstract
- Wissensorganisation heißt, Wissen verfügbar zu machen, unabhängig davon, wo und in welcher Form es vorliegt. Die ständig wachsende Menge des Wissens in Form von - z.T. komplex strukturierten - Texten, Daten, Begriffen, Benennungen etc. stellt ein zentrales Problem unserer globalen Gesellschaft dar. Die Bibliotheks- und Informationswissenschaft beschäftigt sich sowohl mit Theorien als auch mit Systemen zur Wissensorganisation, d. h. mit Systemen zur Organisation von Informationen und dem daraus resultierenden Wissen sowie mit Retrievalsystemen und Recherchetechniken. Der erste Band der Reihe "Beiträge zur Bibliotheks- und Informationswissenschaft" beschäftigt sich mit dem "Wandel der Wissensorganisation im Informationszeitalter" und ist als Festschrift einem der engagiertesten deutschen Vertreter der Bibliotheks- und Informationswissenschaft, Prof. Dr. Walther Umstätter, zu seinem 65. Geburtstag gewidmet. Die Beiträge sind ein Spiegel der Interessenschwerpunkte des Jubilars, verfasst von Kollegen, Promovenden, Wegbegleitern auf dem weiten Feld seiner wissenschaftlichen Arbeit in Forschung und Lehre und als solche selbst z. T. langjährig und international ausgewiesene Fach-Experten. So wird im ersten Teil unter der zusammenfassenden Überschrift "Wissensorganisation im Fokus der Bibliotheks- und Informationswissenschaft" die Bibliothekswissenschaft selbst ebenso wie ihre Teildisziplin Szientometrie einer kritischen Würdigung unterzogen, zugleich werden Beispiele für bibliometrische und szientometrische Forschungsarbeiten gezeigt. Der zweite Teil umfasst das weite Spektrum der "Wissensorganisation im Fokus der Digitalen Bibliothek" mit Beiträgen zur Medientypologie, zu den Möglichkeiten und Grenzen des elektronischen Publizierens und der elektronischen Kommunikation ebenso wie der elektronischen Datenaufbereitung bis hin zu den gesellschaftlichen Möglichkeiten und Auswirkungen der Nutzung neuer Technologien, hier am Beispiel Südafrika. Der Band wendet sich sowohl an Fachwissenschaftler als auch an diejenigen, die an den aktuellen Entwicklungen im Bibliothekswesen ebenso wie in der Bibliothekswissenschaft interessiert sind, an in der Praxis stehende Bibliothekare und Bibliothekarinnen ebenso wie an Studierende des Faches. Die Beiträge werden zusätzlich zur Druckausgabe auf dem Server der Humboldt-Universität Berlin unter der URL: http://www.cms.hu-berlin.de/ frei zur Verfügung gestellt.
- Content
- Inhalt: - WISSENSORGANISATION IM FOKUS DER BIBLIOTHEKS- UND INFORMATIONSWISSENSCHAFT Herausforderung Wissensgesellschaft - Die Digitale Bibliothek zwischen Mensch, Umwelt und Politik - Olaf Eigenbrodt Gegenwart, Zukunft und Ende der Bibliothekswissenschaft - Ben Kaden Irrläufer einer missverstandenen Szientometrie - Ulrich Naumann Der Wandel des Benutzerverhaltens in Zeiten des Internet - Ergebnisse von Befragungen an 13 Bibliotheken - Frank Havemann, Andrea Kaufmann Strukturwandel der bibliometrischen Profile wissenschaftlicher Institutionen im 20. Jahrhundert - Heinrich Parthey Well-ordered Collaboration Structures of Co-Author Pairs in Journals - Hildrun Kretschmer, Theo Kretschmer Bemerkungen zur Entwicklung der Internationalität der Forschung - Bibliometrische Untersuchungen am SCI - Michael Heinz Thesauri, Klassifikationen & Co - die Renaissance der kontrollierten Vokabulare? - Philipp Mayr Digital studieren - Fernstudium ohne Distanz - Wolfgang Jänsch, Hans-Ulrich Kamke - WISSENSORGANISATION IM FOKUS DER DIGITALEN BIBLIOTHEK Umberto Ecos Betrachtung einer benützerfeindlichen Bibliothek - 25 Jahre danach - Roland Wagner-Döbler Medien - Typologie, Marketing, Trends, Mediensammlungen - Konrad Umlauf Möglichkeiten und Grenzen des elektronischen Publizierens - Peter Schirmbacher Bibliotheken und digitales Publizieren - Stephan Büttner Die Bibliothek als Publikationsort - Wolfgang Schmitz Graphische Datenanalyse für digitale Bibliotheken - Leistungs- und Funktionsumfang moderner Analyse- und Visualisierungsinstrumente - Dieter Schwartz Modell eines automatisierbaren syntaktischen Metathesaurus und seine Eignung für parlamentarische Thesauri im Internet - Martin Fenske E-Government - Noch (k)ein Thema für Bibliotheken? - Simone Fühles-Ubach Bibliotheken in Südafrika - Bindeglied zwischen Alphabetisierung und Geschichtsaneignung - Christine Gohsmann
- Footnote
- Rez. in: Online-Mitteilungen 2007, Nr.90. S.21-23 (A.-K. Weilenmann): "... Den Herausgebern des vorliegenden Buches ist es gelungen, ein interessantes Werk zusammenzustellen und damit das breite Spektrum von Umstätters Forschungstätigkeiten zu verdeutlichen. In 20 informativen Fachbeiträgen (inklusive Vorwort und einer Laudatio) kommen ehemalige Studentinnen und Berufsfachleute zu Wort. Der Band besteht aus den zwei übergeordneten Themenbereichen "Wissensorganisation im Fokus der Bibliotheks- und Informationswissenschaft" sowie "Wissensorganisation im Fokus der Digitalen Bibliothek", die nochmals einer feineren Gliederung unterzogen werden können: allgemeine Betrachtungen zur Bibliothek, Bibliothekswissenschaft im beruflichen Kontext, Szientometrie (Anwendung quantitativer Methoden zur Untersuchung der Wissenschaft, Zitatenanalysen usw.), Klassifikation und Publizieren in der Bibliothek. So finden sich z.B. Untersuchungen zur Benutzerforschung (Der Wandel des Benutzerverhaltens in Zeiten des Internet - Ergebnisse von Befragungen an 13 Bibliotheken von F. Havemann und A. Kaufmann) neben kritischen Betrachtungen zur Wissenschaftsmessung (Irrläufer einer missverstandenen Szientometrie von U. Naumann). Auch Fragen zu "Gegenwart, Zukunft und Ende der Bibliothekswissenschaft" (B. Kaden) regen zum Lesen an und ermöglichen eine Auseinandersetzung mit berufspolitischen Aspekten. Die einzelnen Artikel richten sich sowohl an ein ausgewiesenes Fachpublikum als auch an praxisorientierte Bibliothekarlnnen und an Studierende des Faches. Ein Anhang mit ausführlicher Bibliographie der Publikationen Walther Umstätters aus den Jahren 1978-2006 sowie einem Verzeichnis der Autorinnen und Autoren und einer Tabula Gratulatoria runden das Werk ab. ..."
- Imprint
- Bad Honnef : Bock+Herchen
- Series
- Beiträge zur Bibliotheks- und Informationswissenschaft; 1
-
Internet: The editor's choice (2002)
0.09
0.086828694 = product of:
0.34731477 = sum of:
0.34731477 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.34731477 = score(doc=1854,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.08
0.08074512 = product of:
0.16149025 = sum of:
0.12156017 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
0.12156017 = score(doc=6206,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.2725264 = fieldWeight in 6206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.03993008 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.03993008 = score(doc=6206,freq=22.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.5 = coord(2/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
-
Hauke, P. (Bearb.): RAK versus AACR : Projekte - Prognosen - Perspektiven. Beiträge zur aktuellen Regelwerksdiskussion. (2002)
0.08
0.0790021 = product of:
0.1580042 = sum of:
0.056391027 = weight(_text_:und in 2729) [ClassicSimilarity], result of:
0.056391027 = score(doc=2729,freq=86.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.40171778 = fieldWeight in 2729, product of:
9.273619 = tf(freq=86.0), with freq of:
86.0 = termFreq=86.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2729)
0.101613164 = weight(_text_:herchen in 2729) [ClassicSimilarity], result of:
0.101613164 = score(doc=2729,freq=2.0), product of:
0.48253193 = queryWeight, product of:
7.62393 = idf(docFreq=58, maxDocs=44421)
0.06329176 = queryNorm
0.2105833 = fieldWeight in 2729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.62393 = idf(docFreq=58, maxDocs=44421)
0.01953125 = fieldNorm(doc=2729)
0.5 = coord(2/4)
- Abstract
- Seit dem 6. Dezember 2001 steht fest: »Der Standardisierungsausschuss strebt grundsätzlich einen Umstieg von den deutschen auf internationale Regelwerke und Formate (AACR und MARC) an.« Ein Beschluss mit weitreichenden Folgen. Wie reagiert die deutsche »Bibliotheksszene« darauf? Inwieweit brächte ein Umstieg von RAK auf AACR Vor- bzw. Nachteile? Oder geht es gar nicht um einen Umstieg sondern um ein neues Regelwerk, das die Stärken von RAK als auch von AACR in sich vereinigt? Welche grundlegenden Veränderungen würden aus einem Regelwerkswechsel resultieren? Solchen und anderen Fragen geht diese Sammlung nach. In 19 aktuellen Beiträgen legen renommierte Autorinnen und Autoren ihre Sicht der Dinge dar. Es schreiben Vertreter wissenschaftlicher und öffentlicher Bibliotheken, der Spezialbibliotheken und der One-Person-Libraries sowie Repräsentanten bibliothekarischer Arbeitsgemeinschaften, der Verbünde, bibliographischer Dienste und der Berufsverbände. Der vorliegende Band verkörpert die erste kompakte Beitragssammlung zur Diskussion um RAK versus AACR. Ziel dieser Publikation ist es, den Regelwerksdiskurs in eine breitere Öffentlichkeit zu tragen. Sowohl die Autoren als auch die Herausgeberin und ihr Team von Studierenden der Bibliothekswissenschaft an der Humboldt-Universität zu Berlin hoffen mit dieser Veröffentlichung neue Denkanstöße zu geben und die Debatte zu vertiefen.
- Footnote
- Rez. in: BuB 55(2003) H.4, S.259-260 (B. Rohde): "»Nikolausbeschluss« - ein recht untypischer Fachausdruck im Bibliothekswesen. Dennoch gibt es sicherlich nur wenige Personen in den wissenschaftlichen Bibliotheken Deutschlands, die mit diesem Begriff nichts anzufangen wissen. »Der Standardisierungsausschuss strebt grundsätzlich einen Umstieg von den deutschen auf internationale Regelwerke und Formate (AACR und MARC) an«, entschied das dem Hause Der Deutschen Bibliothek angegliederte nationale Gremium für Regelwerksfragen am 6. Dezember 2001. Der geplante Umstieg vom derzeitigen nationalen Datenformat MAB und Regelwerk RAK auf das aus dem angloamerikanischen Raum stammende MARC-Datenformat (Machine Readable Cataloging) sowie das Katalogregelwerk AACR (Anglo-American Cataloging Rules), derzeit in der 1988 revidierten zweiten Ausgabe vorliegend, wurde letztes Jahr wie kein anderesThema auf breiter Basis diskutiert. Eine Gruppe Studierender am Institut für Bibliothekswissenschaft der Humboldt-Universität Berlin hat nun diese Diskussion aufgegriffen. In ihrem Publikationsprojekt unter der Leitung der Herausgeberin Petra Hauke ist es ihnen gelungen, Vertreter der unterschiedlichsten Meinungen zum Thema » RAK versus AACR« als Autoren für Einzelbeiträge in diesem Sammelband zu gewinnen. - Sachliche Diskussion - Wer die Diskussion verfolgt hat, weiß einen Teil der Autoren einer entsprechenden Meinungsfraktion ohne weiteres zuzuordnen. Die Diskussion ist auch mit Beteiligung einiger der Autoren in den fachspezifischen Mailinglisten tagesaktuell teilweise sehr heftig geführt worden. Mitunter sind die Beiträge auch durch Veröffentlichung an anderer Stelle oder durch Vorträge bereit bekannt gewesen und haben für diesen Band eine Oberarbeitung erfahren. Wenn auch der Begriff »versus« aus dem Titel den recht deutlichen emotionalen Frontverlauf zwischen Gegnern und Befürwortern des geplanten Umstiegs einfängt, so finden sich doch die Vertreter der verschiedensten Meinungsrichtungen auf einer sachlichen Ebene in diesem Buch wieder. Insofern kann es zum Verständnis der jeweiligen Gegenseite beitragen, ebenso wie zur Meinungsbildung bei Personen, die sich mit diesem Thema noch nicht intensiv beschäftigt haben. Quasi als »Repräsentantinnen« Der Deutschen Bibliothek und damit des Standardisierungsausschusses als beschlussfassendes Gremium zeigen Renate Gömpel und Gudrun Henze im einführenden Beitrag in erster Linie auf entwicklungsgeschichtlicher Ebene die Unterschiede und Gemeinsamkeiten beider Regelwerke auf. Die Vorgeschichte des Umstiegsbeschlusses wird ebenfalls nachgezeichnet sowie ein Ausblick auf die weitere Planung gegeben. Auch führt das Autorinnenduo Gründe auf, die aus Sicht Der Deutschen Bibliothek für einen Umstieg sprechen. Tatsächlich hat Die Deutsche Bibliothek als größter nationaler Datenlieferant sicherlich auch das größte Interesse an einem Umstieg aus wirtschaftlichen Gründen. Zur bisherigen Umstiegsdiskussion hat Bernhard Eversberg durch seine Online-Umfrage der breiten Bibliotheksbasis Gehör verschafft. In seiner »Theorie der Bibliothekskataloge und Suchmaschinen« erarbeitet er die gemeinsamen und unterschiedlichen Grundlagen dieser beiden Suchwerkzeuge. Er weist hierbei auch auf die Bedeutung des Datenformates hin, das getrennt von den Regelwerken zu betrachten sei. Besondere Aufmerksamkeit verdient auch der Beitrag von Luise Hoffmann; das Projekt der Machbarkeitsstudie zum Umstieg von Seiten Der Deutschen Bibliothek liegt in ihren Händen. In ihrem Beitrag hat sie die verantwortungsvolle Aufgabe übernommen, die beiden Regelwerke aufgrund ihrer inneren Struktur zu vergleichen. Gemeinsamkeiten und Unterschiede im Aufbau, bei den Bestimmungen für Haupt- und Nebeneinträge sowie den Ansetzungsregeln von Personen und Körperschaften kommen hier nicht zu kurz. Ihr Versuch, »Vorurteile abzubauen und die Gemeinsamkeiten der Regelwerke hervorzuheben«, trägt sehr dazu bei, dem strikten »versus« die Spitze zu nehmen.
- Praktische Erfahrungen - Die vorhandenen Möglichkeiten, auf diesen Gemeinsamkeiten aufzubauen ohne die nationale Regelwerkstradition zu unterbrechen, werden von Monika Münnich dargestellt. Sie nimmt besonders zum letzten Stand der ausgesetzten RAK-Generalrevision unter dem Arbeitstitel »RAK2« Stellung. Dadurch weist sie Wege auf, wie durchaus noch ein nationales Regelwerk mit guter Abstimmung auf die durch die AACR2 gesetzten internationalen Gegebenheiten entstehen könnte, wenn denn eine Weiterarbeit erfolgen würde. Der Beitrag zeigt zudem, dass tatsächlich das »versus« durch ein »und« ersetzt werden kann. Die Autorin verweist auch auf die international existierenden Reformbestrebungen (Ifla). Diese gelten den derzeit unterschiedlichen Ansetzungsregeln, die zu voneinander abweichenden Normdaten führen. Günther Hupfer ergänzt diese Ausführungen, indem er die unterschiedlichen Ansetzungsregeln und die hieraus resultierenden unterschiedlichen Normdaten im Detail untersucht. Die Katalogisierungspraxis steht im Beitrag von Michael W. Mönnich im Vordergrund. Am Beispiel der Universitätsbibliothek der Technischen Universität Karlsruhe erhält man einen Einblick in den derzeitigen Arbeitsaufwand und die Kosten, die bei der Anfertigung eines Katalogisats beziehungsweise bei der Ubernahme und Anpassung von Fremddaten anfallen - ein Plädoyer für ein schlankes und einfaches Regelwerk für alle in Bibliotheken vorhandenen Medienarten. Elena Balzardi aus der Schweizerischen Landesbibliothek berichtet über die Erfahrungen aus ihrem Hause mit MARC und AACR2. Die Schweiz ist zwar mehrsprachig, jedoch sind durch den größe ren deutschsprachigen Bevölkerungsanteil die Bibliotheken in diesem Raum eng mit dem deutschen Bibliothekswesen verbunden. Damit liegen immerhin schon seit mehreren Jahren unterschiedliche Erfahrungen mit auf deutschsprachige Bibliotheken angepasste Anwendungen dieses angloamerikanischen Datenformats und Regelwerks vor. Daneben befinden sich MARC und AACR2 bei den Bibliotheken des Deutschen Archäologischen Instituts (DIA), die einen eigenständigen kleinen Verbund gebildet haben, auf der Ebene von Spezialbibliotheken im Einsatz. Über die Gründe der Wahl und die bisherigen Erfahrungen der DIA-Bibliotheken berichtet SabineThänert. Szenarien für den Umstieg Ursula Hoffmann aus der Württembergischen Landesbibliothek Stuttgart beschäftigt sich mit den möglichen Auswirkungen eines Umstiegs auf die einzelnen Bibliotheken. Sie hat dabei besonders die diversen Normdateien (GKD, PND, SWD) im Auge, bei denen der Arbeitsaufwand zur Umarbeitung das Gros der Arbeit ausmachen würde. Besonders die gravierenden Veränderungen für die Zeitschriftendatenbank (ZDB) werden herausgestellt. Diese Ausführungen werden von einem Autorenteam, Fachleute in der Arbeit mit GKD und ZDB, weiter vertieft. Die Folgen eines Umstiegs für bibliographische Datenbanken, hier am Beispiel der Landes bibliographie von Baden-Württemberg, stellt Heidrun Wiesenmüller dar.
Thomas Berger betrachtet die Entwicklung von Regelwerken und Datenformaten aus der Sicht von Spezialbibliotheken, während Karin Aleksander zum Nebenaspekt der Umstiegsfolgen für die Frauen- und Geschlechterforschung Stellung nimmt und damit den Bogen zur verbalen Sacherschließung zieht. Walther Umstätter befasst sich mit dem Einfluss von XML auf beide Regelwerke und spricht damit die große Bedeutung von webfreundlichen Lösungen für die Zukunft an. Mit bibliothekspolitischen Thesen beschäftigen sich Heidrun Wiesenmüller, Günther Franzmeier und Annette Rath-Beckmann in ihren jeweiligen Beiträgen. Jürgen Kaestner nimmt Stellung zum Umstieg aus der Sicht eines Mitarbeiters in einer Behördenbibliothek. Im letzten Beitrag kommen von Klaus-Peter Böttger Anmerkungen aus dem Bereich der Öffentlichen Bibliotheken zum Zuge. Dieser große Bereich des deutschen Bibliothekswesens ist in der bisherigen Diskussion um Regelwerke und Formate unterrepräsentiert. Abschließend findet sich im Anhang eine Sammlung offizieller Stellungnahmen zum Regelwerksumstieg. Kurzum bietet dieses Buch eine Vielzahl von Beiträgen zu den unterschiedlichsten Aspekten des geplanten Umstiegs, zeigt die Heterogenität des deutschen Bibliothekswesens und die Fachkompetenz, Diskussionsfreudigkeit und auch Aufgewecktheit der deutschen Bibliothekarinnen und Bibliothekare in dieser Angelegenheit."
- Imprint
- Bad Honnef : Bock und Herchen
-
Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000)
0.08
0.07840678 = product of:
0.15681356 = sum of:
0.10419443 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
0.10419443 = score(doc=1729,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.23359407 = fieldWeight in 1729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.05261913 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
0.05261913 = score(doc=1729,freq=52.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.3748476 = fieldWeight in 1729, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.5 = coord(2/4)
- Abstract
- In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
-
Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006)
0.08
0.077895865 = product of:
0.15579173 = sum of:
0.10419443 = weight(_text_:java in 195) [ClassicSimilarity], result of:
0.10419443 = score(doc=195,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.23359407 = fieldWeight in 195, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.051597305 = weight(_text_:und in 195) [ClassicSimilarity], result of:
0.051597305 = score(doc=195,freq=50.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.3675683 = fieldWeight in 195, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.5 = coord(2/4)
- Abstract
- Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
- Content
- Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
-
Lehmann, K.: Was lange währt... : Die Überarbeitung der KAB/E ist abgeschlossen (2004)
0.07
0.07355885 = product of:
0.1471177 = sum of:
0.045504544 = weight(_text_:und in 3361) [ClassicSimilarity], result of:
0.045504544 = score(doc=3361,freq=56.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.32416478 = fieldWeight in 3361, product of:
7.483315 = tf(freq=56.0), with freq of:
56.0 = termFreq=56.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3361)
0.101613164 = weight(_text_:herchen in 3361) [ClassicSimilarity], result of:
0.101613164 = score(doc=3361,freq=2.0), product of:
0.48253193 = queryWeight, product of:
7.62393 = idf(docFreq=58, maxDocs=44421)
0.06329176 = queryNorm
0.2105833 = fieldWeight in 3361, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.62393 = idf(docFreq=58, maxDocs=44421)
0.01953125 = fieldNorm(doc=3361)
0.5 = coord(2/4)
- Content
- "Demnächst erscheinen im Verlag Bock + Herchen Gliederung und Alphabetisches Register der KAB/E als Teil einer neuen, zwei Bände umfassenden Ausgabe. Das dazugehörige Systematische Schlagwortregister wird noch im Sommer vorliegen. Seit der ersten Information über die Bearbeitung der ostdeutschen »Klassifikation für Allgemeinbibliotheken« (KAB) in BuB' sind mehr als zwei Jahre vergangen. Trotz der laufenden Abwicklung bot das Ehemalige Deutsche Bibliotheksinstitut (EDBI) bis zuletzt relativ gute Bedingungen für die Überarbeitung der KAB/E. Zum Zeitpunkt der endgültigen Schließung des EDBI, Ende März 2003, lag die Mehrzahl der Hauptgruppen in einer vorläufigen Endfassung vor. Der Abschluss der restlichen Hauptgruppen und die erst nach Fertigstellung der Gesamtgliederung mögliche inhaltliche Umarbeitung des Schlagwortfonds standen jedoch noch aus. Alle Bearbeitet und die Gremien des Bibliothekswesens waren sich damals einig, dass ein Abbruch der KAB-Revision zu diesem Zeitpunkt nicht zu vertreten sei. Von fast drei Jahren intensiver Arbeit wäre ein Torso geblieben: eine unvollständige Gliederung und ein noch nicht umklassifiziertes Register - in dieser Form ohne jeglichen Nutzen für die KAB-Anwender. Die im DBI/ EDBI für die KAB verantwortliche Sachbearbeiterin erklärte sich deshalb bereit, die Aufgabe bis zur Fertigstellung der Druckausgabe fortzuführen. Trotz vielfältiger Bemühungen der Partnereinrichtungen - DBV, BIB, ekz.bibliotheksservice und Fachstellen - gelang es jedoch nicht, die Weiterentwicklung und Pflege der ÖB-Klassifikationen an eine Institution zu binden. Die geplante Integration in das »Kompetenznetzwerk für Bibliotheken« war kurzfristig nicht zu erreichen. Den besonderen Bemühungen von Dr. Heinz Jürgen Lorenzen vom Vorstand des Deutschen Bibliotheksverbandes und dem Entgegenkommen der Zentralund Landesbibliothek Berlin (ZLB) ist zu verdanken, dass die Arbeit an der KAB/E ohne größere Unterbrechungen im Juni 2003 fortgesetzt werden konnte. Die ZLB gewährte Asyl, sie stellte einen Raum und die notwendige Telefon-und Internetanbindung. An dieser Stelle sei Dr. Claudia Lux und Gabriele Beger für ihre Unterstützung gedankt, ohne die es letztlich die vorliegende Druckausgabe nicht geben würde.
Alle zur Fertigstellung der KAB/E notwendigen Arbeiten an zentraler Stelle müssen seit Schließung des EDBI nebenberuflich und im Wesentlichen ehrenamtlich mit weniger als einem Drittel der damaligen Personalkapazität geleistet werden. Dies erklärt auch, warum noch fast ein Jahr bis zum Erscheinen der Druckausgabe verging. Angesichts der dünnen Personaldecke war in dieser Zeit das Engagement der Arbeitsgruppe »KAB-Überarbeitung«2 besonders gefragt. Zwei Zusammenkünfte des Gremiums fanden noch 2003 statt, ermöglicht durch Unterstützung der ekz. Auch die externen Praxisgutachter haben sich nach Schließung des EDBI dankenswerterweise weiter an der KAB-Überarbeitung beteiligt (Städtische Bibliotheken Leipzig, Stadt- und Regionalbibliothek Gera und Stadtbibliothek Schwerin). Die neue KAB-Ausgabe wird im Anhang detaillierte Informationen zur Überarbeitung von Gliederung und Register enthalten. Da außerdem seit Mai in den Fachstellenbereichen der neuen Bundesländer ganztägige Einführungsveranstaltungen zur KAB/E stattfinden, kann sich dieser Beitrag auf einige wesentliche Neuerungen beschränken. Die Überarbeitung schloss die Überprüfung der Terminologie von Gliederung und Register ein. Die Begriffsapparate wurden mit der Schlagwortnormdatei (SWD) der Deutschen Bibliothek abgeglichen, das Register zusätzlich den »Regeln für den Schlagwortkatalog« angepasst. Leider war aufgrund der schwierigen personellen Situation in der letzten Bearbeitungsphase kein durchgängiger Abgleich mehr möglich. Aber das Register zu einer Klassifikation unterliegt ohnehin anderen Gesetzmäßigkeiten als ein Schlagwortkatalog. Die Umsetzung der SWD-Vorgaben zu Vorzugsbegriff und Ver-weisungsapparat wäre hier eher kontraproduktiv. Der Benutzer soll im KAB-Register von verschiedenen Begriffsansetzungen aus zum Regalstandort geführt werden. So findet er beispielsweise neben dem SWD-Begriff »Extrakorporale Befruchtung« auch »In-vitro-Fertilisation« und »Retortenbaby«. Auf die in der SWD vorgeschriebene WortWort-Verweisung wird oft zugunsten der benutzerfreundlicheren Notationsangabe an beiden Stellen des Alphabets verzichtet.
Ziel der Bearbeitung der Gliederung war neben der Aktualisierung des Begriffsapparats die weitere Erhöhung von Transparenz und Aussagekraft der Sachgruppen. Dies wird vor allem durch viele zusätzliche Inhaltsangaben (einleitende Wendung »Hier:...«) unter den Systemstellen erreicht, ein Novum in der KAB. Während der Arbeit an den einzelnen Hauptgruppen waren zahlreiche Klassifizierungsfälle zu klären und Zuordnungs- und Abgrenzungsregeln festzulegen. Diese finden sich auch in den Erläuterungen und sind außerdem durch viele neue Verweisungen unterlegt. Damit ist es gelungen, den Gebrauchswert der Gliederung weiter zu erhöhen. Den Umfang der Änderungen sollen im Folgenden einige Zahlen verdeutlichen. In der Grundstruktur gibt es nur eine Änderung: die Ergänzung durch die Hauptgruppe Z. In dieser ausgebauten Hauptgruppe für Informatik und Datenverarbeitung sind Software (aus M) und Hardware (aus Q) zusammengefasst, eine längst überfällige Entscheidung. Für das Gebiet »Internet« stehen nun zum Beispiel sieben Untergruppen zur Verfügung, unter anderem sind die Themen Internet-Recherche, Homepagegestaltung, Kommunikation per Internet und Mobiles Internet berücksichtigt. Auf der Gruppenebene (beispielsweise L 3) gibt es wenig Änderungen. Streichungen wie Ergänzungen machen je etwa drei Prozent aller Gruppen aus. Bei den ersten Untergruppen (zum Beispiel L 33) sind etwa acht Prozent der vorhandenen Sachstellen gestrichen und etwa sechs Prozent ergänzt worden. In der untersten Ebene, der Ebene der zweiten Untergruppen (zum Beispiel L 331), die den Hauptteil der Gliederung ausmacht, findet man zwanzig Prozent Streichungen gegenüber sechzehn Prozent Ergänzungen. Schließlich gibt es mit den dritten Untergruppen eine neue Gliederungsstufe (zum Beispiel L 331.5)4. Mit insgesamt 162 Sachstellen haben sie an den gesamten Ergänzungen einen Anteil von 35 Prozent. Vorbild für alle neuen beziehungsweise zu erweiternden Gliederungsteile der KAB/E war die »Allgemeine Systematik für Öffentliche Bibliotheken« (ASB) aus dem Jahr 1999. In einigen Fällen bleibt - vor allem auf Grund der unterschiedlichen Be-stände - die KAB/E hinter der ASB zurück beziehungsweise entwickeltvorhandeneASB-Teile bereits weiter (zum Beispiel Gebiete wie Internet oder Festund Feiergestaltung). Die Neuerungen wiederum werden in die geplante Aktualisierung der 99er ASB einfließen. Dies sindwichtige Schritte zur Verwirklichung der angestrebten parallelen Klassifikationspflege von KAB und ASB. Fazit Der Zeitverzug bei der KABRevision hat sich - trotz teilweise schwieriger Bedingungen - letztlich als positiv erwiesen, machte er doch die notwendige gründlichere Prüfung der einzelnen Hauptgruppen anhand systematischer Teilregister möglich und erlaubte weitere Tests neuer Gliederungslösungen. Zum Schluss noch einmal herzlichen Dank an alle, die an der KAB-Überarbeitung mitgewirkt haben! Die gelungene Druckausgabe zeigt, dass sich zusätzlicher zeitlicher Aufwand und großes persönliches Engagement aller Beteiligten gelohnt haben. Es ist zu hoffen, dass möglichst viele KAB-Anwender die Meinung der Bearbeiter teilen werden: Was lange währt, wird gut!
-
Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998)
0.07
0.069462955 = product of:
0.27785182 = sum of:
0.27785182 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
0.27785182 = score(doc=6134,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.62291753 = fieldWeight in 6134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6134)
0.25 = coord(1/4)
- Abstract
- Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
-
Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004)
0.07
0.067354485 = product of:
0.13470897 = sum of:
0.086828694 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
0.086828694 = score(doc=3183,freq=2.0), product of:
0.44604912 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06329176 = queryNorm
0.19466174 = fieldWeight in 3183, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.04788027 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
0.04788027 = score(doc=3183,freq=62.0), product of:
0.14037473 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06329176 = queryNorm
0.34108895 = fieldWeight in 3183, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.5 = coord(2/4)
- Abstract
- Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
- Content
- "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158