-
Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001)
0.10
0.10366608 = product of:
0.41466433 = sum of:
0.41466433 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
0.41466433 = score(doc=2050,freq=2.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.9343763 = fieldWeight in 2050, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2050)
0.25 = coord(1/4)
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.10
0.1035003 = product of:
0.2070006 = sum of:
0.17277682 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.17277682 = score(doc=729,freq=2.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.38932347 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.034223776 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.034223776 = score(doc=729,freq=8.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
-
Flachmann, H.: Zur Effizienz bibliothekarischer Inhaltserschließung : Allgemeine Probleme und die Regeln für den Schlagwortkatalog (RSWK) (2004)
0.10
0.10196629 = product of:
0.20393258 = sum of:
0.056183312 = weight(_text_:und in 4553) [ClassicSimilarity], result of:
0.056183312 = score(doc=4553,freq=44.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.40227795 = fieldWeight in 4553, product of:
6.6332498 = tf(freq=44.0), with freq of:
44.0 = termFreq=44.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4553)
0.14774927 = weight(_text_:hohem in 4553) [ClassicSimilarity], result of:
0.14774927 = score(doc=4553,freq=2.0), product of:
0.4905077 = queryWeight, product of:
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.06297082 = queryNorm
0.30121705 = fieldWeight in 4553, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.02734375 = fieldNorm(doc=4553)
0.5 = coord(2/4)
- Abstract
- A Einleitung Eine effiziente Sacherschließung gehört zum Selbstverständnis qualitätsbewusster und an Wirtschaftlichkeit orientierter Bibliotheken. Dies gilt gerade im Kontext weltweit vernetzter digitaler Informationsstrukturen, an denen Bibliotheken seit Beginn partizipieren und in denen sie sich medial neu konstituieren. Denn die Suchmöglichkeiten in elektronischen Medien haben eine verstärkte Nachfrage nach sachlich aufbereiteter Information ausgelöst. Für jedermann intuitiv einsichtig ist dies bei Internetrecherchen mit ihren oft nach Tausenden zählenden, fragmentierten Treffermengen, die eine Folge diverser und inhomogener, unzureichend beschriebener Materialien sind. In elektronischen Bibliothekskatalogen, im Unterschied zu den Zettelkatalogen, sind mehr als die Hälfte aller Recherchen sachliche Suchanfragen. Hierauf durch Maßnahmen zur sachlichen Erschließung der eigenen Bestände einzugehen, liegt sowohl im Benutzerinteresse' wie auch im wohlverstandenen Eigeninteresse der Bibliotheken. Von ihnen verlangt ökonomische Rationalität und Verantwortlichkeit, ihrem mit hohem Aufwand an Ressourcen systematisch aufgebauten Dokumentenbestand umfassend Wirksamkeit zu verleihen, indem sie ihn gerade auch sachlich anbieten. Dabei soll das thematische Literaturinteresse der Benutzer zuerst mit den vor Ort verfügbaren Dokumenten befriedigt werden können. Diese konsequente und zielgerichtete, möglichst umfassende Nutzung des eigenen Bibliothekspotentials vermögen bestandsunabhängige Formen der Sacherschließung wie etwa die fachbibliographische nicht zu gewährleisten. Sie leiten im Gegenteil von vornherein auf Literatur, die vor Ort häufig nicht vorhanden ist und die durch die für Bibliotheken und Benutzer gleichermaßen kostenintensive Fernleihe oder andere Formen der Dokumentenlieferung beschafft werden muss. Das Interesse der Bibliothek an der Sacherschließung ihrer Bestände korreliert auch ansonsten mit dem Benutzerinteresse. So bleibt denjenigen, deren Suche sich konkret auf das am Ort vorhandene, bedarfsorientierte Literatur- und Medienangebot der Bibliothek richtet, die aufwendigere bibliographische Recherche erspart. Doch liegt es auch generell im Nutzerinteresse, die unmittelbar verfügbare Literatur ballastfrei, schnell und vor allem vergleichsweise einfach sachlich ermitteln zu können. Hierfür bietet die bibliothekarische Sacherschließung über alle Fächer hinweg einheitliche und gleichförmige Recherchemöglichkeiten. Gegenüber den vielen, insofern disparaten, komplizierteren, umständlicheren und langwierigen Suchen in gedruckten oder elektronischen Fachbibliographien bedeutet dies nicht nur eine Reduktion von Komplexität, sondern auch einen rechenbaren Zeitgewinn.
Natürlich gilt das in Abhängigkeit vom Bibliotheksbestand nur bis zu einem bestimmten Grad an spezialisiertem Bedarf. Doch durch die Zusammenführung gleichförmiger bibliothekarischer Daten in überregionalen und internationalen virtuellen Katalogen macht die bibliothekarische Sacherschließung inzwischen auch spezielle Literatur zugänglich, die über das Angebot einzelner Bibliotheken hinausgeht. Kumulativ tendiert sie zum vollständigen, universellen sachbibliographischen Nachweis selbständiger Dokumente. Zusätzlich zur Reduktion von Aufwand treten spezifisch qualitative Benutzungsaspekte hinzu, die das Interesse an einer effizienten Sacherschließung in Bibliotheken begründen. So besitzt die bibliothekarische Inhaltserschließung gegenüber der Fachbibliographie eine grundsätzlich höhere Aktualität beim Nachweis neu erschienener Titel. Außerdem findet das genannte Interesse der Bibliothek an der möglichst intensiven Nutzbarkeit der eigenen Bestände seine Entsprechung bei denjenigen Nutzern, die mit ihrer thematischen Suche den Bibliotheksbestand erschöpfend auswerten möchten. Die Sacherschließung vermag hier die Sicherheit und das subjektive Zutrauen zu stärken, vorhandene Literaturbestände ausgeschöpft und für den eingesetzten Rechercheaufwand ein optimales Ergebnis erzielt zu haben. Nicht zuletzt eröffnet sie dann auch die Möglichkeit, Bibliotheksbestände inhaltlich zu bewerten und die Nutzung zusätzlicher Sachinformationsmittel besser einzuschätzen. Durch die Effizienzfrage wird die bibliothekarische Sacherschließung konsequent nicht als gegebene, sondern als konzipier-, überprüf- und optimierbare Größe verstanden. Demzufolge ist es notwendig, Erschließungskonzepte und -praxis mit den genannten und weiteren, präziser formulierten Anforderungen zu konfrontieren und daraufhin zu untersuchen, ob und inwiefern sie diesen Kriterien entsprechen. In welche Richtung die Untersuchung dabei geht, hängt von der Ausprägung des Effizienzbegriffes im konkreten Anwendungsbereich ab. Im folgenden sollen daher zunächst Aspekte einer effizienten bibliothekarischen Sacherschließung allgemeiner skizziert werden. Von hierher wird sich die anschließende Analyse der RSWK präziser bestimmen und einordnen lassen.
-
Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996)
0.10
0.10193701 = product of:
0.20387402 = sum of:
0.13822144 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
0.13822144 = score(doc=2567,freq=2.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.31145877 = fieldWeight in 2567, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.06565259 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
0.06565259 = score(doc=2567,freq=46.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.47007886 = fieldWeight in 2567, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.5 = coord(2/4)
- Abstract
- Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
- Classification
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
- RVK
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
-
Hauer, M.; Diedrichs, R.: Zwischenbilanz Collaborative Catalog Enrichment (2009)
0.10
0.10132042 = product of:
0.20264085 = sum of:
0.054891568 = weight(_text_:und in 135) [ClassicSimilarity], result of:
0.054891568 = score(doc=135,freq=42.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.39302891 = fieldWeight in 135, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=135)
0.14774927 = weight(_text_:hohem in 135) [ClassicSimilarity], result of:
0.14774927 = score(doc=135,freq=2.0), product of:
0.4905077 = queryWeight, product of:
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.06297082 = queryNorm
0.30121705 = fieldWeight in 135, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.02734375 = fieldNorm(doc=135)
0.5 = coord(2/4)
- Content
- Leseprobe: "Bibliothek sind Information Retrieval Systeme Bibliotheken sind nicht chaotische Sammlungen von Medien, sondern sie werden stets als Information Retrieval Systeme implementiert, denn das Wiederfinden bei exakten und bei vagen Anfragen ist von Anfang an das Sammlungsziel. Niemand kennt zum Zeitpunkt der Sammlung die Fragestellung, welche einen zukünftigen Benutzerzu diesem Medium führen soll. Die Art der Sammlungsorganisation bestimmt in hohem Maße die zukünftig mögliche Antwortmenge und deren informatorische Qualität. Viele Sammler kennen die einzelnen Medien recht gut durch eigene Lektüre oder Nutzung, durch Verarbeitung der Inhalte in eigenen Schriften, durch Kenntnis der Autoren oder durch Einschätzungen, Empfehlungen, Meinungen von anderen. Diese Sammler sind "Antwortmaschinen" - können oft mit hoher Präzision und angepasst auf den Kenntnisstand des Fragenden Erklärungen geben, welche aus einer Summe von Medieninhalten gelernt wurden. Genau diesen Typ wünschen sich die meisten Benutzer, führt er doch schnell, fachlich ausgewogen und verständlich ans Ziel. Der nicht ganz so begabte Sammler oder Sammler deutlich größerer Medienmengen kann nur mehr oder weniger gut, auf einzelne Medien oder Mediengruppen hinführen, gibt aber keine fachliche Auskunft mehr - sondern liefert nur Hinweise auf mögliche "Antwort-Container". Zumindest seit der berühmten Bibliothek von Alexandria hilft dieser Sammler seinem eigenen Gedächtnis mit kurzen Notizen nach: Listen von Titeln, von Autoren, von Themen und Referenzen auf den Standort. Praktischer als geschriebene Listen sind wegen der leichteren Sortierbarkeit Karteikarten. Der digitale Record in den Datenbanksystemen der Bibliotheken ist logisch nichts anderes, nur deutlich schneller sortierbar. Als sich in den Siebziger Jahren die heutigen Bibliothekssysteme entwickelten, entschieden sich fast alle Anbieter für zumeist relationale Datenbank-Management-Systeme als Basis-Technologie - gut bewährt in Lagerverwaltung und Buchhaltung in Wirtschaft und Verwaltung. In Welten mit sehr wenig Textinformation. Vage Suche war im Ansatz nicht vorgesehen, ging es doch zunächst nur um digitale "Karteikarten".
Information Retrieval, Digitalisierung, Speichersysteme, Virtualisierung und Weiterentwicklungen der Datenbank-Management-Systeme erlauben heute aber, dass Katalog und Medium technisch zusammenfallen und eine ganz neue Qualität erreichen können. Kataloganreicherung, wie seit 2002 von der Gruppe um dandelon.com betrieben - angefangen hat es in Bibliotheken in Vorarlberg, Liechtenstein und Schweiz, heute zählt Deutschland, Norwegen, Schweden und Italien dazu - versucht Information Retrieval-Technologie mit den relationalen Datenbanksystemen der Bibliotheken zusammen zubringen. Dazu werden mehr Daten benötigt, als die bisherigen bibliothekarischen Titelbeschreibungen hergeben. Sprachverarbeitungskonzepte sind notwendig, um die Vielfalt der Sprache wieder einzufangen und neue Konzepte für die Anzeige die-serTexte oder anderen Datentypen. Kataloganreicherung ist die derzeit technisch sinnvolle Voraussetzung zum Einsatz von moderner Information Retrieval-Technologien in Bibliotheken. Deren Einsatz ist bei Bibliotheksverbünden auf dem Vormarsch. Die maschinelle Indexierung - mit linguistischen und/oder statistischen Methoden - ist ein mögliches Verfahren in Information Retrieval-Systemen, dessen Resultate auch direkt in "klassischen" OPAC-Systemen nachgenutzt werden kann und damit auch dort eine Recherche auf breiterer terminologischer Basis gestattet. Diese Erweiterung des OPACs um die maschinellen Indexierungsergebnisse stand bei der Vorarlberger Landesbibliothek, dem Pionier unter den "Kataloganreichern" und wohl noch immer größten Einzel-Produzenten, schon 2002 vor der Anzeige der Inhaltsverzeichnisse im Vordergrund. Die maschinelle Indexierung aus intelligentCAPTURE kann leicht in die Kataloge übernommen werden. Schon bald zeigte sich aber im jeweiligen Bibliothekssystem das fehlende Ranking. 2004 startete deshalb "dandelon.com". Die maschinelle Indexierung wird in homöopathischer Dosis in den HEBIS-Katalog übernommen und kommt derzeit beim GBV. Für die Deutschen Nationalbibliothek hat Frau Direktor Dr. Niggemmann auf dem Deutschen Bibliothekartag 2009 in Erfurt die maschinelle Indexierung Klassifizierung, Extraktion weiterer Metadaten und die Ergänzung um zusätzliche Daten - auch abweichend von bisherigen Normdateien - als Projekt angekündigt und deren Übernahme in den Katalog. Ein Meilenstein! Die DNB kündigt damit den Perspektivenwechsel der bibliothekarischen Sicht hin zur Sicht des Endbenutzers an."
- Footnote
- Vgl. auch: Hauer, M., R. Diedrichs: Vom Katalog zur Bibliothek: Zwischenschritt und Zwischenstand "Kataloganreicherung". In: Bibliotheksdienst. 43(2009) H.10, S.1031-1038.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.3, S.64-72
-
Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998)
0.10
0.10120774 = product of:
0.20241548 = sum of:
0.17277682 = weight(_text_:java in 617) [ClassicSimilarity], result of:
0.17277682 = score(doc=617,freq=2.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.38932347 = fieldWeight in 617, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.02963866 = weight(_text_:und in 617) [ClassicSimilarity], result of:
0.02963866 = score(doc=617,freq=6.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.21221566 = fieldWeight in 617, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.5 = coord(2/4)
- Abstract
- Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
-
Ovid announces strategic partnerships : Java-based interface (1997)
0.10
0.09773732 = product of:
0.39094928 = sum of:
0.39094928 = weight(_text_:java in 397) [ClassicSimilarity], result of:
0.39094928 = score(doc=397,freq=4.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.8809384 = fieldWeight in 397, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=397)
0.25 = coord(1/4)
- Abstract
- Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
-
Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996)
0.09
0.09472145 = product of:
0.1894429 = sum of:
0.13822144 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
0.13822144 = score(doc=2121,freq=2.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.31145877 = fieldWeight in 2121, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.051221456 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
0.051221456 = score(doc=2121,freq=28.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.36675057 = fieldWeight in 2121, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.5 = coord(2/4)
- Content
- Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.09
0.09472145 = product of:
0.1894429 = sum of:
0.13822144 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.13822144 = score(doc=346,freq=2.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.051221456 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.051221456 = score(doc=346,freq=28.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Lepsky, K.: Automatische Indexierung des Reallexikons zur Deutschen Kunstgeschichte (2006)
0.09
0.0946217 = product of:
0.1892434 = sum of:
0.041494127 = weight(_text_:und in 80) [ClassicSimilarity], result of:
0.041494127 = score(doc=80,freq=24.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.29710194 = fieldWeight in 80, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=80)
0.14774927 = weight(_text_:hohem in 80) [ClassicSimilarity], result of:
0.14774927 = score(doc=80,freq=2.0), product of:
0.4905077 = queryWeight, product of:
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.06297082 = queryNorm
0.30121705 = fieldWeight in 80, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.02734375 = fieldNorm(doc=80)
0.5 = coord(2/4)
- Abstract
- Digitalisierungsvorhaben sorgen für eine immer größere Verfügbarkeit von Inhalten bislang ausschließlich gedruckt vorliegender Werke, zunehmend auch von ganzen Büchern. Projekte wie "Google Print" versprechen die völlige elektronische Verfügbarkeit von Informationen nahezu unabhängig von Zeit und Ort und sorgen dafür, dass die Hüter der konventionellen Information, die Bibliotheken, in Angst und Schrecken versetzt werden angesichts des befürchteten Verlusts ihrer traditionellen Rolle. Die Debatte kreist dabei eher selten um die Frage, welcher Nutzen sich konkret aus dem elektronischen Volltext ergibt: Der Nutzen steht schlichtweg außer Frage, Volltexte gelten prinzipiell als nützlich. Das ist insofern zu optimistisch, als die reine Verfügbarkeit von Information noch lange nicht fir deren sinnvolle Verwertung sorgt - die bloße Verfügbarkeit des Volltexts von Kants "Kritik der reinen Vernunft" enthebt nicht der Notwendigkeit, das Werk zu lesen und verstehen zu wollen. Lesen wird man besser auch nicht am Bildschirm sondern in der (neu-deutsch) "PrintAusgabe". Elektronische Volltexte von Büchern dienen nicht der Lektüre. Falls ihr Sinn nicht ohnehin ein rein verkaufsfördernder ist (das "Publishers Program" von Google Print erweckt in der Tat diesen Eindruck), bleibt ihr potenzieller Nutzen als Nachschlageinstrument. Nur der Volltext bietet die Möglichkeit, Informationen in einem Werk zu finden, die nicht explizit erschlossen wurden, durch ein Inhaltsverzeichnis etwa oder, eine noch günstigere Ausgangslage, durch ein Sachregister. Allerdings sind die meisten Werke nicht für einen solchen Zweck verfasst worden, d.h. es ist nicht zu erwarten, dass ein Werk über die "Geschichte des Römischen Reiches" im Volltextzugriff zu einem Lexikon zur Geschichte des Römischen Reiches wird. Entspricht also die hinter Google Print und zahllosen anderen Digitalisierungsinitiativen stehende Auffassung einem doch sehr naiven Bild von der Nützlichkeit gedruckter Information?
Seriöse Information darf erwarten, wer renommierte Nachschlagewerke befragt. Zumindest für die über die Primärordnung (Stichwort/Lemma) erschlossenen Sachverhalte ist für Buchausgaben ein gezielter Zugriff möglich, Verweisungen zwischen Artikeln sorgen für weitere Einstiege. Anzunehmen ist, dass sich der Nutzen von Nachschlagewerken in elektronischer Form noch deutlich erhöhen lässt: Produkte wie z.B. "Brockhaus multimedial" oder "Encyclopedia Britannica" sorgen mit leistungsfähigen Techniken über den wahlfreien Volltextzugriff hinaus für zahlreiche Navigations- und Recherchemöglichkeiten. Es liegt daher nahe, über eine Digitalisierung konventionell vorliegender Nachschlagewerke auch deren Anwendung zu verbessern, die im Print möglichen Zugriffsmöglichkeiten deutlich zu erweitern. Beispiele für diesen Ansatz sind die Digitalisierung der "Oekonomischen Encyklopädie" von Johann Georg Krünitz, die mit hohem Aufwand nicht maschinell (Scanning und OCR) sondern manuell realisiert wurde oder auch die im "Projekt Runeberg' , vorgenommenen zahlreichen Digitalisierungen u.a. auch von Nachschlagewerken. Ob die einfache Volltextindexierung derartig umfangreicher und - weil bereits als Nachschlagewerk konzipiert - gleichzeitig extrem verdichteter Quellen für einen größtmöglichen Nutzen der elektronischen Version ausreicht, darf zu Recht bezweifelt werden. In kommerziellen Produkten sorgen daher zusätzliche Techniken für einerseits thematisch gezielte Zugriffe auch über Nicht-Stichwörter, andererseits für Querverbindungen zu möglicherweise weiteren Artikeln von Interesse ("Wissensnetz" des Brockhaus, "Knowledge Navigator" der Britannica). Es darf angenommen werden, dass derartige Techniken dabei auf Informationen aufsetzen können (Strukturierung der Artikel, gekennzeichnete (getaggte) Personennamen, Querverweise etc.), die in den zu verarbeitenden Artikeln in nutzbarer Form vorliegen. Für digitalisierte Druckausgaben kommen derartige Verfahren nicht in Frage, weil lediglich flache, noch dazu in der Regel mit OCR-Fehlern behaftete Texte vorliegen. Die Zugriffsmöglichkeiten bewegen sich daher zwischen der 1:1-Umsetzung der Druckausgabe, d.h. dem Primärzugriff über Stichwort, und der Volltextsuche auf den vollständigen Lexikontext. Beides ist angesichts der im elektronischen Volltext liegenden Möglichkeiten sicher nicht die Methode der Wahl. Für die Digitalisierung des "Reallexikons zur Deutschen Kunstgeschichte" im Rahmen des von der Deutschen Forschungsgemeinschaft geförderten Projekts "RDKWeb" wird daher versucht, mit den Mitteln der Automatischen Indexierung eine Lösung zu erzielen, die über eine reine Volltextsuchmöglichkeit hinaus Suchunterstützungen bietet, die sich an den Fähigkeiten kommerzieller Produkte orientieren (nicht messen!).
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.09
0.09282165 = product of:
0.1856433 = sum of:
0.13822144 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.13822144 = score(doc=6889,freq=2.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.047421858 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.047421858 = score(doc=6889,freq=24.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.09
0.09282165 = product of:
0.1856433 = sum of:
0.13822144 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.13822144 = score(doc=1642,freq=2.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.047421858 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.047421858 = score(doc=1642,freq=24.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
St. Clair, G.: Beyond degrees : professional learning for knowledge services (2003)
0.09
0.09281121 = product of:
0.18562242 = sum of:
0.05898019 = weight(_text_:und in 3301) [ClassicSimilarity], result of:
0.05898019 = score(doc=3301,freq=66.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.42230386 = fieldWeight in 3301, product of:
8.124039 = tf(freq=66.0), with freq of:
66.0 = termFreq=66.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3301)
0.12664224 = weight(_text_:hohem in 3301) [ClassicSimilarity], result of:
0.12664224 = score(doc=3301,freq=2.0), product of:
0.4905077 = queryWeight, product of:
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.06297082 = queryNorm
0.25818604 = fieldWeight in 3301, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.0234375 = fieldNorm(doc=3301)
0.5 = coord(2/4)
- Footnote
- Rez. in BuB 56(2004) H.2, S.148-149 (J. Plieninger): "Guy St. Clair wagt mit diesem Buch den ganz großen Wurf, er diskutiert nicht weniger als ein neues Profil für die Informationsberufe, deren Aus- und Fortbildung sowie ein Entwicklungskonzept für das Wissensmanagement in Unternehmen. Im Informationsmanagement ist er als Autor wohl bekannt - er gibt bei Saur die Reihe heraus, in der auch dieses Buch erschienen ist-, im Bibliothekswesen war er für den Bereich der One-Person Librarians (OPL) von Bedeutung, stand er doch in den USA und auch in Deutschland am Anfang deren »Bewegung«. Nun also ein neues Berufsbild und neue Ausbildungsformen als Entwurf, sagen wir gleich: als Utopie. Schauen wir aber ein wenig genauerhin. Zertifizierte Aus- und Fortbildung Am Anfang seiner Überlegungen steht die These, dass keiner der herkömmlichen Informationsberufe - Bibliothekar, Dokumentar und Archivar - den Anforderungen so ganz entspricht, dass auch die Aus- und Fortbildung für diese Berufe im Argen liegt, wie Schließungen von Hochschulen und fortwährende Studiengangs- und Curriculumsrevisionen zeigen. Er versucht daher, den gordischen Knoten zu durchschlagen, indem er einen neuen Beruf des »Knowledge Workers« konzipiert, der sich aus der Konvergenz des Informationsmanage ments, Wissensmanagements und des strategischen, arbeitsorientierten Lernens ergeben soll. Obwohl er zu Anfang neben Spezialbibliotheken auch wissenschaftliche und Offentliche Bibliotheken diskutiert, beziehen sich seine späteren Überlegungen vor allem auf die Spezial- und hier insbesondere auf die Firmenbibliotheken beziehungsweise -informationszentren. Und auch hier sind es weniger die kleinen und mittleren Firmen mit ihren One-Person Libraries als die großen Firmen mit umfangreicheren Informationsdienstleistungseinheiten, auf die seine Überlegungen passen. Bei ihnen soll, ähnlich den Firmen-»Universitäten«, wie wir sie bereits von großen Konzernen her kennen, ein »Knowledge Services Learning Institute« implementiert werden, das die Ausund Fortbildung für die im Informationssektor Beschäftigten organisieren und zertifizierte Kurse und Abschlüsse anbieten soll.
Dadurch wäre gewährleistet, dass die Aus- und Fortbildung nahe an den aktuellen Bedürfnissen der Arbeitsstelle und doch nach hohem Standard durchgeführtwird. Für die Zertifizierung der Kurse und Abschlüsse soll ein unabhängiges, internationales »Knowledge Council« eingerichtetwerden, das neben der Zertifi-zierung auch Forschung betreiben und einen Austausch ermöglichen soll. Es werden also internationale Standards angestrebt, die die Qualitätssicherung und Vergleichbarkeit der bei den lokalen Trägern angesiedelten Fortbildung gewährleisten sollen. Konzept fiir große Verhältnisse Das Ziel dieses Konzepts ist die Einführung eines Systems des professionellen Lernens für Wissensarbeiter, das der Wissensentwicklung und der Wissensverteilung (»Knowledge Development and Knowledge Sharing«) im Unternehmen direkt zugute kommen soll. Ziel soll ein exzellenter Service im Wissensmanagement sein und ein sich selbst verstärkender Prozess des Lernens der Organisation in Gang gebrachtwerden. Man könnte St. Clair vorwerfen, dass seine mit vielen Zitaten aus der Managementliteratur versehenen Überlegungen nicht konkret genug seien, er möchte aber erklärtermaßen erst einmal einen Rahmen abstecken, in dem so etwas funktionieren könnte. Und das macht er gut: In den Kapiteln, in denen es um die Einführung des Lernzentrums geht, werden knüppeldick strategische Hinweise samt Checklisten gegeben, wie man das innerhalb der Firma angehen kann, um ein solches Projekt einzuführen. Am Anfang der Konzeption steht beispielsweise ein »LearningAudit«, der ähnlich dem aus dem Bibliotheksmanagement bekannten »Information Audit« die Bedürfnisse und Strukturen im Aus- und Fortbildung erhebt. Und da St. Clair Management aus dem Effeff kann, sind auch die folgenden Schritte hervorragend beschrieben. Die Vision und ihre Umsetzung kann also sehr gut nachvollzogen werden.
Schwerpunkt betriebliche Bildung Wie schon gesagt, es ist ein Konzept, das auf große Verhältnisse passt. Eine Anpassung der primär auf Firmen bezogenen Überlegungen an größere wissenschaftliche und Öffentliche Bibliotheken wäre leichter zu vollziehen als eine Anpassung an kleinere Einheiten. Hier wäre eine solche permanente Fortbildung innerhalb des Trägerrahmens sicher schwer zu organisieren und ihr eine solche Priorität einzuräumen, wie St. Clair es vorschlägt. Wenn aber die Ausund Fortbildung Träger übergreifend, beispielsweise bei einem Regionalverband, organisiert wird, verpufft der starke Impuls, der auf die Organisation selbst zurückwirken soll. Weiter stimmt skeptisch, dass das Konzept sich ganz und gar auf die betriebliche Bildung stützt. Wie wir aus mannigfachen Umstrukturierungsprozessen von Organisationen wissen, wird da oft lediglich mit Begriffen an der Oberfläche operiert, ohne dass - beispielsweise aus Gründen der Macht oder der Trägheit von Mitarbeitern - tiefere Veränderungen stattfinden. Blaupause für Veränderungsprozesse Insofern also ist dieser Rahmen nur bedingt tauglich für eine Umsetzung. Dennoch gehört dieses Buch nicht nur in die Hand von Hochschullehrern, Bibliotheksleitern und von Managern größerer Firmen, sondern auch in die Hand jener, die mit der Weiterentwicklung des Informationswesens betraut oder daran interessiert sind: Selbst wenn keine Umsetzung eins zu eins infrage kommt, so ist der Text sehr inspirierend für die Antwort auf die Frage, wie die Aus- und Fortbildung vor dem Hintergrund steigender Anforderungen in Folge der Entwicklung des Informationsbedarfs hin zu einem Wissensbedarf umstrukturiert werden könnte. Und nicht nur das: Von St. Clair kann man allemal lernen, wie man einen Veränderungsprozess strukturell anpacken kann. Der Text eignet sich daher sowohl als großes Konzept oder als »Denkpartner« für eigene konzeptionelle Überlegungen. Inspirierend ist er allemal, das beigefügte Sachregister hilft beim punktuellen Zugriff auf einzelne Sachverhalte."
-
Toebak, P.M.: Records Management : Gestaltung und Umsetzung (2010)
0.09
0.09281121 = product of:
0.18562242 = sum of:
0.05898019 = weight(_text_:und in 522) [ClassicSimilarity], result of:
0.05898019 = score(doc=522,freq=66.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.42230386 = fieldWeight in 522, product of:
8.124039 = tf(freq=66.0), with freq of:
66.0 = termFreq=66.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=522)
0.12664224 = weight(_text_:hohem in 522) [ClassicSimilarity], result of:
0.12664224 = score(doc=522,freq=2.0), product of:
0.4905077 = queryWeight, product of:
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.06297082 = queryNorm
0.25818604 = fieldWeight in 522, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.0234375 = fieldNorm(doc=522)
0.5 = coord(2/4)
- BK
- 85.20 / Betriebliche Information und Kommunikation
- Classification
- 85.20 / Betriebliche Information und Kommunikation
- Footnote
- Rez. in: ZfBB 58(2011) H.2, S.108 (R. Schneider): "Kürzlich, während eines Vortrags zum Knowledge Management eines der weltweit grössten Wirtschaftsprüfer, überraschte eine Zuhörerin den Vortragenden mit einer simplen Frage: »Brauchen Sie nicht eigentlich Records Management?« Darauf der sichtlich überrumpelte Referent: »Was meinen Sie mit Records Management?« Soviel zum Stand der Dinge und zur Verankerung des Themas in der aktuellen Betriebslandschaft. Insofern trifft es sich gut, dass nach dem lange erwarteten Handbuch zum Records Management nun das Folgewerk mit demselben Haupttitel sowie dem Untertitel Gestaltung und Umsetzung von Peter Toebak erschienen ist. Der ungleich schlankere Band widmet sich - wie es der Untertitel andeutet - der konkreten Realisierung des betrieblichen Aktenmanagements und tut dies vor allen Dingen anhand eines Zehn-Schritte-Plans, der nach einer Einleitung und einer Rekapitulation der Kernproblematik des Records Management im dritten Kapitel vorgestellt und den folgenden vier Kapiteln ausführlich ausgearbeitet und in allen Details extemporiert wird. Die einzelnen Schritte dieses Plans reichen dabei von der Definition der Methodik (1) und der Identifikation des Umfelds (2) über die Identifikation der Prozesskategorien (3) und die Definition der Records-Serien (4) zu den eher applikationsorientierten Arbeitschritten. Diese umfassen nach der Identifikation der Anwendungen (5), die Integration der Systemlandschaft mit dem EDRMS (= Electronic Documentary Records Management System) (6), die Definition weiterer Attribute (7), die Auswahl und Installation des EDRMS (8) sowie die Umsetzung des EDRMS (9) und dessen Evaluation (10).
Über allen Ausführungen steht jedoch gleichsam das Mantra der Synonymie von Dossier und Prozess, wobei Synonymie hier im strengeren Sinn als funktionale Äquivalenz zu verstehen ist. Um dieses zentrale Kernverständnis werden dann die weiteren essentiellen Kernbegriffe wie »item level«, »above item level«, »kleiner und grosser Lebenszyklus«, »Compliance« und schlussendlich das Herzstück des RM, das »Masterdossier«, ausführlich diskutiert und in den rechten Kontext zur Deckungsgleichheit von Dossier und Prozess gebracht. Wie schon im Handbuch erweist sich der Verfasser in seiner Kompetenz nicht nur als Kenner, sondern auch als Meister des Metiers und unterstreicht dies durch eine detaillierte Bezugnahme auf angrenzende Quellen, so dass die Lektüre der teilweise äußerst umfangreichen einzelnen Kapitel, die allerdings nur sehr flach strukturiert sind, immer erhellend bleibt und die Notwendigkeit einer Umsetzung des Records Management unterstreicht. Der Leser wird Zeuge eines enormen Reflektionsprozesses, der sich auch an den sorgfältig ausgearbeiteten Anhängen mit den dort vorhandenen Literaturangaben und dem Glossar der wichtigsten Begriffe zeigt. Jedoch hätte man dem Buch neben einem weiträumigeren Textspiegel, grösseren Abständen zwischen Zeilen und Absätzen und leserlicheren Illustrationen ein etwas strengeres Lektorat gewünscht, welches die sehr häufigen Exkurse entweder deutlicher abgehoben oder ganz gestrichen hätte. So ist der Leser ständig gefordert, dem auf hohem akademischen Niveau mäandernden, bisweilen ausufernden Gedankenstrom mit höchstmöglicher Aufmerksamkeit zu folgen. Andererseits muss bei aller Kritik an den sowohl formalen als auch inhaltlich übervollen Seiten auch das Bemühen um Vollständigkeit und Einbettung in den wissenschaftlichen Gesamtkontext honoriert werden. Daran fehlt es diesem Buch wahrlich nicht; an manchen Stellen hätte man sich nur etwas mehr konkrete Beispiele gewünscht, um die Komplexität der Materie besser zu veranschaulichen. So könnte man sich vorstellen, in einer neuen Auflage den Zehn-Schritte-Plan am Fallbeispiel einer imaginären Firma oder Verwaltung zu illustrieren, wie dies beispielsweise Helmut Krcmar in seinem Standardwerk zum Informationsmanagement anhand der Rockhaus AG tut.
Möglich wäre dies auch in einem dritten Band desselben Autors, der die Kürze und Struktur eines Vademekums haben sollte. Dieses Vademekum könnte dem Records Manager als handlicher Leitfaden und Nachschlagewerk für die jeweils umzusetzenden Projekte dienen. Zudem könnte es dem allgemeinen Management die Notwendigkeit des Records Management vor Augen führen und eine konkrete Entscheidungshilfe zur Gestaltung der allgemeinen Richtlinien sein. Denn eines steht dem Leser nach der Lektüre klar vor Augen: Es braucht mehr Records und weniger Knowledge Management sowie eine sinnvolle Verzahnung dieser beiden Disziplinen mit dem sie stützenden Informationsmanagement. Records Management ist dabei nicht nur ein Scharnier zwischen Informationsmanagement und Knowledge Management und der alles umfassenden Informationstechnologie, sondern kann vielmehr zum Dreh- und Angelpunkt einer effizienten betrieblichen Verwaltung werden. Wenn auch die allgemeine Managementebene bereit ist, diese strukturelle Notwendigkeit zu erkennen, dann steht der von Peter Toebak beschriebenen Gestaltung und Umsetzung nichts mehr im Wege."
- Imprint
- Baden : hier + jetzt, Verl. für Kultur und Geschichte
-
Mengham, R.: Im Universum der Wörter : über Ursprung, Funktion und Vielfalt menschlicher Sprache (1995)
0.09
0.08999591 = product of:
0.17999183 = sum of:
0.053349584 = weight(_text_:und in 3254) [ClassicSimilarity], result of:
0.053349584 = score(doc=3254,freq=54.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.38198817 = fieldWeight in 3254, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3254)
0.12664224 = weight(_text_:hohem in 3254) [ClassicSimilarity], result of:
0.12664224 = score(doc=3254,freq=2.0), product of:
0.4905077 = queryWeight, product of:
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.06297082 = queryNorm
0.25818604 = fieldWeight in 3254, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.0234375 = fieldNorm(doc=3254)
0.5 = coord(2/4)
- Abstract
- "Der Turmbau zu Babel beschäftigt seit Jahrtausenden die Einbildungskraft von Künstlern und Wissenschaftlern. Er steht für den Höhepunkt sprachlichen Ehrgeizes, gilt als 'Fallhöhe', von der die existierenden Sprachen herabgestürzt sind. Der verrückte Versuch, mit einem Bauwerk die Kluft zwischen Erde und Himmel zu schließen, bringt ein tiefes menschliches Bedürfnis zum Ausdruck: den Wunsch nach einer Sprache, die die Welt der Erscheinungen nicht nur wiedergibt, sondern in gewisser Hinsicht selbst hervorbringt. In der Sprache Gottes haben Worte Schöpferkraft, und die Bibelstelle "Im Anfang war das Wort" deutet an, daß unser Bewußtsein von der Welt erst dann richtig erwacht, wenn wir die Worte, die uns Namen für sie geben, aussprechen oder aufschreiben. Der Abstieg vom Turm kommt demnach einem weiteren Sündenfall, dem Versinken in Anarchie und sprachlicher Isolierung gleich. Und doch steht der Augenblick des Chaos in dem biblischen Mythos für die gesamte Menschheitsgeschichte, für das Auseinanderdriften und die gelegentliche Wiederannäherung eines mannigfaltigen sprachlichen Erbes. Das vorrangige Interesse dieses Buches spiegelt sich im Auf- und Absteigen der Erbauer des babylonischen Turmes: Nicht eine originäre Idealvorstellung von Sprache, sondern die Verworrenheit der menschlichen Verhältnisse wird als Quelle sprachlicher Kreativität und Grundvoraussetzung für die Entwicklung eines Gefühls von Identität und Zugehörigkeit verstanden, wobei der Wiederabstieg zur Erde als positive Bewegungsrichtung betrachtet wird. Mit der 'absteigenden Linie' in einem anderen Sinne ist angesprochen, worauf ich mich bei der Beschäftigung mit der facettenreichen Entwicklung der Sprache in der Geschichte von Gesellschaften und im Leben von Individuen konzentriere: auf Herkunft, Abstammung, Vererbung.
Auf den Stammbaum - ein schon früh in die Diskussion eingeführtes Modell für die sprachliche Evolution - greife ich zurück, da großenteils aus dem behandelten historischen Material selbst der Glaube an Formen von Kontinuität und Veränderung spricht, wie sie in Familiengeschichten zum Tragen kommen. Die Familiengeschichte als gesellschaftliche Konzeption, auf der man repressiv beharren, die man aber auch subversiv mit den Möglichkeiten innovativen Wandels konfrontieren kann, bleibt in dieser Untersuchung stets im Blickfeld. Durch die Betrachtung verschiedener Gesellschaftsstrukturen und historischer Epochen soll der sprachliche Raum erkundet werden, den der amerikanische Linguist Edward Sapir wie folgt skizziert: Man gibt sich einer Illusion hin, wenn man glaubt, bei der Einstellung auf die Wirklichkeit komme man im wesentlichen ohne die Sprache aus, bei der es sich lediglich um ein individuelles Hilfsmittel zur Lösung spezifischer Kommunikations- oder Reflexionsprobleme handele. Tatsächlich verhält es sich so, daß die reale Welt` unbewußt in hohem Maße auf den Sprachgewohnheiten der Gruppe errichtet ist ... Die Art unseres Sehens, Hörens und sonstigen Erlebens ist weitgehend dadurch bestimmt, daß die Sprachgewohnheiten unserer Gemeinschaft die Wahl bestimmter Interpretationen nahelegen. Sapirs autoritative Beschreibung der Rolle von Sprache in menschlichen Gesellschaften ist weithin unumstritten, das letzte Wort ist damit freilich noch nicht gesprochen. In einer Zeit, in der naturwissenschaftliche Untersuchungen den Nachweis erbracht haben, daß bestimmte sprachliche Elemente jeder gesellschaftlichen Formierung vorausliegen und in der künstliche, von Menschen entworfene und ausgearbeitete Sprachen zentrale Lebensbereiche erfaßt haben, kann Sapirs These lediglich den Ausgangspunkt für eine dringend notwendige Debatte über den Ort der Sprache in der Welt bilden.
William Golding vermittelt in seinem Roman The Inheritors, in dem er sich das Leben in prähistorischen Gesellschaften vorzustellen versucht, einen lebhaften Eindruck davon, wie Menschen die Welt ohne Sprache oder vielmehr mit ersten Anfängen einer Sprache erlebt haben könnten. Eine Gruppe Neandertaler, die sich um das Feuer schart, wird folgendermaßen beschrieben: Als die Wärme sie durchdrang, entspannten sie die Glieder und sogen dankbar den Rauch ein. Sie beugten die Zehen und streckten die Arme und rückten sogar ein wenig vom Feuer ab. Wieder kam jene tiefe Stille über sie, die so sehr viel natürlicher zu sein schien als Gespräch, ein zeitloses Schweigen, in dem zunächst noch Gedanken und Vorstellungen eines jeden einzelnen gegenwärtig waren - und dann vielleicht überhaupt keine Vorstellungen mehr. So vertraut klang ihnen jetzt das Brausen des Wassers, das sie zu hören vermochten, wie der Wind sanft über den Fels strich. Ihren Ohren schien Eigenleben gegeben, denn sie filterten die vielerlei schwachen Geräusche und nahmen sie in sich auf, das Geräusch des Atmens, das Geräusch des feuchten, zu Flocken werdenden Lehms und der niederfallenden Asche. Trotz der Ausdrucksstärke von Goldings Prosa wird hier eine Welt heraufbeschworen, der Denken und Analysieren sehr fremd ist. Die Neandertaler sind durchaus empfänglich für optische, taktile und akustische Reize, können sie aber nicht konzeptionell miteinander verknüpfen. Da ihre rudimentäre Sprache nicht über Zeitformen zur Unterscheidung von Vergangenheit, Gegenwart und Zukunft verfügt und auch keine Möglichkeit bietet, die Grenzen des persönlichen Wirkungsbereichs abzustecken, können die Neandertaler einzelne Erscheinungen weder räumlich noch zeitlich aufeinander beziehen. Im gewohnheitsmäßigen Schweigen verbindet sich das Denken vieler zu einem Denken, was auf gar kein Denken hinausläuft. Wahrscheinlich war das Leben eines Neandertalers von hochgradiger Diskontinuität gekennzeichnet, wurde er von Erfahrungsbruchstücken bombardiert, ohne daß er einen bedeutsamen Zusammenhang gefunden oder auch nur gesucht hätte."
-
Tsai, B.-s.: Infomapping in information retrieval (1997)
0.09
0.08977747 = product of:
0.35910988 = sum of:
0.35910988 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
0.35910988 = score(doc=3877,freq=6.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.8091937 = fieldWeight in 3877, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3877)
0.25 = coord(1/4)
- Abstract
- Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
-
Henze, G.: »Statement of International Cataloguing Principles« : Ein Grundsatzentwurf auf dem Weg zu einem internationalen Regelwerk (2004)
0.09
0.08794084 = product of:
0.17588168 = sum of:
0.04923944 = weight(_text_:und in 3164) [ClassicSimilarity], result of:
0.04923944 = score(doc=3164,freq=46.0), product of:
0.13966292 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06297082 = queryNorm
0.35255915 = fieldWeight in 3164, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3164)
0.12664224 = weight(_text_:hohem in 3164) [ClassicSimilarity], result of:
0.12664224 = score(doc=3164,freq=2.0), product of:
0.4905077 = queryWeight, product of:
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.06297082 = queryNorm
0.25818604 = fieldWeight in 3164, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.7894444 = idf(docFreq=49, maxDocs=44421)
0.0234375 = fieldNorm(doc=3164)
0.5 = coord(2/4)
- Content
- "Das »Statement of Principles« - allgemein bekannt als »Paris Principles« - wurde 1961 von der International Conference an Cataloguing Principles verabschiedet. Sein Ziel, als Basis für die internationale Standardisierung in der Katalogisierung zu dienen, ist sicherlich erreicht worden: Die meisten Katalogisierungsregelwerke, die in der Folgezeit weltweit entwickelt wurden, folgten den Prinzipien ganz oder in hohem Maß. Mehr als vierzig Jahre später ist das Bedürfnis nach gemeinsamen internationalen Katalogisierungsregeln gewachsen, weil Katalogisierer und Benutzer weltweit Opacs nutzen. Die IFLA hat einen Vorstoß unternommen, die »Paris Principles« Zielsetzungen anzupassen, die auf Online-Bibliothekskataloge und auch darüber hinaus anwendbar sind und Benutzerbedürfnissen dienen. Damit verbindet sich die Hoffnung, mit Hilfe überarbeiteter Prinzipien den internationalen Datentausch zu steigern und eine Leitlinie für die Entwicklung eines internationalen Katalogisierungsregelwerkes zu schaffen. Vom 28. bis 30. Juli 2003 fand in der Deutschen Bibliothek Frankfurt am Main das erste IFLA Meeting of Experts an an International Cataloguing Code (IME ICC) statt, zu dem auf Einladung der Sektion Katalogisierung der IFLA Regelwerksexperten aus Europa, Amerika und Australien zusammentrafen. Arbeitssprache der Konferenz war Englisch. Barbara Tillett, Vorsitzende der IFLA Sektion Katalogisierung, moderierte und leitete die Konferenz. Für eine vergleichende Untersuchung zu grundlegenden Gemeinsamkeiten und Unterschieden in den derzeit in Europa verwendeten Regelwerke waren im Vorfeld von den Regelwerksgremien »Steckbriefe« unter Verwendung eines einheitlichen Fragenkataloges erstellt worden, um Möglichkeiten einer Harmonisierung auszuloten und vielleicht sogar in naher Zukunft ein internationales Regelwerk zu entwickeln. Diese Aktivitäten werden unter dem Dach der IFLA weiter verfolgt.
Zahlreiche Vorträge auf der Konferenz informierten die Teilnehmerinnen und Teilnehmer. So präsentierte Barbara Tillett Überlegungen für eine virtuelle internationale Normdatei. Das VIAF-Projekt (Virtual International Authority File), das OCLC, die Library of Congress und Die Deutsche Bibliothek als Projektpartner gemeinsam durchführen, soll modellhaft die Möglichkeiten einer international vernetzten Normdatenarbeit ausloten, die Nutzerbedürfnisse auch in Bezug auf Sprache und Schrift berücksichtigt. John D. Byrum, Vorsitzender der IFLA ISBD Review Group, stellte die Funktionen der »International Standard Bibliographic Descriptions« (ISBD) vor. Priorität bei den ISBD-Arbeiten hat momentan der Abschluss eines generellen Revisionsprojekts der verschiedenen ISBD-Ausgaben. Ob es weniger, unter Umständen sogar nur eine Ausgabe der ISBD geben sollte, wurde in den Diskussionsbeiträgen durchaus kontrovers gesehen. Patrick Le Boeuf Vorsitzender der IFLA Working Group an FRBR (Functional Requirements for Bibliographic Records), erläuterte in seinem Vortrag das Modell der FRBR, bei dem es sich um ein Modell für ein Beziehungsgeflecht zwischen Einheiten, nicht um ein Datenmodell im engeren Sinne handelt. Er stellte in seinem Beitrag in Frage, ob eine radikale Einführung der eher abstrakten Terminologie der FRBR in ISBD und in Regelwerken wirklich eine ideale Lösung sei. Ein Schwerpunkt der Konferenz war die Arbeit und Diskussion in fünf Arbeitsgruppen, die sich mit - Personal names, - Corporate bodies, - Seriality, - Multipart structures sowie - Uniform titles and GMDs (General material designations) befassten und an allgemeinen Empfehlungen arbeiteten.
Die Teilnehmerinnen und Teilnehmer des »First IFLA Meeting of Experts an an International Cataloguing Code« haben sich auf einen Entwurf für das »Statement of International Cataloguing Principles«' geeinigt. Mittlerweile stehen bereits zahlreiche Übersetzungen in andere Sprachen zur Verfügung, darunter auch eine deutsche Übersetzung der Arbeitsstelle für Standardisierung. Die interessierte Öffentlichkeit ist eingeladen, sich mit dem Entwurf auseinanderzusetzen. Die Übersetzungen sind als Hilfsmittel für eine breitere Bekanntmachung und Diskussion gedacht. Der englischsprachige Entwurf der Erklärung ist die Basis für weitere Regionaltreffen von Regelwerksmachern und Katalogisierungsexperten in aller Welt: 2004 in Buenos Aires für die lateinamerikanischen Staaten, 2005 in Alexandria (Ägypten) für die Staaten des Mittleren Ostens, 2006 in Seoul (Korea) für die asiatischen Staaten und im Jahr 2007 in Durban (Südafrika) für die afrikanischen Staaten. Die neuen Prinzipien, die den Status eines Entwurfs haben, weiten die »Paris Principles« aus von rein textlichen Werken auf alle Materialarten und gehen über Aspekte der Bestimmung und Form einer Eintragung hinaus auch auf weitere Aspekte von bibliografischen Datensätzen und Normdatensätzen ein. Sie umfassen - Geltungsbereich, - Entitäten, Merkmale und Beziehungen, - Aufgaben des Katalogs, - Bibliografische Beschreibung, - Sucheinstiege, - Normdatensätze, - Grundlagen für Suchfunktionen. Die neuen Prinzipien bauen auf den großen Katalogtraditionen der Welt auf sowie auf den konzeptionellen Modellen der IFLA-Veröffentlichungen »Functional Requirements for Bibliographic Records« (FRBR) und »Functional Requirements and Numbering for Authority Records« (FRANAR), welche die »Paris Principles« auf den Bereich der Sacherschließung ausweiten."
-
Internet: The editor's choice (2002)
0.09
0.08638841 = product of:
0.34555364 = sum of:
0.34555364 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.34555364 = score(doc=1854,freq=2.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Hawk, J.: OCLC SiteSearch (1998)
0.09
0.085520156 = product of:
0.34208062 = sum of:
0.34208062 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
0.34208062 = score(doc=3079,freq=4.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.7708211 = fieldWeight in 3079, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3079)
0.25 = coord(1/4)
- Abstract
- Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.09
0.085520156 = product of:
0.34208062 = sum of:
0.34208062 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.34208062 = score(doc=2673,freq=4.0), product of:
0.4437873 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06297082 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib