-
Spitz, A.L.; Wilcox, L.D.: Classification techniques applied to the recognition of office documents (1988)
0.10
0.0972828 = product of:
0.3891312 = sum of:
0.3891312 = weight(_text_:hermes in 137) [ClassicSimilarity], result of:
0.3891312 = score(doc=137,freq=2.0), product of:
0.47346604 = queryWeight, product of:
7.438788 = idf(docFreq=70, maxDocs=44421)
0.063648276 = queryNorm
0.8218777 = fieldWeight in 137, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.438788 = idf(docFreq=70, maxDocs=44421)
0.078125 = fieldNorm(doc=137)
0.25 = coord(1/4)
- Source
- Wissensorganisation im Wandel: Dezimalklassifikation - Thesaurusfragen - Warenklassifikation. Proc. 11. Jahrestagung der Gesellschaft für Klassifikation, Aachen, 29.6.-1.7.1987. Hrsg.: H.-J. Hermes u. J. Hölzl
-
Hermes, H.-J.: AG "Bibliotheken" (AG-BIB) und AG Dezimalklassifikation (AG-DK) : Gemeinsame Tagung der AG-BIB und AG-DK (2005)
0.09
0.09166976 = product of:
0.18333952 = sum of:
0.045760866 = weight(_text_:und in 4654) [ClassicSimilarity], result of:
0.045760866 = score(doc=4654,freq=56.0), product of:
0.14116545 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063648276 = queryNorm
0.32416478 = fieldWeight in 4654, product of:
7.483315 = tf(freq=56.0), with freq of:
56.0 = termFreq=56.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4654)
0.13757865 = weight(_text_:hermes in 4654) [ClassicSimilarity], result of:
0.13757865 = score(doc=4654,freq=4.0), product of:
0.47346604 = queryWeight, product of:
7.438788 = idf(docFreq=70, maxDocs=44421)
0.063648276 = queryNorm
0.29057765 = fieldWeight in 4654, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.438788 = idf(docFreq=70, maxDocs=44421)
0.01953125 = fieldNorm(doc=4654)
0.5 = coord(2/4)
- Abstract
- Die Arbeitsgruppe Bibliotheken (AG BIB) gestaltete wie gewohnt zwei volle Verhandlungstage - wieder gemeinsam mit der AG Dezimalklassifikationen. Organisatorisch ist zu berichten, daß die Arbeitsgemeinschaft sich nunmehr eine Struktur innerhalb der GfKl verordnet hat mit einem gewählten Vorsitzenden (Hermes). Nach wie vor geht es den Bibliothekaren aber um inhaltliche Arbeit im Sinne des bibliothekarischen Beitrags zur Festschrift der GfKI von 2001: "Neues hat Vorrang". Des weiteren sei dem nachfolgenden Tagungsbericht vorangestellt, daß die Langfassungen der Magdeburger Referate wiederum auf den Archivserver MONARCH der Technischen Universität Chemnitz aufgespielt werden. Die einzelnen Beiträge können über die Adresse MONARCH - http://archiv.tu-chemnitz.de/ erreicht werden oder über Suchmaschinen, die über die Eingabe von Autornamen und/oder Titelwörtern schnellstens zum gewünschten Ziel führen.
- Content
- "Inhaltlich hatte sich die AG BIB in den zurückliegenden Jahrestagungen überwiegend den Fragestellungen nach elementaren Sachverhalten in der Inhaltserschließung (Cottbus, Dortmund) zugewandt mit der Konzentration bspsw. auf das Controlling von bibliothekarischen Funktionen. Nach der Abarbeitung dieses Feldes war nunmehr das - kontrastierende - Bedürfnis entstanden zur globalen Betrachtung unseres Arbeitsfeldes. Gefragt war in Magdeburg vor allem die "Draufsicht" auf die Informationslandschaft. Das hierzu passende Leitreferat lieferte Prof. Dr. Jürgen KRAUSE, Leiter des Informationszentrums Sozialwissenschaften, Bonn. Sein Thema: "Informationswesen / Sacherschliessung in Deutschland. Lösungsansätze für eine WeIt der polyzentrischen Informationsversorgung". Ausgehend von einer Informationsversorgung, die in Zeiten des Web unvermeidlich polyzentrisch ist, konzentrierte Krause sich auf die in der heutigen Informationslandschaft vorhandene - und zu überwindende - Heterogenität. Seine Leitlinie: "Standardisierung von der Heterogenität her zu denken". Ein Beispiel: Mit dem genormten Schlagwort "Evaluationsforschung" aus der SWD finden sich in der Universitäts- und Stadtbibliothek 56 Treffer, in der Datenbank SOLIS dagegen 0. Die Suche in SOLIS, durchgeführt mit dem entsprechenden gültigen Schlagwort "wissenschaftliche Begleitung" hätte zu 327 Treffern geführt. Krauses Fazit: angemessenes Retrieval (zu erreichen durch Standardisierung) hilft die "offene Zange" schließen. Seine Rezepte hierzu: Crosskonkordanzen und algorithmische Metadatenermittlung. Beispiele für erste Einsätze dieser Instrumente waren VASCODA und infoconnex. Wobei weitere Forschungen zur bilateralen Vagheitsbehandlung anstehen.
Patrice LANDRY von der Schweizerischen Landesbibliothek, Bern, berichtete über "The recent history of European cooperation: from the "need" to cooperate to the will` to cooperate". Er zeichnete kurz die letzten 25 Jahre verbaler Sacherschließung in den USA und den europäischen Ländern nach, die im 21. Jahrhundert in das Projekt MACS mündete. MACS wird es beispielsweise einem englischsprachigen Benutzer gestatten, seine Suchanfrage englisch einzugeben und Erträge über international verlinkte vielsprachige Suchformulierungen zu bekommen. Nadine SCHMIDT-MÄNZ vom Institut für Entscheidungstheorie u. Unternehmensforschung, Universität Karlsruhe, berichtete über "Suchverhalten im Web: Empirische Ergebnisse". Rund 6000 Benutzer von Suchmaschinen füllten den von ihr hergestellten Online-Fragebogen aus. Einige ihrer Erkenntnisse: Als Suchmaschine wurde mit 91,3 Google benutzt. Die Monopolstellung von Google war den Suchenden nicht bewußt. Einer der Schlüsse der Referentin: Es mangelt nicht an Suchmaschinen, sondern an der "Weiterentwicklung" der Suchenden. Klaus LOTH, Zürich, führte neue Suchverfahren in der Eidgenössischen Technischen Hochschulbibliothek Zürich vor. Das vormals unter dem Akronym ETHICS geschätzte Retrievalsystem wird durch noch bessere Routinen übertroffen - mittlerweile unter der Kurzbezeichnung NEBIS - , die im wesentlichen auf Computerlinguistik basieren. Erschlossen werden Dokumente in englischer, französischer und deutscher Sprache. Kerstin ZIMMERMANN, DERI Innsbruck, stellte herkömmliche Portale vor sowie sog. "Ontologien". Diese erwachsen aus den elementaren Fragen nach "What" (topic), "Who" (person), "When" (time/event), "Where" (location) und "How" (meta). Entscheidend bei den Ontologien: Zur Erstellung ist einiger Aufwand notwendig, der aber sich in Mehrwert auszahlt. Mehr dazu unter http://sw-portal.deri.org/ontologies/swportal.html.
Aus der Truppe der Beiträger, die überwiegend dezimalklassifikatorische Beiträge lieferten, gab Magda HEINER-FREILING, Die Deutsche Bibliothek, Frankfurt, einen Sachstandsbericht zum Projekt "DDC Deutsch" und eine Vorausschau auf die zu erwartenden Dienstleistungen. Festzuhalten ist an dieser Stelle nur soviel, dass die Sachgruppen der Deutschen Nationalbibliografie seit Jahrgang 2004 auf DDC umgestellt sind; damit wurde unsere laufende Nationalbibliografie von einer hausgemachten Systematik in eine international gebräuchliche Klassifikation überführt. Dies entsprach auch der Empfehlung, die im Jahre 1998 von einer Expertenkommission des damaligen Deutschen Bibliotheksinstituts gegeben wurde, die überwiegend mit Mitgliedern der Gesellschaft für Klassifikation besetzt war. Mehr dazu findet sich unter www .ddc-deutsch.de Dr. Andreas STUMM von der Universitätsbibliothek "Georgius Agricola" der Technischen Universität Berbauakademie Freiberg (UB Freiberg) stellte GEO-LEO vor, definiert als die "Virtuelle Fachbibliothek für Geowissenschaften, Bergbau, Geographie und Thematische Karten". GEO-LEO entstand - DFG-gefördert - aus der Zusammenarbeit der geo- und montanwissenschaftlichen Sondersammelgebietsbibliotheken UB Freiberg und der Niedersächsischen Staats- und Universitätsbibliothek Göttingen. Der Nutzer von www.geo-leo.de adressiert mit seiner Suchanfrage (sozusagen unwissentlich) über Z39.50 die OPACs in Freiberg, Göttingen und diejenigen der Partnerbibliotheken GFZ in Potsdam und der ETH-Bibliothek in Zürich. Darüberhinaus werden die Aufsätze in den Online Contents des Anbieters Swets OLC (SSG Geowissenschaften) gefunden sowie über HTTP die herkömmlichen internet-Erträge aus Geo-Guide. Aufgewertet wurden die Retrievalerträge der beteiligten OPACs durch Konkordanzleistung in der Weise, daß klassifikatorische Verbindungen gelegt wurden zwischen Klassifikaten der UDC, DDC und BK sowie der sog. GOK (Göttinger Onlineklassifikation). Dagmar ROTHE, Stellvertretende Vorsitzende der AG Dezimalklassifikationen, lieferte einen Anwenderbericht betreffend ihre Bibliothek. Gegenstand war dementsprechend die Hochschulbibliothek der Hochschule für Technik, Wirtschaft und Kultur (HTWK) in Leipzig. Die entscheidende Charakteristik dieser Bibliothek ist, dass die Bestände nach der Wende durchgängig nach der UDK klassifiziert werden und nach UDK aufgestellt sind. Die gegenwärtige Schwierigkeit der Bibliothek besteht darin, dass das für Sachsen eingeführte OPAL-System Libero in der Version 5.0 anders als die Vorgängerversionen die sachliche Recherche nach DK-Notationen nicht mehr unterstützt. Insoweit schließt der Anwenderbericht mit einer "offenen Frage". Hans-Ulrich SEIFERT von der UB Trier stellte mit dem von der DFG geförderten Projekt Krünitz ein in jeder Hinsicht außergewöhnliches Digitalisierungsvorhaben vor. Es geht um die 140.000 Druckseiten der in 242 Bänden vorliegenden Oekonomisch-Technologischen Encyklopädie von Johann Georg Krünitz, die zwischen 1773 und 1858 entstand. Die Digitalisierung der 140.000 Druckseiten ist inzwischen erfolgt; als problematisch erwies sich gleichwohl, dass allein der lange Erscheinungszeitraum das seinige dazu tat, dass inhaltlich zusammengehörige Sachverhalte an vielerlei Alphabetstellen auftauchen. Hier setzen die Trierer Fachleute die DDC zur Klassifizierung aller Lemmata und Bilder ein und erreichen eine sachliche Gliederung und eine Gesamtschau, die in der Papierausgabe nicht zu erreichen war. Ein Beispiel: Das Suchwort Bier ergab 2.558 Treffer. Mehr hierzu unter www.kruenitz.uni-trier.de Damit endet die Nachlese über die beiden Verhandlungstage anläßlich der GfKl-Jahrestagung in Magdeburg. Sie soll nicht schließen ohne ein Dankeschön an die Universitätsbibliothek Magdeburg und ihre Mitarbeiter, die unsere beiden Arbeitsgruppen in ihrem architektonisch und funktional glänzend gelungenen Neubau freundlich aufgenommen und professionell bestens unterstützt haben."
-
Hawk, J.: OCLC SiteSearch (1998)
0.09
0.086440206 = product of:
0.34576082 = sum of:
0.34576082 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
0.34576082 = score(doc=3079,freq=4.0), product of:
0.4485617 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063648276 = queryNorm
0.7708211 = fieldWeight in 3079, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3079)
0.25 = coord(1/4)
- Abstract
- Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.09
0.086440206 = product of:
0.34576082 = sum of:
0.34576082 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.34576082 = score(doc=2673,freq=4.0), product of:
0.4485617 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063648276 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
-
Weiße, A.: AG Dezimalklassifikation (AG DK) (2002)
0.08
0.07976362 = product of:
0.15952724 = sum of:
0.042787895 = weight(_text_:und in 2693) [ClassicSimilarity], result of:
0.042787895 = score(doc=2693,freq=34.0), product of:
0.14116545 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063648276 = queryNorm
0.30310458 = fieldWeight in 2693, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2693)
0.116739355 = weight(_text_:hermes in 2693) [ClassicSimilarity], result of:
0.116739355 = score(doc=2693,freq=2.0), product of:
0.47346604 = queryWeight, product of:
7.438788 = idf(docFreq=70, maxDocs=44421)
0.063648276 = queryNorm
0.24656332 = fieldWeight in 2693, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.438788 = idf(docFreq=70, maxDocs=44421)
0.0234375 = fieldNorm(doc=2693)
0.5 = coord(2/4)
- Abstract
- Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim statt. Das Programm bot ein breites Spektrum der klassifikatorischen Sacherschließung. In ihrem Vortrag unter dem Thema "Aktuelle Anwendungen und Entwicklungen der DDC" berichtete Frau Esther Scheven (DDB Frankfurt) über die Projekte "RENARDUS" und "DDC Deutsch". Das EU-Projekt RENARDUS (http://www.renardus.org) ist ein Recherchesystem für Internet-Fachinformationsführer mit einer gemeinsamen Suchoberfläche, in dem die DDC als CrossBrowse-Instrument eingesetzt wird. Die RENARDUS-Partner haben jeweils eine Konkordanztabelle von ihrer lokalen Klassifikation zur DDC erstellt. Das Klassifikationssystem DDC wurde deshalb bevorzugt, weil es online verfügbar ist, in verschiedene europäische Sprachen übersetzt wurde, einen weltweiten Anwenderkreis habe und zum Cross-Browsen besser geeignet sei als das Klassifikationssystem UDC. Anhand von geographischen Schlagwörtern wurde untersucht, inwieweit DDC-Notationen die Interoperabilität der Erschließung mit Schlagwörtern verschiedener Gateways mit unterschiedlichen Sprachen verbessern. Die DDC wird als Suchelement im Geographischen Index benutzt. Zum Projekt "DDC Deutsch" (http://www.ddb.de/professionell/ ddc info.htm) gab Frau Scheven einen kurzen Überblick über die wichtigsten Tätigkeiten und Entwicklungen. Dazu gehören die Übersetzung der 22. Auflage der DDC, die Überarbeitung der Table 2 für Deutschland und Österreich, die Überarbeitung der Sachgebiete Geschichte Deutschland, Geschichte Österreich, Parteiensysteme Deutschland. Nach Abschluß der Arbeiten wird ab 2005 in der Deutschen Nationalbibliographie (Reihe A, B und H) die DDC als Klassifikationssystem für wissenschaftliche relevante bzw. international wichtige Publikationen verwendet. Desweiteren ist vorgesehen, Schlagwörter der Schlagwortnormdatei (SWD) mit DDCNotationen zu verknüpfen. Herr Dr. Holger Flachmann (ULB Münster) stellte in seinem Vortrag "Digitale Reproduktion systematischer Zettelkataloge: Praxis, Gewinn und Grenzen am Beispiel des UDK-Kataloges der ULB Münster" ein interessantes und nachahmenswertes Projekt vor. In der ULB Münster wurde der bis 1990 nach UDK geführte Systematische Katalog (1,4 Millionen Katalogkarten mit 80 000 Systemstellen) als Imagekatalog konvertiert. Die elektronisch erfassten Systemstellen (UDK-Notationen) sind recherchierbar und mit den dazugehörigen Titeln verknüpft, die als digitale Bilder der Katalogzettel gespeichert sind. Ebenso ist die Suche mit Stichwörtern möglich.
Das Recherchesystem bietet eine Übersicht der Fachgebiete nach UDK, ein Register der Fächer (z.B. Register A-Z Wirtschaftswissenschaften), eine alphabetische Auflistung der Fächer und die systematische Gliederung der Fachgebiete mit Anzeige der Anzahl der Titelnachweise. Der von der Firma Mikro Univers GmbH Berlin erstellte digitalisierte Katalog wurde ab 1.8.02 frei geschaltet (http://altkataloge.uni-muenster.de/de/index sys.htm). Das von der ULB Münster realisierte Projekt könnte für andere Universitätsbibliotheken Anregung sein, konventionelle Systematische Zettelkataloge, die vor allem ältere wissenschaftliche Literatur nachweisen und erfahrungsgemäß in dieser Form wenig genutzt werden, in digitalisierter Form einem über die Grenzen der jeweiligen Universitätsbibliothek erweiterten Nutzerkreis zur Verfügung zu stellen. Herr Dr. Jiri Pika (ETH Zürich) referierte in seinem Vortrag "Anwendung der UDK in NEBIS in der Schweiz: ein Ausblick" über die seit etwa 20 Jahren praktizierte inhaltliche Erschließung von Dokumenten nach UDK im neuen Bibliothekssystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz http://www.nebis.ch/index.html), das das Bibliothekssystem ETHICS ablöste. Wie im System ETHICS beruht die Abfrage auf Deskriptoren in drei Sprachen (deutsch, englisch, französisch) und einer Anzahl weiterer Begriffe (Synonyme, Akronyme), womit ein benutzerfreundlicher den Gegebenheiten der multilingualen Schweiz angepasster Einstieg in die Recherche ermöglicht wird. Hinter den Deskriptoren steht eine einzige DK-Zahl, die im Hintergrund die mit ihr verknüpften Titel zusammenführt. Das von Fachreferenten gepflegte Sachregister beinhaltet etwa 63 513 Grundbegriffe (Stand 27.3.2002) mit einer DK-Zahl, die Anzahl der Zusatzbegriffe beträgt das 5 - 8fache. Die Vorzüge des Systems bestehen darin, dass unter Verwendung von Deskriptoren bei der Recherche der Zugriff sowohl auf gedruckte als auch auf elektronische Medien (etwa 2 Millionen Dokumente) möglich ist, ohne dass Kenntnisse des Klassifikationssystems erforderlich sind. Mit der Umstellung von ETHICS auf NEBIS im Jahre 1999 wurde eine neue Benutzeroberfläche angeboten und eine wesentliche Verkürzung der Antwortzeiten erreicht. Zum Anwenderkreis gehören etwa 60 Bibliotheken von Hochschulen, Fachhochschulen und Forschungsanstalten aus allen Regionen der Schweiz, z.B. ETH Zürich, Ecole Polytechnique Federale de Lausanne, weitere Schweizer Verbundbibliotheken, sowie in der Suchmaschine GERHARD (German Harvest Automated Retrieval Directory http://www.gerhard.de/gerold/owa/gerhard.create_ Index html?form-language=99). Der im Programm ausgewiesene Vortrag von Herrn Dr. Bernd Lorenz (München) zum Thema "Konkordanz RVK (Regensburger Verbundklassifikation) - DDC (Dewey Decimal Classification): Notwendigkeit und Vorüberlegungen" wurde vertretungsweise von Herrn Dr. Hans-Joachim Hermes (Chemnitz) übernommen. Bereits seit Beginn der Überlegungen, die DDC in der Deutschen Nationalbibliographie als Klassifikationssystem zu verwenden, werden auch Vorstellungen über eine Konkordanz zwischen den beiden Klassifikationssystemen RVK und DDC geäußert. Die geplante Konkordanz wird die Nutzung beider Klassifikationssysteme vergrößern. In der Darstellung wurden Probleme auf der sprachlichterminologischen Ebene, die bei den Benennungen der Notationen sichtbar werden, aufgezeigt. Nach den Fachvorträgen fand die turnusmäßige Neuwahl des Leiters der AG Dezimalklassifikationen statt. Zum neuen Vorsitzenden wurde Herr Dr. Bernd Lorenz (Bayerische Beamtenfachhochschule München) gewählt.
-
Hermes, H.-J.: Bibliothekarische Fortbildung (AG BIB) und AG Dezimalklassifikation (2003)
0.08
0.07976362 = product of:
0.15952724 = sum of:
0.042787895 = weight(_text_:und in 4653) [ClassicSimilarity], result of:
0.042787895 = score(doc=4653,freq=34.0), product of:
0.14116545 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063648276 = queryNorm
0.30310458 = fieldWeight in 4653, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4653)
0.116739355 = weight(_text_:hermes in 4653) [ClassicSimilarity], result of:
0.116739355 = score(doc=4653,freq=2.0), product of:
0.47346604 = queryWeight, product of:
7.438788 = idf(docFreq=70, maxDocs=44421)
0.063648276 = queryNorm
0.24656332 = fieldWeight in 4653, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.438788 = idf(docFreq=70, maxDocs=44421)
0.0234375 = fieldNorm(doc=4653)
0.5 = coord(2/4)
- Content
- "Erster Tag: Bibliothekarische Fortbildung zum Thema "Bibliothekarische Sacherschließung - können wir uns die noch leisten?" Der erste Veranstaltungstag in Cottbus (Dienstag) war für die traditionelle Bibliothekarische Fortbildung organisiert. Es ging diesmal um Kosten. Das Leitreferat lautete dementsprechend: "Bibliothekarische Sacherschließung - können wir uns die noch leisten?" Und der Leitreferent Dr. Klaus Ceynowa von der Staats- und Universitätsbibliothek Göttingen gab seine ExpertenAntwort mit dem ihm zu Gebote stehenden Mittel des Controlling. Heraus kam nach Abklärung der Prämissen ein "Prozesskostensatz" von 16,57 EURO pro Dokument bei einer Bearbeitungszeit von 18 Minuten im Fachreferat. Das alles berechnet nach beispielhaften Annahmen, die in der Realität einer Einzelbibliothek sicher ähnlich ausfallen würden. Eingedenk der stetig steigenden Kosten mögen in Zweifelsfällen die "Zuständigen" (die allemal in höheren Hierarchien angesiedelt sind als wir Bibliothekare) nun entscheiden, ob der Preis für das solchermaßen seriös berechnete Produkt Sacherschließung angemessen ist. Wobei zu bedenken sein würde, dass eine Literatur, die ohne sachliche Erschließung im Online-Katalog angeboten wird, noch teurer sein könnte. Man denke nur an vertane Suchzeiten am Katalog, Erhöhung der Mitarbeiterzahlen am Informationsdienst einer Bibliothek und an den worst case: Das einschlägige Buch bleibt unentdeckt im Regal stehen. Über das Produkt Sacherschließung selbst äußerte sich Dr. Holger Flachmann von der Universitäts- und Landesbibliothek Münster (Effiziente Sacherschließung als Kernaufgabe von Bibliotheken: Perspektiven und Probleme leistungsgerechter bibliothekarischer Produkte). In einem ersten Teil wurden verschiedene Ansatzmöglichkeiten vorgestellt, um die Frage nach der Effizienz der bibliothekarischen Sacherschließung zu präzisieren. Dem schloß sich als beispielhafter Anwendungsfall die Untersuchung der Effizienz eines konkreten Erschließungsverfahrens an, und zwar der verbalen Sacherschließung nach den Regeln für den Schlagwortkatalog (RSWK). Wie man die Erarbeitung des Produkts Sacherschließung wirtschaftlicher gestalten kann, war Gegenstand der Referenten Günter Peters von der Gruner + Jahr-Dokumentation, Hamburg, Prof. Dr. Harald Zimmermann, Universität des Saarlandes und Stefan Wolf vom Bibliotheksservice-Zentrum BadenWürttemberg (BSZ). Alle miteinander waren auf der Suche nach den zukunftsfähigen Erschließungsverfahren, die intellektuelle Leistungen einsparen helfen und trotzdem den Weg zur gewünschten Literatur öffnen können sollen.
Günter Peters legte eine PowerPoint-Datei vor, die er krankheitshalber nicht erläutern konnte. Dem bei Gruner + Jahr eingesetzten System DocCat attestierte er eine erhebliche Kompetenz. Umso bedauerlicher, dass in seiner Abwesenheit in Cottbus lediglich einige seiner Folien mit laienhaftem Kommentar vorgestellt werden konnten. Unser Trost: Vielleicht wird DocCat im März 2004 in Dortmund vom Kollegen Peters vorgeführt. Prof. Zimmermann war einer der Beteiligten bei der Entwicklung des Systems Milos/KASCADE (das bei der Jahrestagung der GfKI in München schon vorgestellt wurde). In Cottbus lieferte Zimmermann Gedanken zur automatisierten verbalen Sacherschließung, wobei er kurz das Milos/KASCADE-Verfahren streifte und an das von Lustig und Knorz in den 80er Jahren entwickelte Verfahren Air/Phys erinnerte. Dort "lernt" das System mit dem Anwachsen eines lexikalischen Inventars (ISBN 3-48707825-2). Leider ist die Weiterentwicklung von Air/Phys aber unterblieben. Stefan Wolf vom BSZ berichtete über den anderen Weg, Sacherschließung zu erleichtern, nämlich durch Übernahme von Fremdleistungen. Aktuelle Maßnahme hierzu war die Übernahme von Erschließungsdaten sowohl klassifikatorischer als auch verbaler Art aus dem Bibliotheks-Verbund Bayern (BVB) in die Titelaufnahmen, die der Südwestverbund vorhält. Im Frühjahr 2002 verfügte der Südwestverbund über 1,6 Millionen Schlagwortketten an 1,3 Millionen Titeln. Bei der klassifikatorischen Sacherschließung durch die Regensburger Verbundklassifikation (RVK) verfügte der Verbund über lediglich 2% Erschließung. Nach der Anreicherung der Titeldaten durch Übernahme von Bayerischen Sacherschließungsdaten im Laufe des Jahres 2002 verfügten nunmehr 2.4 Millionen Titelaufnahmen über verbale Erschließung (24,9 % von derzeit 9,6 Millionen Titeln Gesamtbestand) und über 18,2 % klassifikatorische Erschließung mit RVK. Dieser Zugang an intellektueller Indexierung fließt derzeit in die Online-Kataloge der angeschlossenen Bibliotheken und eröffnet dort den Nutzern die sachlichen Zugänge zu ihren Schätzen. Abgerundet wurde die Thematik durch Berichte aus Bibliotheken und einer sachlich nahestehenden Einrichtung, so von Jiri Pika von der ETH-Bibliothek in Zürich, Kerstin Zimmerman vom Forschungszentrum Telekommunikation Wien, Horst Lindner von der Universitätsbibliothek der Brandenburgischen Technischen Universität Cottbus und Dörte Braune-Egloff von der UB der Freien Universität Berlin. Wobei Frau Braune-Egloff deutlich machte, dass die von Ihr vertretene Bibliothek zwar zentrale Aufgaben im Bereich der SWD-Kooperation im Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV). wahrnimmt, allerdings nicht komplett diejenigen einer "Verbundzentrale Sacherschliessung" im herkömmlichen Sinn. Die Vorträge bzw. Power-Point-Präsentationen von Cottbus werden bei Erscheinen des Mitgliederbriefes bereits auf dem Archivserver MONARCH der TU Chemnitz verfügbar sein. Die Adresse: http://archiv.tu-chemnitz.de. In der Sache ein klares Eingeständnis: Noch sind wir nicht so weit, dass sich beispielsweise eine Scan-Apparatur gleichsam in ein Buch versenkt und anschließend dem Online Katalog der besitzenden Bibliothek einen oder mehrere Erschließungsdatensätze hinzufügt. Zum Glück nicht, denn dann könnten die Bibliothekare die Reise nach Dortmund von vornherein unterlassen. So wie die Dinge liegen, gibt es noch viel Neues zu entdecken und Gedanken darüber auszutauschen. Daher schon jetzt mein Aufruf: Die Dortmunder Tagung vom Dienstag, 9. bis Donnerstag, 11. März 2004 vormerken!"
-
Sprachtechnologie, mobile Kommunikation und linguistische Ressourcen : Beiträge zur GLDV Tagung 2005 in Bonn (2005)
0.08
0.075578965 = product of:
0.15115793 = sum of:
0.03441857 = weight(_text_:und in 4578) [ClassicSimilarity], result of:
0.03441857 = score(doc=4578,freq=22.0), product of:
0.14116545 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063648276 = queryNorm
0.24381724 = fieldWeight in 4578, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4578)
0.116739355 = weight(_text_:hermes in 4578) [ClassicSimilarity], result of:
0.116739355 = score(doc=4578,freq=2.0), product of:
0.47346604 = queryWeight, product of:
7.438788 = idf(docFreq=70, maxDocs=44421)
0.063648276 = queryNorm
0.24656332 = fieldWeight in 4578, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.438788 = idf(docFreq=70, maxDocs=44421)
0.0234375 = fieldNorm(doc=4578)
0.5 = coord(2/4)
- Abstract
- Die Sprachtechnologie wird mobil. Sprachtechnologische Anwendungen begegnen uns zunehmend außerhalb des Büros oder der eigenen vier Wände. Mit gesprochener Sprache steuern Benutzer ihre Mobiltelefone, fragen Datenbanken ab oder führen Geschäftsvorgänge durch. In diesen Bereichen finden eklektisch sprachwissenschaftliche Modelle Anwendung, vor allem solche, die auf linguistischen Ressourcen - wie Wortnetzen oder Ontologien - trainiert werden müssen, aber auch Modelle der Dialog-Repräsentation und -Struktur wie etwa des Turn Taking. Dieser Tagungsband vereint die Beiträge zum Hauptprogramm der Jahrestagung 2005 der Gesellschaftfür Linguistische Datenverarbeitung (GLDV), zu den Workshops GermaNetHund Turn Taking sowie die Beiträge zum GLDV Preis 2005 für die beste Abschlussarbeit.
- Content
- INHALT: Chris Biemann/Rainer Osswald: Automatische Erweiterung eines semantikbasierten Lexikons durch Bootstrapping auf großen Korpora - Ernesto William De Luca/Andreas Nürnberger: Supporting Mobile Web Search by Ontology-based Categorization - Rüdiger Gleim: HyGraph - Ein Framework zur Extraktion, Repräsentation und Analyse webbasierter Hypertextstrukturen - Felicitas Haas/Bernhard Schröder: Freges Grundgesetze der Arithmetik: Dokumentbaum und Formelwald - Ulrich Held/ Andre Blessing/Bettina Säuberlich/Jürgen Sienel/Horst Rößler/Dieter Kopp: A personalized multimodal news service -Jürgen Hermes/Christoph Benden: Fusion von Annotation und Präprozessierung als Vorschlag zur Behebung des Rohtextproblems - Sonja Hüwel/Britta Wrede/Gerhard Sagerer: Semantisches Parsing mit Frames für robuste multimodale Mensch-Maschine-Kommunikation - Brigitte Krenn/Stefan Evert: Separating the wheat from the chaff- Corpus-driven evaluation of statistical association measures for collocation extraction - Jörn Kreutel: An application-centered Perspective an Multimodal Dialogue Systems - Jonas Kuhn: An Architecture for Prallel Corpusbased Grammar Learning - Thomas Mandl/Rene Schneider/Pia Schnetzler/Christa Womser-Hacker: Evaluierung von Systemen für die Eigennamenerkennung im crosslingualen Information Retrieval - Alexander Mehler/Matthias Dehmer/Rüdiger Gleim: Zur Automatischen Klassifikation von Webgenres - Charlotte Merz/Martin Volk: Requirements for a Parallel Treebank Search Tool - Sally YK. Mok: Multilingual Text Retrieval an the Web: The Case of a Cantonese-Dagaare-English Trilingual e-Lexicon -
Darja Mönke: Ein Parser für natürlichsprachlich formulierte mathematische Beweise - Martin Müller: Ontologien für mathematische Beweistexte - Moritz Neugebauer: The status of functional phonological classification in statistical speech recognition - Uwe Quasthoff: Kookkurrenzanalyse und korpusbasierte Sachgruppenlexikographie - Reinhard Rapp: On the Relationship between Word Frequency and Word Familiarity - Ulrich Schade/Miloslaw Frey/Sebastian Becker: Computerlinguistische Anwendungen zur Verbesserung der Kommunikation zwischen militärischen Einheiten und deren Führungsinformationssystemen - David Schlangen/Thomas Hanneforth/Manfred Stede: Weaving the Semantic Web: Extracting and Representing the Content of Pathology Reports - Thomas Schmidt: Modellbildung und Modellierungsparadigmen in der computergestützten Korpuslinguistik - Sabine Schröder/Martina Ziefle: Semantic transparency of cellular phone menus - Thorsten Trippel/Thierry Declerck/Ulrich Held: Standardisierung von Sprachressourcen: Der aktuelle Stand - Charlotte Wollermann: Evaluation der audiovisuellen Kongruenz bei der multimodalen Sprachsynsthese - Claudia Kunze/Lothar Lemnitzer: Anwendungen des GermaNet II: Einleitung - Claudia Kunze/Lothar Lemnitzer: Die Zukunft der Wortnetze oder die Wortnetze der Zukunft - ein Roadmap-Beitrag -
Karel Pala: The Balkanet Experience - Peter M. Kruse/Andre Nauloks/Dietmar Rösner/Manuela Kunze: Clever Search: A WordNet Based Wrapper for Internet Search Engines - Rosmary Stegmann/Wolfgang Woerndl: Using GermaNet to Generate Individual Customer Profiles - Ingo Glöckner/Sven Hartrumpf/Rainer Osswald: From GermaNet Glosses to Formal Meaning Postulates -Aljoscha Burchardt/ Katrin Erk/Anette Frank: A WordNet Detour to FrameNet - Daniel Naber: OpenThesaurus: ein offenes deutsches Wortnetz - Anke Holler/Wolfgang Grund/Heinrich Petith: Maschinelle Generierung assoziativer Termnetze für die Dokumentensuche - Stefan Bordag/Hans Friedrich Witschel/Thomas Wittig: Evaluation of Lexical Acquisition Algorithms - Iryna Gurevych/Hendrik Niederlich: Computing Semantic Relatedness of GermaNet Concepts - Roland Hausser: Turn-taking als kognitive Grundmechanik der Datenbanksemantik - Rodolfo Delmonte: Parsing Overlaps - Melanie Twiggs: Behandlung des Passivs im Rahmen der Datenbanksemantik- Sandra Hohmann: Intention und Interaktion - Anmerkungen zur Relevanz der Benutzerabsicht - Doris Helfenbein: Verwendung von Pronomina im Sprecher- und Hörmodus - Bayan Abu Shawar/Eric Atwell: Modelling turn-taking in a corpus-trained chatbot - Barbara März: Die Koordination in der Datenbanksemantik - Jens Edlund/Mattias Heldner/Joakim Gustafsson: Utterance segmentation and turn-taking in spoken dialogue systems - Ekaterina Buyko: Numerische Repräsentation von Textkorpora für Wissensextraktion - Bernhard Fisseni: ProofML - eine Annotationssprache für natürlichsprachliche mathematische Beweise - Iryna Schenk: Auflösung der Pronomen mit Nicht-NP-Antezedenten in spontansprachlichen Dialogen - Stephan Schwiebert: Entwurf eines agentengestützten Systems zur Paradigmenbildung - Ingmar Steiner: On the analysis of speech rhythm through acoustic parameters - Hans Friedrich Witschel: Text, Wörter, Morpheme - Möglichkeiten einer automatischen Terminologie-Extraktion.
- Series
- Sprache, Sprechen und Computer. Bd. 8
-
Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998)
0.07
0.074091606 = product of:
0.29636642 = sum of:
0.29636642 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
0.29636642 = score(doc=4593,freq=4.0), product of:
0.4485617 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063648276 = queryNorm
0.6607038 = fieldWeight in 4593, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=4593)
0.25 = coord(1/4)
- Abstract
- Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
-
Reed, D.: Essential HTML fast (1997)
0.07
0.06985424 = product of:
0.27941695 = sum of:
0.27941695 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
0.27941695 = score(doc=6851,freq=2.0), product of:
0.4485617 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063648276 = queryNorm
0.62291753 = fieldWeight in 6851, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6851)
0.25 = coord(1/4)
- Abstract
- This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
-
Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997)
0.07
0.06985424 = product of:
0.27941695 = sum of:
0.27941695 = weight(_text_:java in 171) [ClassicSimilarity], result of:
0.27941695 = score(doc=171,freq=2.0), product of:
0.4485617 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063648276 = queryNorm
0.62291753 = fieldWeight in 171, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=171)
0.25 = coord(1/4)
- Abstract
- Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
-
Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996)
0.07
0.06985424 = product of:
0.27941695 = sum of:
0.27941695 = weight(_text_:java in 604) [ClassicSimilarity], result of:
0.27941695 = score(doc=604,freq=2.0), product of:
0.4485617 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063648276 = queryNorm
0.62291753 = fieldWeight in 604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=604)
0.25 = coord(1/4)
- Abstract
- Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
-
Ameritech releases Dynix WebPac on NT (1998)
0.07
0.06985424 = product of:
0.27941695 = sum of:
0.27941695 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
0.27941695 = score(doc=2782,freq=2.0), product of:
0.4485617 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063648276 = queryNorm
0.62291753 = fieldWeight in 2782, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=2782)
0.25 = coord(1/4)
- Abstract
- Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
-
OCLC completes SiteSearch 4.0 field test (1998)
0.07
0.06985424 = product of:
0.27941695 = sum of:
0.27941695 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
0.27941695 = score(doc=3078,freq=2.0), product of:
0.4485617 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063648276 = queryNorm
0.62291753 = fieldWeight in 3078, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=3078)
0.25 = coord(1/4)
- Abstract
- OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
-
Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998)
0.07
0.06985424 = product of:
0.27941695 = sum of:
0.27941695 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
0.27941695 = score(doc=4618,freq=2.0), product of:
0.4485617 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063648276 = queryNorm
0.62291753 = fieldWeight in 4618, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=4618)
0.25 = coord(1/4)
- Abstract
- Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
-
Bates, C.: Web programming : building Internet applications (2000)
0.07
0.06985424 = product of:
0.27941695 = sum of:
0.27941695 = weight(_text_:java in 130) [ClassicSimilarity], result of:
0.27941695 = score(doc=130,freq=2.0), product of:
0.4485617 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063648276 = queryNorm
0.62291753 = fieldWeight in 130, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=130)
0.25 = coord(1/4)
- Object
- Java
-
Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003)
0.07
0.06959996 = product of:
0.13919993 = sum of:
0.10478135 = weight(_text_:java in 55) [ClassicSimilarity], result of:
0.10478135 = score(doc=55,freq=2.0), product of:
0.4485617 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063648276 = queryNorm
0.23359407 = fieldWeight in 55, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.03441857 = weight(_text_:und in 55) [ClassicSimilarity], result of:
0.03441857 = score(doc=55,freq=22.0), product of:
0.14116545 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063648276 = queryNorm
0.24381724 = fieldWeight in 55, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.5 = coord(2/4)
- Content
- "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
-
Garcia Jiménez, A.; Díaz Esteban, A.; Gervás, P.: Knowledge organization in a multilingual system for the personalization of digital news services : how to integrate knowledge (2003)
0.07
0.068789326 = product of:
0.2751573 = sum of:
0.2751573 = weight(_text_:hermes in 3748) [ClassicSimilarity], result of:
0.2751573 = score(doc=3748,freq=4.0), product of:
0.47346604 = queryWeight, product of:
7.438788 = idf(docFreq=70, maxDocs=44421)
0.063648276 = queryNorm
0.5811553 = fieldWeight in 3748, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.438788 = idf(docFreq=70, maxDocs=44421)
0.0390625 = fieldNorm(doc=3748)
0.25 = coord(1/4)
- Abstract
- In this paper we are concerned with the type of services that send periodic news selections to subscribers of a digital newspaper by means of electronic mail. The aims are to study the influence of categorisation in information retrieval and in digital newspapers, different models to solve problems of bilingualism in digital information services and to analyse the evaluation in information filtering and personalisation in information agents. Hermes is a multilingual system for the personalisation of news services which allows integration and categorisation of information in two languages. In order to customise information for each user, Hermes provides the means for representing a user interests homogeneously across the operating languages of the system. A simple system is applied to train automatically a dynamic news item classifier for both languages, by taking the Yahoo set of categories as reference framework and using the web pages classified under them as training collection. Traditional evaluation methods have been applied and their shortcomings for the present endeavour have been noted.
-
Hermes, H.-J.: AG Dezimalklassifikation (AG DK) 12. März (2003)
0.07
0.06845643 = product of:
0.13691287 = sum of:
0.039630074 = weight(_text_:und in 2695) [ClassicSimilarity], result of:
0.039630074 = score(doc=2695,freq=42.0), product of:
0.14116545 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063648276 = queryNorm
0.28073493 = fieldWeight in 2695, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2695)
0.0972828 = weight(_text_:hermes in 2695) [ClassicSimilarity], result of:
0.0972828 = score(doc=2695,freq=2.0), product of:
0.47346604 = queryWeight, product of:
7.438788 = idf(docFreq=70, maxDocs=44421)
0.063648276 = queryNorm
0.20546943 = fieldWeight in 2695, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.438788 = idf(docFreq=70, maxDocs=44421)
0.01953125 = fieldNorm(doc=2695)
0.5 = coord(2/4)
- Content
- "Während im Rahmen der beiden bibliothekarischen Veranstaltungstage am 11. und 12.3.2003 eine Reihe von wichtigen Vorträgen zur Bedeutung und Entwicklung, aber auch zu Kosten bibliothekarischer Sacherschließung gehalten wurden, fand die jährliche Besprechung der AG Dezimalklassifikationen am 12.3. vormittags, also zu Beginn der 27. Jahrestagung der Gesellschaft an der Brandenburgischen Technischen Universität Cottbus statt. Zunächst war erster Redner dieser Besprechung der AG außerordentlicherweise der Vorsitzende der GfKl, Herr Prof. Dr. Opitz. Dieser äußerte dabei den Wunsch der Gesellschaft, die bibliothekarische Arbeit und dementsprechend die Arbeitsgemeinschaft Dezimalklassifikationen auf Dauer in der GfKI integriert zu wissen. Dabei würde er auch eine intensivere Verflechtung mit der Jahrestagung, auch mit ihren gesellschaftlichen Ereignissen begrüßen, um so auch persönliche Kontakte zu fördern bzw. zu ermöglichen. Ebenso wies Prof. Opitz darauf hin, daß jeder AG jährlich auch ein Finanzbeitrag der Gesellschaft zur Organisation von Vorträgen u.ä. zur Verfügung steht. Bei der Besprechung der AG selbst aktualisierten zunächst Herr Dr. Holger Flachmann (ULB Münster) und Herr Dr. Jiri Pika (ETH Zürich) ihre Berichte der Vorjahrestagung (vgl. GfKI Nr. 52 vom November 2002, S. 12). Danach gab Herr Dr. Bernd Lorenz (Bay. BeamtenFachhochschule München) einen kurzen Überblick über wichtige deutsche Literatur zum Projekt DDC Deutsch. Während der Workshop von DDB am 17.1.2001 in Frankfurt/M. die Entwicklung von DDC und UDK sowie die Bedeutung einer Konkordanzarbeit unterstrich (vgl. Dialog mit Bibliotheken 13. 2001, S. 29-31), verweist Magda Heiner-Freiling in ihrem Beitrag "Dewey in der Deutschen Nationalbibliographie" (Bibliotheksdienst 36. 2002, S. 709-715) auch auf die Unterschiede zwischen der derzeitigen Gliederung der DNBSachgruppen und der künftigen Entwicklung gemäß DDC (S. 711 f.). Sie erinnert zu Recht daran, dass "für Aufstellungszwekke von einer Weiterverwendung der bisherigen Klassifikationen im deutschsprachigen Raum auszugehen (ist), im Fall der RVK sogar von einer weiteren Verbreitung" (S. 714). Von einem "Anschluß der deutschen Bibliotheken an die amerikanische DDC" (ZfBB 50, 2003 S. 27) kann somit nicht gesprochen werden. Von grundsätzlicher Bedeutung bleibt weiterhin die Arbeit von Magda Heiner-Freiling "DDC Deutsch 22 formale, terminologische und inhaltliche Aspekte einer deutschen DDCAusgabe" (ZfBB 48. 2001, S. 333-339). Hier seien zehn Aspekte zur DDC-Arbeit herausgegriffen, denen bleibende Bedeutung zu kommt. - Es ist noch keine angemessene Berücksichtigung europäischer Belange erreicht (S. 333) - Die bekannten Terminologieprobleme (S. 336 ff.) sind auch für Bereiche von Pflanzen und Tieren anzuzeigen (S. 339). - Inhaltliche Probleme bestehen, die aber nicht relevant werden, die die meisten Bibliotheken nicht an eine Aufstellung gemäß DDC denken (S. 337). - Dementsprechend ist auch der Umfang einer DDC-Nutzung in den Bibliotheken unklar (S. 334). - Davon hängt die perspektivische Frage nach einem Bedarf an späteren Buchausgaben ab (S. 335). - Große Bedeutung kommt auch der geplanten DDCDatenbank zu (S. 335). Hierzu gibt es inzwischen Vorarbeiten. - Wichtig für die Anwendung wird die unverzichtbare Verzahnung von DDC und SWD (S. 336). - Bedeutend ist auch die Möglichkeit einer Trunkierbarkeit der Notationen (S. 336). - Ebenso ist die Erstellung von Arbeitsanweisungen vorrangig (S.337). - Denkbar große Bedeutung hat die Feststellung und Vorhersage, dass die DDC Deutsch keine "reine" Übersetzung der DDC darstellen wird, sondern zugleich Auslegung, Bearbeitung usw. (S. 335).
Die Vielfältigkeit dieses Themas war dann Gegenstand des wesentlichen Vortrags von Michael Preuss (FH Köln) "Die DDC übersetzen: ein Werkstattbericht". Es folgte eine umfangreiche Diskussion. Dieses Referat wird veröffentlicht werden und ist daher an dieser Stelle nicht ausführlich dargestellt. Gewiß wird die Thematik in späteren Besprechungen eine wichtige Rolle spielen. Neben der Publikationstätigkeit leistet DDB neben dem Expertenpool und DDC Deutsch seit Januar 2003 durch das (Internet) Informationsforum DDC Deutsch einen wichtigen Beitrag zur Information der Berufsöffentlichkeit. Die mehrfach von DDB vorgebrachte Äußerung "Wünschenswert ist in jedem Fall eine Meinungsbildung und Entscheidungsfindung auf breiter Basis" (hier M. HeinerFreiling: Bibliotheksdienst 36. 2002, S. 715) wurde nicht unerwartet, dafür aber geradezu heftig in einer Inetbib-Diskussion erfüllt, die Ende Januar 2003 etwa zwei Dutzend Äußerungen erbrachte. Neben allgemeinen Fragen wie einheitliche (Fein-) Klassifikation und dem wiederholten Hinweis auf inhaltliche Probleme der DDC wurden hier vorrangig Fragen von Sinn und Nutzen einer DDC-Anwendung angesprochen, aber auch die häufig in ihrer Bedeutung unterschätzten bzw. auch heruntergespielten Probleme von Urheberrecht, Lizenz und Folgekosten, Probleme, denen bisher im deutschen Klassifikationsbereich kaum Relevanz zukam. Weiter ist natürlich bei DDB nachzufragen, inwieweit DDB ihre Aufgabe zur national-bibliographischen Arbeit erfüllen wird, denn Erläuterungen wie "Es werden nicht alle Titel der DNB mit DDC erschlossen, nur international wichtige Literatur" (Chr. Baumann in BuB 54, 2002 S. 75 f.) führen u.a. auch zu der Fragestellung nach Sinn und Begründung einer DDC-Einführung bei der DNB, nach der Relation von Kosten und Ergebnis. Als Diskussionsbasis für die weitere Arbeit der AG listete dann der Vorsitzende B. Lorenz folgende Überlegungen auf: 1. Grundlegend für die Arbeit ist die Feststellung von (auch bisher unbekannten) Nutzern der Dezimalklassifikationen im deutschen Sprachbereich 2. Dementsprechend stellt sich die Frage nach (klassifikationsbezogenen) Kontakten dieser Nutzer untereinander 3. Wie sind Kontakte mit internationalen Gremien (UDCC) im Ablauf bzw. nach Belang einzuordnen? DACH? 4. Gibt es eine Nutzung von klassifikatorischen Fremddaten im Anwenderkreis (direkt bzw. über Verbünde) (mit Statistik dafür)? 5. Wird die DK-Arbeit insbesondere der ETH Zürich genutzt? 6. Besteht (auch inoffizielle) Arbeit am Klassifikationstext durch Anwender? Auch durch bewusste Nichtverwendung offizieller Notationen bzw. vom Text abweichende Anwendungen? Werden Verweisungen berücksichtigt? Welche Bedeutung hat der MRF? 7. In letzter Konsequenz: Verwenden die Anwender die DK? Mit Adaptionen? Oder liegen Lokalsysteme auf dem Hintergrund der DK vor? B. Gibt es Beobachtungen/Notizen zu den Unterschieden zwischen DDC und DK? 9. Besteht Interesse/Möglichkeit an derartiger Arbeit (mögliche Perspektive: Dezimal-Spezialisten auch für DDB)? 10. Wichtig wäre auch Konkordanzarbeit betreffs DDC, DK, RVK, BK (zunächst für Einzelfächer zur methodischen Erprobung) Grundsätzlich zu überprüfen sind die Möglichkeiten dieser Arbeiten in Bezug auf (auch finanzielles) Engagement von Bibliotheken und Mitarbeitern, ebenso Ausbildungs-Stätten und weiteren Interessierten."
-
Schwarz, C.: THESYS: Thesaurus Syntax System : a fully automatic thesaurus building aid (1988)
0.07
0.06809796 = product of:
0.27239183 = sum of:
0.27239183 = weight(_text_:hermes in 1429) [ClassicSimilarity], result of:
0.27239183 = score(doc=1429,freq=2.0), product of:
0.47346604 = queryWeight, product of:
7.438788 = idf(docFreq=70, maxDocs=44421)
0.063648276 = queryNorm
0.5753144 = fieldWeight in 1429, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.438788 = idf(docFreq=70, maxDocs=44421)
0.0546875 = fieldNorm(doc=1429)
0.25 = coord(1/4)
- Source
- Wissensorganisation im Wandel: Dezimalklassifikation - Thesaurusfragen - Warenklassifikation. Proc. 11. Jahrestagung der Gesellschaft für Klassifikation, Aachen, 29.6.-1.7.1987. Hrsg.: H.-J. Hermes u. J. Hölzl
-
Braeckman, J.: ¬The integration of library information into a campus wide information system (1996)
0.06
0.061122455 = product of:
0.24448982 = sum of:
0.24448982 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.24448982 = score(doc=729,freq=2.0), product of:
0.4485617 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063648276 = queryNorm
0.5450528 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=729)
0.25 = coord(1/4)
- Abstract
- Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven