-
Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004)
0.07
0.06509076 = product of:
0.13018152 = sum of:
0.083910465 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
0.083910465 = score(doc=3183,freq=2.0), product of:
0.43105784 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061164584 = queryNorm
0.19466174 = fieldWeight in 3183, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.046271063 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
0.046271063 = score(doc=3183,freq=62.0), product of:
0.13565688 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061164584 = queryNorm
0.34108895 = fieldWeight in 3183, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.5 = coord(2/4)
- Abstract
- Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
- Content
- "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
-
Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008)
0.07
0.06509076 = product of:
0.13018152 = sum of:
0.083910465 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
0.083910465 = score(doc=3331,freq=2.0), product of:
0.43105784 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061164584 = queryNorm
0.19466174 = fieldWeight in 3331, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.046271063 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
0.046271063 = score(doc=3331,freq=62.0), product of:
0.13565688 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061164584 = queryNorm
0.34108895 = fieldWeight in 3331, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.5 = coord(2/4)
- Abstract
- Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
- Footnote
- Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
-
Pisanski, J.; Zumer, M.: Mental models of the bibliographic universe : part 1: mental models of descriptions (2010)
0.06
0.06402152 = product of:
0.25608608 = sum of:
0.25608608 = weight(_text_:herein in 145) [ClassicSimilarity], result of:
0.25608608 = score(doc=145,freq=2.0), product of:
0.5324827 = queryWeight, product of:
8.705735 = idf(docFreq=19, maxDocs=44421)
0.061164584 = queryNorm
0.48092845 = fieldWeight in 145, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.705735 = idf(docFreq=19, maxDocs=44421)
0.0390625 = fieldNorm(doc=145)
0.25 = coord(1/4)
- Abstract
- Purpose - The paper aims to present the results of the first two tasks of a user study looking into mental models of the bibliographic universe and especially their comparison to the Functional Requirements for Bibliographic Records (FRBR) conceptual model, which has not yet been user tested. Design/methodology/approach - The paper employes a combination of techniques for eliciting mental models and consisted of three tasks, two of which, card sorting and concept mapping, are presented herein. Its participants were 30 individuals residing in the general area of Ljubljana, Slovenia. Findings - Cumulative results of concept mapping show a strong resemblance to FRBR. Card sorts did not produce conclusive results. In both tasks, participants paid special attention to the original expression, indicating that a special place for it should be considered. Research limitations/implications - The study was performed using a relatively small sample of participants living in a geographically limited space using relatively straight-forward examples. Practical implications - Some solid evidence is provided for adoption of FRBR as the conceptual basis for cataloguing. Originality/value - This is the first widely published user study of FRBR, applying novel methodological approaches in the field of Library and Information Science.
-
Cregan, A.: ¬An OWL DL construction for the ISO Topic Map Data Model (2005)
0.06
0.06402152 = product of:
0.25608608 = sum of:
0.25608608 = weight(_text_:herein in 718) [ClassicSimilarity], result of:
0.25608608 = score(doc=718,freq=2.0), product of:
0.5324827 = queryWeight, product of:
8.705735 = idf(docFreq=19, maxDocs=44421)
0.061164584 = queryNorm
0.48092845 = fieldWeight in 718, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.705735 = idf(docFreq=19, maxDocs=44421)
0.0390625 = fieldNorm(doc=718)
0.25 = coord(1/4)
- Abstract
- Both Topic Maps and the W3C Semantic Web technologies are meta-level semantic maps describing relationships between information resources. Previous attempts at interoperability between XTM Topic Maps and RDF have proved problematic. The ISO's drafting of an explicit Topic Map Data Model [TMDM 05] combined with the advent of the W3C's XML and RDFbased Description Logic-equivalent Web Ontology Language [OWLDL 04] now provides the means for the construction of an unambiguous semantic model to represent Topic Maps, in a form that is equivalent to a Description Logic representation. This paper describes the construction of the proposed TMDM ISO Topic Map Standard in OWL DL (Description Logic equivalent) form. The construction is claimed to exactly match the features of the proposed TMDM. The intention is that the topic map constructs described herein, once officially published on the world-wide web, may be used by Topic Map authors to construct their Topic Maps in OWL DL. The advantage of OWL DL Topic Map construction over XTM, the existing XML-based DTD standard, is that OWL DL allows many constraints to be explicitly stated. OWL DL's suite of tools, although currently still somewhat immature, will provide the means for both querying and enforcing constraints. This goes a long way towards fulfilling the requirements for a Topic Map Query Language (TMQL) and Constraint Language (TMCL), which the Topic Map Community may choose to expend effort on extending. Additionally, OWL DL has a clearly defined formal semantics (Description Logic ref)
-
Marijuán, P.C.; Moral, R.; Navarro, J.: Scientomics : an emergent perspective in knowledge organization (2012)
0.06
0.06402152 = product of:
0.25608608 = sum of:
0.25608608 = weight(_text_:herein in 1141) [ClassicSimilarity], result of:
0.25608608 = score(doc=1141,freq=2.0), product of:
0.5324827 = queryWeight, product of:
8.705735 = idf(docFreq=19, maxDocs=44421)
0.061164584 = queryNorm
0.48092845 = fieldWeight in 1141, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.705735 = idf(docFreq=19, maxDocs=44421)
0.0390625 = fieldNorm(doc=1141)
0.25 = coord(1/4)
- Abstract
- In one of the most important conceptual changes of our times, biology has definitely abandoned its mechanistic hardcore and is advancing "fast and furious" along the informational dimension. Biology has really become an information science; and, as such, it is also inspiring new ways of thinking and new kinds of knowledge paradigms beyond those discussed during past decades. In this regard, a new "bioinformational" approach to the inter-multi-disciplinary relationships among the sciences will be proposed herein: scientomics. Biologically inspired, scientomics contemplates the multifarious interactions between scientific disciplines from the "knowledge recombination" vantage point. In their historical expansion, the sciences would have recapitulated upon collective cognitive dynamics already realized along the evolutionary expansion of living systems, mostly by means of domain recombination processes within cellular genomes, but also occurring neurally inside the "cerebral workspace" of human brains and advanced mammals. Scientomics, understood as a new research field in the domain of knowledge organization, would capture the ongoing processes of scientific expansion and recombination by means of genomic inspired software (like in the new field of culturomics). It would explain the peculiar interaction maps of the sciences (scientometrics) as well as the increasing complexity of research amidst scientific and technological cumulative achievements. Beyond the polarized classical positions of reductionism and holism, scientomics could also propose new conceptual tools for scientific integration and planning, and for research management.
-
Hook, P.A.: Using course-subject Co-occurrence (CSCO) to reveal the structure of an academic discipline : a framework to evaluate different inputs of a domain map (2017)
0.06
0.06402152 = product of:
0.25608608 = sum of:
0.25608608 = weight(_text_:herein in 4324) [ClassicSimilarity], result of:
0.25608608 = score(doc=4324,freq=2.0), product of:
0.5324827 = queryWeight, product of:
8.705735 = idf(docFreq=19, maxDocs=44421)
0.061164584 = queryNorm
0.48092845 = fieldWeight in 4324, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.705735 = idf(docFreq=19, maxDocs=44421)
0.0390625 = fieldNorm(doc=4324)
0.25 = coord(1/4)
- Abstract
- This article proposes, exemplifies, and validates the use of course-subject co-occurrence (CSCO) data to generate topic maps of an academic discipline. A CSCO event is when 2 course-subjects are taught in the same academic year by the same teacher. A total of 61,856 CSCO events were extracted from the 2010-11 directory of the American Association of Law Schools and used to visualize the structure of law school education in the United States. Different normalization, ordination (layout), and clustering algorithms were compared and the best performing algorithm of each type was used to generate the final map. Validation studies demonstrate that CSCO produces topic maps that are consistent with expert opinion and 4 other indicators of the topical similarity of law school course-subjects. This research is the first to use CSCO to produce a visualization of a domain. It is also the first to use an expanded, multi-part gold standard to evaluate the validity of domain maps and the intermediate steps in their creation. It is suggested that the framework used herein may be adopted for other studies that compare different inputs of a domain map in order to empirically derive the best maps as measured against extrinsic sources of topical similarity (gold standards).
-
Yan, B.; Luo, J.: Measuring technological distance for patent mapping (2017)
0.06
0.06402152 = product of:
0.25608608 = sum of:
0.25608608 = weight(_text_:herein in 4351) [ClassicSimilarity], result of:
0.25608608 = score(doc=4351,freq=2.0), product of:
0.5324827 = queryWeight, product of:
8.705735 = idf(docFreq=19, maxDocs=44421)
0.061164584 = queryNorm
0.48092845 = fieldWeight in 4351, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.705735 = idf(docFreq=19, maxDocs=44421)
0.0390625 = fieldNorm(doc=4351)
0.25 = coord(1/4)
- Abstract
- Recent works in the information science literature have presented cases of using patent databases and patent classification information to construct network maps of technology fields, which aim to aid in competitive intelligence analysis and innovation decision making. Constructing such a patent network requires a proper measure of the distance between different classes of patents in the patent classification systems. Despite the existence of various distance measures in the literature, it is unclear how to consistently assess and compare them, and which ones to select for constructing patent technology network maps. This ambiguity has limited the development and applications of such technology maps. Herein, we propose to compare alternative distance measures and identify the superior ones by analyzing the differences and similarities in the structural properties of resulting patent network maps. Using United States patent data from 1976 to 2006 and the International Patent Classification (IPC) system, we compare 12 representative distance measures, which quantify interfield knowledge base proximity, field-crossing diversification likelihood or frequency of innovation agents, and co-occurrences of patent classes in the same patents. Our comparative analyses suggest the patent technology network maps based on normalized coreference and inventor diversification likelihood measures are the best representatives.
-
St. Jean, B.: Factors motivating, demotivating, or impeding information seeking and use by people with type 2 diabetes : a call to work toward preventing, identifying, and addressing incognizance (2017)
0.06
0.06402152 = product of:
0.25608608 = sum of:
0.25608608 = weight(_text_:herein in 4423) [ClassicSimilarity], result of:
0.25608608 = score(doc=4423,freq=2.0), product of:
0.5324827 = queryWeight, product of:
8.705735 = idf(docFreq=19, maxDocs=44421)
0.061164584 = queryNorm
0.48092845 = fieldWeight in 4423, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.705735 = idf(docFreq=19, maxDocs=44421)
0.0390625 = fieldNorm(doc=4423)
0.25 = coord(1/4)
- Abstract
- Type 2 diabetes has grown increasingly prevalent over recent decades, now affecting nearly 400 million people worldwide; however, nearly half of these individuals have no idea they have it. Consumer health information behavior (CHIB), which encompasses people's health-related information needs as well as the ways in which they interact (or do not interact) with health-related information, plays an important role in people's ability to prevent, cope with, and successfully manage a serious chronic disease across time. In this mixed-method longitudinal study, the CHIB of 34 people with type 2 diabetes is explored with the goal of identifying the factors that motivate, demotivate, or impede their diabetes-related information seeking and use. The findings reveal that while these processes can be motivated by many different factors and can lead to important benefits, there are significant barriers (such as "incognizance," defined herein as having an information need that one is not aware of) that may demotivate or impede their information seeking and use. The implications of these findings are discussed, focusing on how we might work toward preventing, identifying, and addressing incognizance among this population, ensuring they have the information they need when it can be of the most use to them.
-
Neumaier, S.: Data integration for open data on the Web (2017)
0.06
0.06402152 = product of:
0.25608608 = sum of:
0.25608608 = weight(_text_:herein in 4923) [ClassicSimilarity], result of:
0.25608608 = score(doc=4923,freq=2.0), product of:
0.5324827 = queryWeight, product of:
8.705735 = idf(docFreq=19, maxDocs=44421)
0.061164584 = queryNorm
0.48092845 = fieldWeight in 4923, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.705735 = idf(docFreq=19, maxDocs=44421)
0.0390625 = fieldNorm(doc=4923)
0.25 = coord(1/4)
- Abstract
- In this lecture we will discuss and introduce challenges of integrating openly available Web data and how to solve them. Firstly, while we will address this topic from the viewpoint of Semantic Web research, not all data is readily available as RDF or Linked Data, so we will give an introduction to different data formats prevalent on the Web, namely, standard formats for publishing and exchanging tabular, tree-shaped, and graph data. Secondly, not all Open Data is really completely open, so we will discuss and address issues around licences, terms of usage associated with Open Data, as well as documentation of data provenance. Thirdly, we will discuss issues connected with (meta-)data quality issues associated with Open Data on the Web and how Semantic Web techniques and vocabularies can be used to describe and remedy them. Fourth, we will address issues about searchability and integration of Open Data and discuss in how far semantic search can help to overcome these. We close with briefly summarizing further issues not covered explicitly herein, such as multi-linguality, temporal aspects (archiving, evolution, temporal querying), as well as how/whether OWL and RDFS reasoning on top of integrated open data could be help.
-
Cho, H.; Donovan, A.; Lee, J.H.: Art in an algorithm : a taxonomy for describing video game visual styles (2018)
0.06
0.06402152 = product of:
0.25608608 = sum of:
0.25608608 = weight(_text_:herein in 218) [ClassicSimilarity], result of:
0.25608608 = score(doc=218,freq=2.0), product of:
0.5324827 = queryWeight, product of:
8.705735 = idf(docFreq=19, maxDocs=44421)
0.061164584 = queryNorm
0.48092845 = fieldWeight in 218, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.705735 = idf(docFreq=19, maxDocs=44421)
0.0390625 = fieldNorm(doc=218)
0.25 = coord(1/4)
- Abstract
- The discovery and retrieval of video games in library and information systems is, by and large, dependent on a limited set of descriptive metadata. Noticeably missing from this metadata are classifications of visual style-despite the overwhelmingly visual nature of most video games and the interest in visual style among video game users. One explanation for this paucity is the difficulty in eliciting consistent judgements about visual style, likely due to subjective interpretations of terminology and a lack of demonstrable testing for coinciding judgements. This study presents a taxonomy of video game visual styles constructed from the findings of a 22-participant cataloging user study of visual styles. A detailed description of the study, and its value and shortcomings, are presented along with reflections about the challenges of cultivating consensus about visual style in video games. The high degree of overall agreement in the user study demonstrates the potential value of a descriptor like visual style and the use of a cataloging study in developing visual style taxonomies. The resulting visual style taxonomy, the methods and analysis described herein may help improve the organization and retrieval of video games and possibly other visual materials like graphic designs, illustrations, and animations.
-
Crowley, W.: Spanning the theory-practice divide in library and information science (2005)
0.06
0.059359837 = product of:
0.118719675 = sum of:
0.016285243 = weight(_text_:und in 1439) [ClassicSimilarity], result of:
0.016285243 = score(doc=1439,freq=12.0), product of:
0.13565688 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061164584 = queryNorm
0.12004731 = fieldWeight in 1439, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=1439)
0.102434434 = weight(_text_:herein in 1439) [ClassicSimilarity], result of:
0.102434434 = score(doc=1439,freq=2.0), product of:
0.5324827 = queryWeight, product of:
8.705735 = idf(docFreq=19, maxDocs=44421)
0.061164584 = queryNorm
0.19237138 = fieldWeight in 1439, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.705735 = idf(docFreq=19, maxDocs=44421)
0.015625 = fieldNorm(doc=1439)
0.5 = coord(2/4)
- BK
- 06.04 / Ausbildung, Beruf, Organisationen <Information und Dokumentation>
06.00 / Information und Dokumentation: Allgemeines
- Classification
- 06.04 / Ausbildung, Beruf, Organisationen <Information und Dokumentation>
06.00 / Information und Dokumentation: Allgemeines
- Footnote
- Rez. in: JASIST. 58(2007) no.4, S.606-607 (L.E. Harris): "Spanning is not a methodological "how-to"; rather it is a "how-tothink" book, intended for academicians and practitioners, on developing useful theory. Each chapter opens with a brief scenario, generally derived from Crowley's extensive personal experience as a librarian, university professor, and consultant, exemplifying the theme for that chapter. In chapter one, "Theorizing for Diverging Contexts: Why Research Results and Theory Development are So Little Used Outside the Campus," Crowley describes a doctoral candidate's experience in presenting her research at a national conference of working professionals. When the presentation is negatively received, the student's mentor rationalized the response by stating, "You have to remember, most of the people in the audience only have a master's degree" (p. 2). From this example, a cogent argument is distilled on how pervasive the theorypractice divide is in various academic domains, such as business, law, sociology, and LIS. What is useful research and theory for academicians seeking career and professional advancement does not translate into for practitioners engaged in specific institutional/organizational environments. Cultural pragmatism is introduced as an aid to researchers in both camps for its inclusion of context specificity and the need for testing a theory's usefulness through continually analyzed experience. Herein, the structural foundation for the bridge is constructed in the section on communication. The development of an interlanguage between academicians and practitioners will minimize incommensurability, "the perceived inability of humans to communicate effectively with one another due to a lack of common standards for meaning and other shared foundations" (p. 15). In this vein, Crowley presents five maxims, based on the works of John Stuart Mill, for developing useful, real world theory. The chapter ends, as do several others, addressing the divide specifically in the LIS domain. One of the most thought-provoking chapters is "Developing a Research Philosophy," which includes sections on inductive reasoning, how people really think, and a discussion of the battle between intellectual formations and internalized models. As a teacher of experienced and/or mature students in an LIS program, I instantly recognized the description of a reoccurring classroom event: what happens when introducing theory or research results that contradict students' experiences, and therefore, their internalized models of "how things really work in the field." Crowley suggests that in seeking a research philosophy, persuasion should not be a primary concern. This simple suggestion encouraged me to reconsider my posture when faced with this classroom issue. However, this chapter may be considered one of the weakest in the book, because of its rather slim treatment of considerations for selecting a useful research philosophy, despite the emphasis on the importance of the concept. Nevertheless, this chapter is foundational to the work presented in the remaining chapters.
- RSWK
- USA / Bibliothekswissenschaft / Informations- und Dokumentationswissenschaft
- Subject
- USA / Bibliothekswissenschaft / Informations- und Dokumentationswissenschaft
-
Braeckman, J.: ¬The integration of library information into a campus wide information system (1996)
0.06
0.058737323 = product of:
0.23494929 = sum of:
0.23494929 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.23494929 = score(doc=729,freq=2.0), product of:
0.43105784 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061164584 = queryNorm
0.5450528 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=729)
0.25 = coord(1/4)
- Abstract
- Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven
-
Chang, S.-F.; Smith, J.R.; Meng, J.: Efficient techniques for feature-based image / video access and manipulations (1997)
0.06
0.058737323 = product of:
0.23494929 = sum of:
0.23494929 = weight(_text_:java in 756) [ClassicSimilarity], result of:
0.23494929 = score(doc=756,freq=2.0), product of:
0.43105784 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061164584 = queryNorm
0.5450528 = fieldWeight in 756, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=756)
0.25 = coord(1/4)
- Abstract
- Describes 2 research projects aimed at studying the parallel issues of image and video indexing, information retrieval and manipulation: VisualSEEK, a content based image query system and a Java based WWW application supporting localised colour and spatial similarity retrieval; and CVEPS (Compressed Video Editing and Parsing System) which supports video manipulation with indexing support of individual frames from VisualSEEK and a hierarchical new video browsing and indexing system. In both media forms, these systems address the problem of heterogeneous unconstrained collections
-
Lo, M.L.: Recent strategies for retrieving chemical structure information on the Web (1997)
0.06
0.058737323 = product of:
0.23494929 = sum of:
0.23494929 = weight(_text_:java in 3611) [ClassicSimilarity], result of:
0.23494929 = score(doc=3611,freq=2.0), product of:
0.43105784 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061164584 = queryNorm
0.5450528 = fieldWeight in 3611, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3611)
0.25 = coord(1/4)
- Abstract
- Discusses various structural searching methods available on the Web. some databases such as the Brookhaven Protein Database use keyword searching which does not provide the desired substructure search capabilities. Others like CS ChemFinder and MDL's Chemscape use graphical plug in programs. Although plug in programs provide more capabilities, users first have to obtain a copy of the programs. Due to this limitation, Tripo's WebSketch and ACD Interactive Lab adopt a different approach. Using JAVA applets, users create and display a structure query of the molecule on the web page without using other software. The new technique is likely to extend itself to other electronic publications
-
Kirschenbaum, M.: Documenting digital images : textual meta-data at the Blake Archive (1998)
0.06
0.058737323 = product of:
0.23494929 = sum of:
0.23494929 = weight(_text_:java in 4287) [ClassicSimilarity], result of:
0.23494929 = score(doc=4287,freq=2.0), product of:
0.43105784 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061164584 = queryNorm
0.5450528 = fieldWeight in 4287, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4287)
0.25 = coord(1/4)
- Abstract
- Describes the work undertaken by the Wiliam Blake Archive, Virginia University, to document the metadata tools for handling digital images of illustrations accompanying Blake's work. Images are encoded in both JPEG and TIFF formats. Image Documentation (ID) records are slotted into that portion of the JPEG file reserved for textual metadata. Because the textual content of the ID record now becomes part of the image file itself, the documentary metadata travels with the image even it it is downloaded from one file to another. The metadata is invisible when viewing the image but becomes accessible to users via the 'info' button on the control panel of the Java applet
-
Priss, U.: ¬A graphical interface for conceptually navigating faceted thesauri (1998)
0.06
0.058737323 = product of:
0.23494929 = sum of:
0.23494929 = weight(_text_:java in 658) [ClassicSimilarity], result of:
0.23494929 = score(doc=658,freq=2.0), product of:
0.43105784 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061164584 = queryNorm
0.5450528 = fieldWeight in 658, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=658)
0.25 = coord(1/4)
- Abstract
- This paper describes a graphical interface for the navigation and construction of faceted thesauri that is based on formal concept analysis. Each facet of a thesaurus is represented as a mathematical lattice that is further subdivided into components. Users can graphically navigate through the Java implementation of the interface by clicking on terms that connect facets and components. Since there are many applications for thesauri in the knowledge representation field, such a graphical interface has the potential of being very useful
-
Renehan, E.J.: Science on the Web : a connoisseur's guide to over 500 of the best, most useful, and most fun science Websites (1996)
0.06
0.058737323 = product of:
0.23494929 = sum of:
0.23494929 = weight(_text_:java in 1211) [ClassicSimilarity], result of:
0.23494929 = score(doc=1211,freq=2.0), product of:
0.43105784 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061164584 = queryNorm
0.5450528 = fieldWeight in 1211, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=1211)
0.25 = coord(1/4)
- Abstract
- Written by the author of the best-selling 1001 really cool Web sites, this fun and informative book enables readers to take full advantage of the Web. More than a mere directory, it identifies and describes the best sites, guiding surfers to such innovations as VRML3-D and Java. Aside from downloads of Web browsers, Renehan points the way to free compilers and interpreters as well as free online access to major scientific journals
-
Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002)
0.06
0.058737323 = product of:
0.23494929 = sum of:
0.23494929 = weight(_text_:java in 4608) [ClassicSimilarity], result of:
0.23494929 = score(doc=4608,freq=2.0), product of:
0.43105784 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061164584 = queryNorm
0.5450528 = fieldWeight in 4608, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4608)
0.25 = coord(1/4)
- Abstract
- In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
-
Hancock, B.; Giarlo, M.J.: Moving to XML : Latin texts XML conversion project at the Center for Electronic Texts in the Humanities (2001)
0.06
0.058737323 = product of:
0.23494929 = sum of:
0.23494929 = weight(_text_:java in 5801) [ClassicSimilarity], result of:
0.23494929 = score(doc=5801,freq=2.0), product of:
0.43105784 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061164584 = queryNorm
0.5450528 = fieldWeight in 5801, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5801)
0.25 = coord(1/4)
- Abstract
- The delivery of documents on the Web has moved beyond the restrictions of the traditional Web markup language, HTML. HTML's static tags cannot deal with the variety of data formats now beginning to be exchanged between various entities, whether corporate or institutional. XML solves many of the problems by allowing arbitrary tags, which describe the content for a particular audience or group. At the Center for Electronic Texts in the Humanities the Latin texts of Lector Longinquus are being transformed to XML in readiness for the expected new standard. To allow existing browsers to render these texts, a Java program is used to transform the XML to HTML on the fly.
-
Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003)
0.06
0.05857629 = product of:
0.11715258 = sum of:
0.083910465 = weight(_text_:java in 134) [ClassicSimilarity], result of:
0.083910465 = score(doc=134,freq=2.0), product of:
0.43105784 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.061164584 = queryNorm
0.19466174 = fieldWeight in 134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=134)
0.033242114 = weight(_text_:und in 134) [ClassicSimilarity], result of:
0.033242114 = score(doc=134,freq=32.0), product of:
0.13565688 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.061164584 = queryNorm
0.24504554 = fieldWeight in 134, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=134)
0.5 = coord(2/4)
- Footnote
- Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)