-
Ford, A.; Dixon, T.: Spinning the Web : how to provide information on the Internet (1996)
0.06
0.05608057 = product of:
0.22432227 = sum of:
0.22432227 = weight(_text_:html in 1071) [ClassicSimilarity], result of:
0.22432227 = score(doc=1071,freq=4.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.6434418 = fieldWeight in 1071, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0625 = fieldNorm(doc=1071)
0.25 = coord(1/4)
- LCSH
- HTML (Document markup language)
- Subject
- HTML (Document markup language)
-
Markup and metadata (1998)
0.06
0.05608057 = product of:
0.22432227 = sum of:
0.22432227 = weight(_text_:html in 2835) [ClassicSimilarity], result of:
0.22432227 = score(doc=2835,freq=4.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.6434418 = fieldWeight in 2835, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0625 = fieldNorm(doc=2835)
0.25 = coord(1/4)
- Abstract
- Discusses the range of applications of the XML meta language, which allows users to design their own markup language and share it with others. Instead of being confined to HTML, where 'one size fits all', industries, academic disciplines and professional organizations can use XML syntax to create a common set of tags which standardize the presentation of information. The linking abilities of XML are more powerful than HTML, so that it will support bidirectional and multiway links, as well as those to a span of text rather than to a single point
-
Koch, T.; Ardö, A.: Automatic classification of full-text HTML-documents from one specific subject area : DESIRE II D3.6a, Working Paper 2 (2000)
0.06
0.05608057 = product of:
0.22432227 = sum of:
0.22432227 = weight(_text_:html in 2667) [ClassicSimilarity], result of:
0.22432227 = score(doc=2667,freq=4.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.6434418 = fieldWeight in 2667, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0625 = fieldNorm(doc=2667)
0.25 = coord(1/4)
- Source
- http://www.lub.lu.se/desire/DESIRE36a-WP2.html
-
Gibson, P.: Professionals' perfect Web world in sight : users want more information on the Web, and vendors attempt to provide (1998)
0.06
0.05574825 = product of:
0.222993 = sum of:
0.222993 = weight(_text_:java in 2656) [ClassicSimilarity], result of:
0.222993 = score(doc=2656,freq=2.0), product of:
0.47730878 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06772732 = queryNorm
0.46718815 = fieldWeight in 2656, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=2656)
0.25 = coord(1/4)
- Abstract
- Many information professionals feel that the time is still far off when the WWW can offer the combined funtionality and content of traditional online and CD-ROM databases, but there have been a number of recent Web developments to reflect on. Describes the testing and launch by Ovid of its Java client which, in effect, allows access to its databases on the Web with full search functionality, and the initiative of Euromonitor in providing Web access to its whole collection of consumer research reports and its entire database of business sources. Also reviews the service of a newcomer to the information scene, Information Quest (IQ) founded by Dawson Holdings which has made an agreement with Infonautics to offer access to its Electric Library database thus adding over 1.000 reference, consumer and business publications to its Web based journal service
-
Mills, T.; Moody, K.; Rodden, K.: Providing world wide access to historical sources (1997)
0.06
0.05574825 = product of:
0.222993 = sum of:
0.222993 = weight(_text_:java in 3697) [ClassicSimilarity], result of:
0.222993 = score(doc=3697,freq=2.0), product of:
0.47730878 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06772732 = queryNorm
0.46718815 = fieldWeight in 3697, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3697)
0.25 = coord(1/4)
- Abstract
- A unique collection of historical material covering the lives and events of an English village between 1400 and 1750 has been made available via a WWW enabled information retrieval system. Since the expected readership of the documents ranges from school children to experienced researchers, providing this information in an easily accessible form has offered many challenges requiring tools to aid searching and browsing. The file structure of the document collection was replaced by an database, enabling query results to be presented on the fly. A Java interface displays each user's context in a form that allows for easy and intuitive relevance feedback
-
Maarek, Y.S.: WebCutter : a system for dynamic and tailorable site mapping (1997)
0.06
0.05574825 = product of:
0.222993 = sum of:
0.222993 = weight(_text_:java in 3739) [ClassicSimilarity], result of:
0.222993 = score(doc=3739,freq=2.0), product of:
0.47730878 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06772732 = queryNorm
0.46718815 = fieldWeight in 3739, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3739)
0.25 = coord(1/4)
- Abstract
- Presents an approach that integrates searching and browsing in a manner that improves both paradigms. When browsing is the primary task, it enables semantic content-based tailoring of Web maps in both the generation as well as the visualization phases. When search is the primary task, it enables contextualization of the results by augmenting them with the documents' neighbourhoods. This approach is embodied in WebCutter, a client-server system fully integrated with Web software. WebCutter consists of a map generator running off a standard Web server and a map visualization client implemented as a Java applet runalble from any standard Web browser and requiring no installation or external plug-in application. WebCutter is in beta stage and is in the process of being integrated into the Lotus Domino application product line
-
Pan, B.; Gay, G.; Saylor, J.; Hembrooke, H.: One digital library, two undergraduate casses, and four learning modules : uses of a digital library in cassrooms (2006)
0.06
0.05574825 = product of:
0.222993 = sum of:
0.222993 = weight(_text_:java in 907) [ClassicSimilarity], result of:
0.222993 = score(doc=907,freq=2.0), product of:
0.47730878 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06772732 = queryNorm
0.46718815 = fieldWeight in 907, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=907)
0.25 = coord(1/4)
- Abstract
- The KMODDL (kinematic models for design digital library) is a digital library based on a historical collection of kinematic models made of steel and bronze. The digital library contains four types of learning modules including textual materials, QuickTime virtual reality movies, Java simulations, and stereolithographic files of the physical models. The authors report an evaluation study on the uses of the KMODDL in two undergraduate classes. This research reveals that the users in different classes encountered different usability problems, and reported quantitatively different subjective experiences. Further, the results indicate that depending on the subject area, the two user groups preferred different types of learning modules, resulting in different uses of the available materials and different learning outcomes. These findings are discussed in terms of their implications for future digital library design.
-
Mongin, L.; Fu, Y.Y.; Mostafa, J.: Open Archives data Service prototype and automated subject indexing using D-Lib archive content as a testbed (2003)
0.06
0.05574825 = product of:
0.222993 = sum of:
0.222993 = weight(_text_:java in 2167) [ClassicSimilarity], result of:
0.222993 = score(doc=2167,freq=2.0), product of:
0.47730878 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06772732 = queryNorm
0.46718815 = fieldWeight in 2167, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=2167)
0.25 = coord(1/4)
- Abstract
- The Indiana University School of Library and Information Science opened a new research laboratory in January 2003; The Indiana University School of Library and Information Science Information Processing Laboratory [IU IP Lab]. The purpose of the new laboratory is to facilitate collaboration between scientists in the department in the areas of information retrieval (IR) and information visualization (IV) research. The lab has several areas of focus. These include grid and cluster computing, and a standard Java-based software platform to support plug and play research datasets, a selection of standard IR modules and standard IV algorithms. Future development includes software to enable researchers to contribute datasets, IR algorithms, and visualization algorithms into the standard environment. We decided early on to use OAI-PMH as a resource discovery tool because it is consistent with our mission.
-
Song, R.; Luo, Z.; Nie, J.-Y.; Yu, Y.; Hon, H.-W.: Identification of ambiguous queries in web search (2009)
0.06
0.05574825 = product of:
0.222993 = sum of:
0.222993 = weight(_text_:java in 3441) [ClassicSimilarity], result of:
0.222993 = score(doc=3441,freq=2.0), product of:
0.47730878 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06772732 = queryNorm
0.46718815 = fieldWeight in 3441, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3441)
0.25 = coord(1/4)
- Abstract
- It is widely believed that many queries submitted to search engines are inherently ambiguous (e.g., java and apple). However, few studies have tried to classify queries based on ambiguity and to answer "what the proportion of ambiguous queries is". This paper deals with these issues. First, we clarify the definition of ambiguous queries by constructing the taxonomy of queries from being ambiguous to specific. Second, we ask human annotators to manually classify queries. From manually labeled results, we observe that query ambiguity is to some extent predictable. Third, we propose a supervised learning approach to automatically identify ambiguous queries. Experimental results show that we can correctly identify 87% of labeled queries with the approach. Finally, by using our approach, we estimate that about 16% of queries in a real search log are ambiguous.
-
Croft, W.B.; Metzler, D.; Strohman, T.: Search engines : information retrieval in practice (2010)
0.06
0.05574825 = product of:
0.222993 = sum of:
0.222993 = weight(_text_:java in 3605) [ClassicSimilarity], result of:
0.222993 = score(doc=3605,freq=2.0), product of:
0.47730878 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06772732 = queryNorm
0.46718815 = fieldWeight in 3605, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3605)
0.25 = coord(1/4)
- Abstract
- For introductory information retrieval courses at the undergraduate and graduate level in computer science, information science and computer engineering departments. Written by a leader in the field of information retrieval, Search Engines: Information Retrieval in Practice, is designed to give undergraduate students the understanding and tools they need to evaluate, compare and modify search engines. Coverage of the underlying IR and mathematical models reinforce key concepts. The book's numerous programming exercises make extensive use of Galago, a Java-based open source search engine. SUPPLEMENTS / Extensive lecture slides (in PDF and PPT format) / Solutions to selected end of chapter problems (Instructors only) / Test collections for exercises / Galago search engine
-
Tang, X.-B.; Wei Wei, G,-C.L.; Zhu, J.: ¬An inference model of medical insurance fraud detection : based on ontology and SWRL (2017)
0.06
0.05574825 = product of:
0.222993 = sum of:
0.222993 = weight(_text_:java in 4615) [ClassicSimilarity], result of:
0.222993 = score(doc=4615,freq=2.0), product of:
0.47730878 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06772732 = queryNorm
0.46718815 = fieldWeight in 4615, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=4615)
0.25 = coord(1/4)
- Abstract
- Medical insurance fraud is common in many countries' medical insurance systems and represents a serious threat to the insurance funds and the benefits of patients. In this paper, we present an inference model of medical insurance fraud detection, based on a medical detection domain ontology that incorporates the knowledge base provided by the Medical Terminology, NKIMed, and Chinese Library Classification systems. Through analyzing the behaviors of irregular and fraudulent medical services, we defined the scope of the medical domain ontology relevant to the task and built the ontology about medical sciences and medical service behaviors. The ontology then utilizes Semantic Web Rule Language (SWRL) and Java Expert System Shell (JESS) to detect medical irregularities and mine implicit knowledge. The system can be used to improve the management of medical insurance risks.
-
Weiße, A.: AG Dezimalklassifikation (AG DK) (2002)
0.05
0.05250624 = product of:
0.10501248 = sum of:
0.045530055 = weight(_text_:und in 2693) [ClassicSimilarity], result of:
0.045530055 = score(doc=2693,freq=34.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.30310458 = fieldWeight in 2693, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2693)
0.059482425 = weight(_text_:html in 2693) [ClassicSimilarity], result of:
0.059482425 = score(doc=2693,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.17061827 = fieldWeight in 2693, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0234375 = fieldNorm(doc=2693)
0.5 = coord(2/4)
- Abstract
- Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand am 23.7.02 im Rahmen der 26. Jahrestagung der Gesellschaft für Klassifikation in Mannheim statt. Das Programm bot ein breites Spektrum der klassifikatorischen Sacherschließung. In ihrem Vortrag unter dem Thema "Aktuelle Anwendungen und Entwicklungen der DDC" berichtete Frau Esther Scheven (DDB Frankfurt) über die Projekte "RENARDUS" und "DDC Deutsch". Das EU-Projekt RENARDUS (http://www.renardus.org) ist ein Recherchesystem für Internet-Fachinformationsführer mit einer gemeinsamen Suchoberfläche, in dem die DDC als CrossBrowse-Instrument eingesetzt wird. Die RENARDUS-Partner haben jeweils eine Konkordanztabelle von ihrer lokalen Klassifikation zur DDC erstellt. Das Klassifikationssystem DDC wurde deshalb bevorzugt, weil es online verfügbar ist, in verschiedene europäische Sprachen übersetzt wurde, einen weltweiten Anwenderkreis habe und zum Cross-Browsen besser geeignet sei als das Klassifikationssystem UDC. Anhand von geographischen Schlagwörtern wurde untersucht, inwieweit DDC-Notationen die Interoperabilität der Erschließung mit Schlagwörtern verschiedener Gateways mit unterschiedlichen Sprachen verbessern. Die DDC wird als Suchelement im Geographischen Index benutzt. Zum Projekt "DDC Deutsch" (http://www.ddb.de/professionell/ ddc info.htm) gab Frau Scheven einen kurzen Überblick über die wichtigsten Tätigkeiten und Entwicklungen. Dazu gehören die Übersetzung der 22. Auflage der DDC, die Überarbeitung der Table 2 für Deutschland und Österreich, die Überarbeitung der Sachgebiete Geschichte Deutschland, Geschichte Österreich, Parteiensysteme Deutschland. Nach Abschluß der Arbeiten wird ab 2005 in der Deutschen Nationalbibliographie (Reihe A, B und H) die DDC als Klassifikationssystem für wissenschaftliche relevante bzw. international wichtige Publikationen verwendet. Desweiteren ist vorgesehen, Schlagwörter der Schlagwortnormdatei (SWD) mit DDCNotationen zu verknüpfen. Herr Dr. Holger Flachmann (ULB Münster) stellte in seinem Vortrag "Digitale Reproduktion systematischer Zettelkataloge: Praxis, Gewinn und Grenzen am Beispiel des UDK-Kataloges der ULB Münster" ein interessantes und nachahmenswertes Projekt vor. In der ULB Münster wurde der bis 1990 nach UDK geführte Systematische Katalog (1,4 Millionen Katalogkarten mit 80 000 Systemstellen) als Imagekatalog konvertiert. Die elektronisch erfassten Systemstellen (UDK-Notationen) sind recherchierbar und mit den dazugehörigen Titeln verknüpft, die als digitale Bilder der Katalogzettel gespeichert sind. Ebenso ist die Suche mit Stichwörtern möglich.
Das Recherchesystem bietet eine Übersicht der Fachgebiete nach UDK, ein Register der Fächer (z.B. Register A-Z Wirtschaftswissenschaften), eine alphabetische Auflistung der Fächer und die systematische Gliederung der Fachgebiete mit Anzeige der Anzahl der Titelnachweise. Der von der Firma Mikro Univers GmbH Berlin erstellte digitalisierte Katalog wurde ab 1.8.02 frei geschaltet (http://altkataloge.uni-muenster.de/de/index sys.htm). Das von der ULB Münster realisierte Projekt könnte für andere Universitätsbibliotheken Anregung sein, konventionelle Systematische Zettelkataloge, die vor allem ältere wissenschaftliche Literatur nachweisen und erfahrungsgemäß in dieser Form wenig genutzt werden, in digitalisierter Form einem über die Grenzen der jeweiligen Universitätsbibliothek erweiterten Nutzerkreis zur Verfügung zu stellen. Herr Dr. Jiri Pika (ETH Zürich) referierte in seinem Vortrag "Anwendung der UDK in NEBIS in der Schweiz: ein Ausblick" über die seit etwa 20 Jahren praktizierte inhaltliche Erschließung von Dokumenten nach UDK im neuen Bibliothekssystem NEBIS (Netzwerk von Bibliotheken und Informationsstellen in der Schweiz http://www.nebis.ch/index.html), das das Bibliothekssystem ETHICS ablöste. Wie im System ETHICS beruht die Abfrage auf Deskriptoren in drei Sprachen (deutsch, englisch, französisch) und einer Anzahl weiterer Begriffe (Synonyme, Akronyme), womit ein benutzerfreundlicher den Gegebenheiten der multilingualen Schweiz angepasster Einstieg in die Recherche ermöglicht wird. Hinter den Deskriptoren steht eine einzige DK-Zahl, die im Hintergrund die mit ihr verknüpften Titel zusammenführt. Das von Fachreferenten gepflegte Sachregister beinhaltet etwa 63 513 Grundbegriffe (Stand 27.3.2002) mit einer DK-Zahl, die Anzahl der Zusatzbegriffe beträgt das 5 - 8fache. Die Vorzüge des Systems bestehen darin, dass unter Verwendung von Deskriptoren bei der Recherche der Zugriff sowohl auf gedruckte als auch auf elektronische Medien (etwa 2 Millionen Dokumente) möglich ist, ohne dass Kenntnisse des Klassifikationssystems erforderlich sind. Mit der Umstellung von ETHICS auf NEBIS im Jahre 1999 wurde eine neue Benutzeroberfläche angeboten und eine wesentliche Verkürzung der Antwortzeiten erreicht. Zum Anwenderkreis gehören etwa 60 Bibliotheken von Hochschulen, Fachhochschulen und Forschungsanstalten aus allen Regionen der Schweiz, z.B. ETH Zürich, Ecole Polytechnique Federale de Lausanne, weitere Schweizer Verbundbibliotheken, sowie in der Suchmaschine GERHARD (German Harvest Automated Retrieval Directory http://www.gerhard.de/gerold/owa/gerhard.create_ Index html?form-language=99). Der im Programm ausgewiesene Vortrag von Herrn Dr. Bernd Lorenz (München) zum Thema "Konkordanz RVK (Regensburger Verbundklassifikation) - DDC (Dewey Decimal Classification): Notwendigkeit und Vorüberlegungen" wurde vertretungsweise von Herrn Dr. Hans-Joachim Hermes (Chemnitz) übernommen. Bereits seit Beginn der Überlegungen, die DDC in der Deutschen Nationalbibliographie als Klassifikationssystem zu verwenden, werden auch Vorstellungen über eine Konkordanz zwischen den beiden Klassifikationssystemen RVK und DDC geäußert. Die geplante Konkordanz wird die Nutzung beider Klassifikationssysteme vergrößern. In der Darstellung wurden Probleme auf der sprachlichterminologischen Ebene, die bei den Benennungen der Notationen sichtbar werden, aufgezeigt. Nach den Fachvorträgen fand die turnusmäßige Neuwahl des Leiters der AG Dezimalklassifikationen statt. Zum neuen Vorsitzenden wurde Herr Dr. Bernd Lorenz (Bayerische Beamtenfachhochschule München) gewählt.
-
Ryan, S.; Leith, D.: Training with the web : Internet training in an academic library environment (1995)
0.05
0.051513296 = product of:
0.20605318 = sum of:
0.20605318 = weight(_text_:html in 2483) [ClassicSimilarity], result of:
0.20605318 = score(doc=2483,freq=6.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.59103906 = fieldWeight in 2483, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.046875 = fieldNorm(doc=2483)
0.25 = coord(1/4)
- Abstract
- Describes the first phase of an Internet training programme, presented to academic staff at Sydnay University, New South Wales, which included a brief introduction and comprehensive review of the Internet, using NCSA Mosaic and Netscape software as preseantation tools. The programme used locally produced Hypertext Markup Language (HTML) documents with live and 'canned' links to Internet tools and resources. Participants were presented with a 'things to see' home page on individual workstations and were free to explore areas of interest using this home page as a starting point. They were also provided with their own Mac and DOS discs as handouts with a World Wide Web (WWW) browser and local HTML documents, some of which contained links to Internet tools and resources. An evaluation of the programme indicated the success of the WWW browsers as an aid to Internet training
- Aid
- HTML
-
Vickery, B.C.; Vickery, A.: Information science in theory and practice (2004)
0.05
0.0512157 = product of:
0.1024314 = sum of:
0.052862715 = weight(_text_:und in 5320) [ClassicSimilarity], result of:
0.052862715 = score(doc=5320,freq=66.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.35191986 = fieldWeight in 5320, product of:
8.124039 = tf(freq=66.0), with freq of:
66.0 = termFreq=66.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=5320)
0.049568687 = weight(_text_:html in 5320) [ClassicSimilarity], result of:
0.049568687 = score(doc=5320,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.14218189 = fieldWeight in 5320, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.01953125 = fieldNorm(doc=5320)
0.5 = coord(2/4)
- Footnote
- Rez. in: BuB 56(2004) H.12, S.743 (H, Meinhardt): "1987 erstmals erschienen und seitdem ein Klassiker unter den Lehrbüchern im Feld der Information Science, liegt nunmehr die dritte, deutlich veränderte Auflage vor. Notwendig geworden war die Überarbeitung vor allem durch die Dynamik im Bereich der Informationstechnologien und deren Auswirkungen sowohl auf die Praxis der Informationsspezialisten wie auch die Disziplin selber. Augenfälligste Veränderung ist denn auch ein neues Kapitel zu »Internet und Informationswissenschaft«. »Chemical librarians« Zunächst einige Worte zu den Autoren, die dem einen oder anderen vielleicht nicht bekannt sind: Brian C. Vickery und Alina Vickery sind beide von ihrer Ausbildung her Chemiker und waren als Ehepartner (Alina Vickery starb Ende 2001) auch beruflich vielfältig gemeinsam tätig. Wie viele Chemiker (man denke nur Eugene Garfield, den Begründer der modernen Szientometrie) sensibilisiert für den Umgang mit enormen Informationsmengen und damit Informationsproblemen, zudem als »chemical librarian« (Brian C. Vickery) und Mitarbeiter von chemischen Fachzeitschriften auch professionell beschäftigt mit Fragen des Fachinformationstransfers, haben sie sich (insbesondere Brian C. Vickery) frühzeitig und kontinuierlich informationswissenschaftlich betätigt. Resultat ist eine Fülle von Publikationen, vor allem zu den Bereichen Indexieren, Klassifizieren, Information Retrieval, auch zur Geschichte der wissenschaftlichen Kommunikation (alle Arbeiten sind im Anhang aufgelistet). Brian C. Vickery war außerdem, das dürfte für Bibliothekare von Interesse sein, als Deputy beim Aufbau der National Lending Library for Science and Technology (NLLST) in Boston Spa beteiligt, die ihre Arbeit 1961 aufnahm und 1973 mit in die neu gegründete British Library einging. Und es sei hier schon vorab bemerkt, dass der immer wiederkehrende Bezug von informationswissenschaftlichen Fragestellungen auf die bibliothekarische Praxis ein Vorzug dieses Buches ist.
Ungewohnte Einordnung und Gewichtung Von der Konzeption her ist das Buch am ehesten als eine Art einführendes Handbuch zu beschreiben, das sehr stark Querschnittscharakter hat. Dem entspricht die inhaltlich weit gespannte Gliederung, die die meisten informationswissenschaftlichen Bereiche streift. Die Autoren verfolgen explizit nicht das Ziel, eine Art Manual für die Informationspraxis oder für das Informationsmanagement vorzulegen, sondern versprechen einen Mix aus theoretischer Annäherung und praxisorientierter Handreichung - und enttäuschen damit nicht. Der deutsche Leser, der mit hiesigen Lehrbüchern zur Informationswissenschaft nicht gerade verwöhnt ist und sich in aller Regel aus vielen Quellen Puzzleartig sein Bild von »Informationswissenschaft« zusammenstoppeln muss (eine nach wie vor rühmliche Ausnahme sind die mehrbändigen »Grundlagen der praktischen Information und Dokumentation«, deren Neuauflage gerade erschienen sind), wird vieles, allerdings in ungewohnter Einordnung und Gewichtung, hier gesammelt vorfinden. Im Einzelnen gehen Vickery auf folgende Bereiche ein: Information und Gesellschaft, Informationstransfer in natürlichen, sozialen, maschinellen Umgebungen, Besonderheiten und Ausprägungen menschlicher Kommunikation und Informationsbedürfnisse, das gesamte Gebiet des Information Retrieval, Wissensrepräsentation, Informationsvermittlung, Informationssysteme und deren Evaluation, Internet und Informationswissenschaft.
Soziologisch geprägt Das alles auf nicht einmal 350 Seiten: Hier kann es also immer nur um ein »Anreißen« gehen, was sich immer wieder, zum Beispiel in den Abschnitten zu Information Retrieval oder zu Formen der Wissensrepräsentation, schmerzhaft bemerkbar macht. Auf Klassifikationen, Thesauri, Formen des Abstracting und so weiter wird so gut wie nicht eingegangen. Hier ist generell zu fragen, ob die Gewichtung, die die Autoren vornehmen, sinnvoll ist. Ihr Ansatz, Informationswissenschaft zu beschreiben als »the study of the communication of information in sociery«, ist ein sehr weiter und findet seinen Niederschlag in überdimensionierten Abschnitten, die stark soziologisch geprägt sind, ohne wirklich erhellend zu sein; dazu sind die Aussagen, zum Beispiel zu Reichweiten von Kommunikation oder zu verschiedenen Kommunikationstypen, zu allgemein. Bedeutsamer, da dieser umfassende Ansatz überhaupt nicht durchgehalten wird, sondern sich immer stärker verengt hin auf Kommunikation von wissenschaftlicher Information, ist jedoch, dass auch dieses Buch letztlich den Eindruck hinterlässt, Informationswissenschaft sei ein Konglomerat miteinander relativ unverbundener Theorien und Bausteine. Dieser Eindruck, der sich beim Lesen auch deshalb immer wieder aufdrängt, weil sowohl die historische EntwicklungderDisziplin nur sehr verknappt (generell USA-zentriert) wie auch die Abgrenzung/Überschneidungzu anderen Wissenschaften wenig thematisiert wird (ganz stark spürbarim Kapitel 3 »Widercontexts of information transfer«), mildert sich etwas durch die sehr verdienstvolle Auflistung von bekannten Informationsspezialisten im Anhang und die Visualisierung der Informationswissenschaft, ihrer Zweige und bedeutender Vertreter, in Form einer Art »Landkarte«.
Ein Anliegen aller Das neu hinzugekommene Kapitel zu Informationswissenschaft und Internet versucht auf rund 40 Seiten einen Rundumschlag zu informationswissenschaftlichen Fragestellungen von HTML bis hin zu digitalen Bibliotheken. Auch wenn dieses Kapitel nicht konsistent erscheint, knüpfen die Autoren hier an unmittelbar zurückliegende Forschungen an und fordern ein neues und erweitertes Verständnis von Informationswissenschaft, die die Informationsbedürfnisse aller sozialen Gruppen zu ihrem Anliegen machen müsse. Hier am ehesten schließt sich der Kreis zu dem eingangs bekundeten Verständnis von Informationswissenschaft. Kritische Anmerkung Kritisch muss angemerkt werden, dass es mit den Aktualisierungen, ausgenommen das neu hinzugekommene Kapitel zum Internet, so weit nicht her ist. Besonders ärgerlich sind die vielen Verweise auf Studien und Forschungsergebnisse der Sechziger- und Siebzigerjahre. Unbenommen dieser kritischen Hinweise, bleibt der Titel der Vickerys ein einführendes Buch, dessen Lektüre Gewinn bringend ist und das nach wie vor ein Grundlagenwerk genannt werden kann."
Weitere Rezension in. Mitteilungen VÖB 57(2004) H.3/4, S.84-86 (O. Oberhauser): " ... Fazit: Wer sich von der Neuauflage von Vickery & Vickery eine auf dem neuesten Stand befindliche Einführung in die Informationswissenschaft erhofft hat, wird enttäuscht sein. Für jene Personen, die das Buch hingegen noch nicht kannten, bzw. jene Bibliotheken, die die ältere Auflage nicht im Bestand haben, ist diese dritte Auflage, ungeachtet ihrer Schwächen und des überhöhten Preises, ein "Muss"!
-
Ansorge, K.: Das was 2007 (2007)
0.05
0.050812148 = product of:
0.101624295 = sum of:
0.052055605 = weight(_text_:und in 3405) [ClassicSimilarity], result of:
0.052055605 = score(doc=3405,freq=64.0), product of:
0.15021236 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06772732 = queryNorm
0.34654674 = fieldWeight in 3405, product of:
8.0 = tf(freq=64.0), with freq of:
64.0 = termFreq=64.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3405)
0.049568687 = weight(_text_:html in 3405) [ClassicSimilarity], result of:
0.049568687 = score(doc=3405,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.14218189 = fieldWeight in 3405, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.01953125 = fieldNorm(doc=3405)
0.5 = coord(2/4)
- Content
- Darin u.a: "Netzpublikationen - Die DNB hat mit Inkrafttreten des Gesetzes über die Deutsche Nationalbibliothek im Jahr 2006 den Auftrag der Sammlung, Erschließung, Verzeichnung und Archivierung von Netzpublikationen erhalten. Zum Sammelgebiet Netzpublikationen gehören alle Darstellungen in Schrift, Bild und Ton, die in öffentlichen Netzen zugänglich gemacht werden. Die Abgabepflicht umfasst sowohl Internetveröffentlichungen mit Entsprechungen zum Printbereich als auch webspezifische Medienwerke." "Kataloganreicherung - In Gesprächen mit dem Deutschen Bibliotheksverband und dem Börsenverein des Deutschen Buchhandels hatte sich die DNB bereiterklärt, die Rolle eines zentralen Dienstleisters bei der Verbreitung digitaler Zusatzinformationen zu bibliografischen Daten zu übernehmen. Für die Anreicherung der Daten der Deutschen Nationalbibliografie mit qualitativ hochwertigen Zusatzinformationen (recherchierbare PDF-Dokumente) konnten im Jahr 2007 die Weichen gestellt werden. Seit Jahresbeginn 2008 werden die Inhaltsverzeichnisse der jährlich rund 75.000 monografischen Neuerscheinungen des Verlagsbuchhandels gescannt und als ergänzende bibliografische Daten über das Internet und die Datendienste der DNB angeboten. Im Rahmen der bestehenden Kooperation mit der MVB Marketing- und Verlagsservice des Buchhandels GmbH werden zukünftig neben den Daten des VLB (Verzeichnis Lieferbarer Bücher) auch die entstehenden Zusatzinformationen ausgetauscht."
"Standardisierung - Auch 2007 ist die Arbeitsstelle für Standardisierung (AfS) auf dem Weg zur Internationalisierung der deutschen Regelwerke, Formate und Normdateien entscheidende Schritte vorangekommen. Im Mittelpunkt der Vorbereitungen für den Format-umstieg standen eine Konkordanz von MAB2 nach MARC 21 und die Festlegung neuer Felder, die für den Umstieg auf nationaler Ebene notwendig sind. Neben einer Vielzahl anderer Aktivitäten hat die DNB zwei Veranstaltungen zum Format-umstieg durchgeführt. In Zusammenarbeit mit den Expertengruppen des Standardisierungsausschusses wurden drei Stellungnahmen zu Entwürfen des Regelwerkes »Resource Description and Access (RDA)« erarbeitet; es fand eine Beteiligung an der internationalen Diskussion zu wichtigen Grundlagen statt. Der Erfüllung des Wunsches nach Einführung der Onlinekommunikation mit Normdateien ist die DNB im vergangenen Jahr deutlich nähergekommen: Änderungen an Normdaten sollen gleichzeitig in die zentral bei der DNB gehaltenen Dateien und in der Verbunddatenbank vollzogen werden. Seit Anfang September ist die erste Stufe der Onlinekommunikation im produktiven Einsatz: Die PND-Redaktionen in den Aleph-Verbünden arbeiten online zusammen. Das neue Verfahren wird sich auf alle bei der DNB geführten Normdaten erstrecken und in einem gestuften Verfahren eingeführt werden. Die DNB war in zahlreichen Standardisierungsgremien zur Weiterentwicklung von Metadatenstandards wie z.B. Dublin Core und ONIX (Online Information eXchange) sowie bei den Entwicklungsarbeiten für The European Library beteiligt. Die Projektarbeiten im Projekt KIM - Kompetenzzentrum Interoperable Metadaten wurden maßgeblich unterstützt. Im Rahmen der Arbeiten zum Gesetz über die Deutsche Nationalbibliothek wurde ein Metadatenkernset für die Übermittlung von Metadaten an die DNB entwickelt und in einer ersten Stufe mit einem ONIX-Mapping versehen. Innerhalb des Projektes »Virtual International Authority File - VIAF« entwickelten die Library of Congress (LoC), die DNB und OCLC - zunächst für Personennamen - gemeinsam eine virtuelle, internationale Normdatei, in der die Normdatensätze der nationalen Normdateien im Web frei zugänglich miteinander verbunden werden sollen. Die bisherigen Projektergebnisse haben die Machbarkeit einer internationalen Normdatei eindrucksvoll unter Beweis gestellt. Darum haben die Projektpartner in einem neuen Abkommen, das auch die Bibliothèque Nationale de France einschließt, im Oktober 2007 ihr Engagement für den VIAF nochmals bekräftigt und damit eine Konsolidierungs- und Erweiterungsphase eingeleitet."
"DDC-Deutsch - Bereits im Jahr 2006 wurde die Dewey-Dezimalklassifikation (DDC) für die inhaltliche Erschließung der in den Reihen B (Monografien und Periodika außerhalb des Verlagsbuchhandels) und H (Hochschulschriften) der Deutschen Nationalbibliografie angezeigten Publikationen eingeführt. Mit Heft 1/2007 hat die DDC auch in der Reihe A (Monografien und Periodika des Verlagsbuchhandels) Einzug gehalten. Die dort angezeigten Publikationen werden zusätzlich wie bisher vollständig mit RSWK Schlagwortketten erschlossen. Die DNB wird damit zum größten europäischen Lieferanten von Dewey-Notationen und nimmt nach der LoC weltweit die zweite Stelle ein. Durch die Integration der Daten der DNB in den WorldCat werden Sichtbarkeit und Nutzungsmöglichkeiten dieses Angebots auch über den deutschsprachigen Raum hinaus verbessert. Um den Informationsaustausch unter den europäischen DDC-Anwendern zu verbessern, europäische Belange in der Klassifikation stärker durchzusetzen und die Verbreitung in Europa gemeinsam mit OCLC zu koordinieren, wurde die EDUG (European DDC Users' Group) gegründet."
"CrissCross - Ende Januar 2006 startete das von der DNB und der Fachhochschule Köln gemeinsam betriebene und von der DFG geförderte Projekt CrissCross. Das Projekt soll ein multilinguales, thesaurusbasiertes und benutzergerechtes Recherchevokabular schaffen. Hierzu werden die Sachschlagwörter der Schlagwortnormdatei (SWD) mit den DDC-Notationen verbunden. Die Multilingualität wird durch die Verknüpfung mit ihren Äquivalenten in den beiden umfassenden Schlagwortnormdateien Library of Congress Subject Headings (LCSH) und Rameau (Répertoire d'autorité-matière encyclopédique et alphabétique unifié) erreicht. Die im Rahmen des Projekts erarbeiteten Festlegungen zur methodischen Vorgehensweise bei der Verknüpfung der DDC mit den SWD-Sachschlagwörtern wurden weiter präzisiert und fortentwickelt. Für die zweite Komponente des Projekts, die Anreicherung der in der Datenbank des MACS-Projekts vorliegenden Verbindungen zwischen LCSH und Rameau um den äquivalenten SWD-Terminus, wurde eine Vervollständigung und eine Verbesserung der Datenbasis erreicht und Tests der Verlinkung durchgeführt."
"DDC-vascoda - Das Projekt DDC-vascoda wurde 2007 abgeschlossen. Für den Sucheinstieg bei vascoda wurde bislang nur eine Freitextsuche über alle Felder oder eine Expertensuche, bei der die Freitextsuche mit den formalen Kriterien Autor, Titel und (Erscheinungs-)Jahr kombiniert werden kann, angeboten. Die Suche konnte zwar auf einzelne Fächer oder Fachzugänge beschränkt werden, ein sachlicher Zugang zu der Information fehlt jedoch. Vascoda verwendete die Dewey Decimal Classification (DDC) als einheitliches Klassifikationsinstrument. Ziel des Projektes DDC-vascoda war es, über diese Klassifikation einen komfortablen und einheitlichen sachlichen Zugang als Einstieg in das Gesamtangebot einzurichten. Weiterhin wurde ein HTML-Dienst entwickelt, der es Fachportalen und anderen Datenanbietern ermöglicht, ohne großen Programmieraufwand ein DDC-Browsing über die eigenen Daten bereitzustellen."
-
Brakel, P.A. v.: Electronic journals : publishing via Internet's Wolrd Wide Web (1995)
0.05
0.049568687 = product of:
0.19827475 = sum of:
0.19827475 = weight(_text_:html in 2454) [ClassicSimilarity], result of:
0.19827475 = score(doc=2454,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.56872755 = fieldWeight in 2454, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.078125 = fieldNorm(doc=2454)
0.25 = coord(1/4)
- Abstract
- Describes ways in which the facilities provided by Internet's WWW could be used to solve some of the problems hampering the electronic publishing of periodicals. Argues that 3 WWW specifications provide the ideal arena for electronic periodical publishing: URL; HTTP and HTML
-
Courtois, M.P.; Berry, M.W.: Results ranking in Web search engines (1999)
0.05
0.049568687 = product of:
0.19827475 = sum of:
0.19827475 = weight(_text_:html in 3794) [ClassicSimilarity], result of:
0.19827475 = score(doc=3794,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.56872755 = fieldWeight in 3794, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.078125 = fieldNorm(doc=3794)
0.25 = coord(1/4)
- Footnote
- Auch unter: http://www.on-lineinc.com/on-linemag/OL1999/courtois5.html.
-
Page, A.: ¬The search is over : the search-engines secrets of the pros (1996)
0.05
0.049568687 = product of:
0.19827475 = sum of:
0.19827475 = weight(_text_:html in 5738) [ClassicSimilarity], result of:
0.19827475 = score(doc=5738,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.56872755 = fieldWeight in 5738, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.078125 = fieldNorm(doc=5738)
0.25 = coord(1/4)
- Footnote
- Auch unter: http://www.zdnet.com/pccomp/features/fea1096/sub2.html
-
Walker, D.: AusSI Web Indexing Prize (1996)
0.05
0.049568687 = product of:
0.19827475 = sum of:
0.19827475 = weight(_text_:html in 28) [ClassicSimilarity], result of:
0.19827475 = score(doc=28,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.56872755 = fieldWeight in 28, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.078125 = fieldNorm(doc=28)
0.25 = coord(1/4)
- Abstract
- Gives a background to a new WWW indexing prize being offered by the Australian Society of Indexers. Describes a WWW index; how to set up CINDEX or MACREX indexing software to produce output for WEBIX, a specially created tool to convert a standard index into HTML; how to create a bibliographic index; and how to build a bibliographhy
-
Functional requirements for evidence in recordkeeping (1997)
0.05
0.049568687 = product of:
0.19827475 = sum of:
0.19827475 = weight(_text_:html in 190) [ClassicSimilarity], result of:
0.19827475 = score(doc=190,freq=2.0), product of:
0.3486287 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.06772732 = queryNorm
0.56872755 = fieldWeight in 190, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.078125 = fieldNorm(doc=190)
0.25 = coord(1/4)
- Footnote
- Vgl. auch: http://www.lis.pitt.edu/~nhprc/meta96.html