Search (13408 results, page 7 of 671)

  1. Hill, L.: New Protocols for Gazetteer and Thesaurus Services (2002) 0.06
    0.06436761 = product of:
      0.12873521 = sum of:
        0.014308145 = weight(_text_:und in 2206) [ClassicSimilarity], result of:
          0.014308145 = score(doc=2206,freq=2.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.098018214 = fieldWeight in 2206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2206)
        0.114427075 = weight(_text_:handling in 2206) [ClassicSimilarity], result of:
          0.114427075 = score(doc=2206,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.27719125 = fieldWeight in 2206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.03125 = fieldNorm(doc=2206)
      0.5 = coord(2/4)
    
    Abstract
    The Alexandria Digital Library Project announces the online publication of two protocols to support querying and response interactions using distributed services: one for gazetteers and one for thesauri. These protocols have been developed for our own purposes and also to support the general interoperability of gazetteers and thesauri on the web. See <http://www.alexandria.ucsb.edu/~gjanee/gazetteer/> and <http://www.alexandria.ucsb.edu/~gjanee/thesaurus/>. For the gazetteer protocol, we have provided a page of test forms that can be used to experiment with the operational functions of the protocol in accessing two gazetteers: the ADL Gazetteer and the ESRI Gazetteer (ESRI has participated in the development of the gazetteer protocol). We are in the process of developing a thesaurus server and a simple client to demonstrate the use of the thesaurus protocol. We are soliciting comments on both protocols. Please remember that we are seeking protocols that are essentially "simple" and easy to implement and that support basic operations - they should not duplicate all of the functions of specialized gazetteer and thesaurus interfaces. We continue to discuss ways of handling various issues and to further develop the protocols. For the thesaurus protocol, outstanding issues include the treatment of multilingual thesauri and the degree to which the language attribute should be supported; whether the Scope Note element should be changed to a repeatable Note element; the best way to handle the hierarchical report for multi-hierarchies where portions of the hierarchy are repeated; and whether support for searching by term identifiers is redundant and unnecessary given that the terms themselves are unique within a thesaurus. For the gazetteer protocol, we continue to work on validation of query and report XML documents and on implementing the part of the protocol designed to support the submission of new entries to a gazetteer. We would like to encourage open discussion of these protocols through the NKOS discussion list (see the NKOS webpage at <http://nkos.slis.kent.edu/>) and the CGGR-L discussion list that focuses on gazetteer development (see ADL Gazetteer Development page at <http://www.alexandria.ucsb.edu/gazetteer>).
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  2. Wissenschaftskommunikation der Zukunft (WissKom 2007) : 4. Konferenz der Zentralbibliothek Forschungszentrum Jülich : 6. - 8. November 2007 ; Beiträge und Poster / [WissKom 2007]. Forschungszentrum Jülich GmbH, Zentralbibliothek. Rafael Ball (Hrsg.). [Mit einem Festvortrag von Ernst Pöppel] (2007) 0.06
    0.06332138 = product of:
      0.12664276 = sum of:
        0.05512584 = weight(_text_:und in 64) [ClassicSimilarity], result of:
          0.05512584 = score(doc=64,freq=76.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.37764058 = fieldWeight in 64, product of:
              8.717798 = tf(freq=76.0), with freq of:
                76.0 = termFreq=76.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=64)
        0.07151692 = weight(_text_:handling in 64) [ClassicSimilarity], result of:
          0.07151692 = score(doc=64,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.17324454 = fieldWeight in 64, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.01953125 = fieldNorm(doc=64)
      0.5 = coord(2/4)
    
    BK
    02.16 / Wissenschaftliche und kulturelle Zusammenarbeit
    Classification
    AK 28400 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftspraxis / Informationen, Kontakte, Austausch, Technologietransfer
    02.16 / Wissenschaftliche und kulturelle Zusammenarbeit
    Content
    Enthält die Beiträge: Ernst Pöppel: Wissen - und wie es kommuniziert werden kann. - Anne-Katharina Weilenmann: Von Cyberscience zu e-Science. - Katrin Weller, Indra Mainz, Ingo Paulsen, Dominic Mainz: Semantisches und vernetztes Wissensmanagement für Forschung und Wissenschaft. - Ute Rusnak, Matthias Razum, Leni Helmes: Wissensvernetzung im Forschungsprozess. - Elena Semenova, Martin Stricker: Eine Ontologie der Wissenschaftsdisziplinen. Entwicklung eines Instrumentariums für die Wissenskommunikation. - Peter Haber, Jan Hodel: Historische Fachkommunikation im Wandel. Analysen und Trends. - Lydia Bauer, Nadja Böller, Josef Herget, Sonja Hierl: Konzepte zur Förderung der Wissenschaftskommunikation: Der Churer Ansatz zur Vermittlung von kollaborativen Kompetenzen. - Susanne von liter: Wissenschaftskommunikation in der Entwicklungsforschung/Entwicklungszusammenarbeit Web2.0 und Communities of Practice - ein Beitrag aus der Praxis. - Steffen Leich-Nienhaus: Wissenschaftliche Informationsversorgung am modernen digitalen Arbeitsplatz. - Christian Hänger, Christine Krätzsch: Collaborative Tagging als neuer Service von Hochschulbibliotheken. - Christoph Bläsi: Mobile IT in kleinen und mittleren Medienunternehmen zur Prozess- und Serviceverbesserung. - Michael Diepenbroek, Hannes Grobe: PANGAEA® als vernetztes Verlags- und Bibliothekssystem für wissenschaftliche Daten. - Jan Brase, Jens Klump: Zitierfähige Datensätze: Primärdaten-Management durch DOls. - Harald Krottmaier: Die Systemarchitektur von PROBADO: Der allgemeine Zugriff auf Repositorien mit nicht-textuellen Inhalten. - Annette Holtkamp: Open Access Publishing in der Hochenergiephysik: Das SCOAP3 Projekt. - Wiebke Oeltjen: Metadaten-Management mit MyCoRe. - Karin Weishaupt: Open-Access-Zeitschriften als neue Form wissenschaftlicher Kommunikation: Vorbehalte und Vorschläge für Maßnahmen zur Akzeptanzsteigerung. - Wolfgang Glänzel, Koenraad Debackere: Bibliometrie zwischen Forschung und Dienstleistung. - Patrick Vanouplines, Ronald Beullens: Merging information sources to obtain the impact factor of open access journals. - Dirk Tunger: Bibliometrie als Teil eines Trenderkennungs-Systems in der Naturwissenschaft. - Milos Jovanovic: Indicators for Footprints through science - Designing the Journal Application Level (JAL). - James Pringle: The ISl Web of Knowledge as a Management Tool. - Show-Ling Lee-Müller, Gerd Schumacher: Einsatz bibliometrischer Analysen im EU-Projekt zur Technologiefrüherkennung SMART. - Henning Möller: Messen, Steuern, Regeln - zum Controlling der Helmhoitz-Forschung
    Footnote
    Rez. in: BuB 60(2008) H.6, S.501-502 (J. Plieninger): "Kommunikation war schon immer eine Voraussetzung von Wissenschaft, eine Kommunikation, die sich innerhalb von akademischen Institutionen, in Gremien oder in einer Fachöffentlichkeit vollzog. Sie ist daher nichts neues, neu sind aber die wachsenden Möglichkeiten, sich aufgrund der elektronischen Datenverarbeitung, des Internet und dem damit einhergehenden Zugriff auf Online-Kataloge, -Datenbanken und -Texte sowie Web 2.0-Anwendungen - kurz: der »neuen Medien« - effektiver zu informieren und zu kommunizieren (»vernetzen«), als es früher mithilfe von Zettelkasten, Korrespondenz, papiergestützter Literatur sowie durch Konferenzen der Fall war. Für die Auslotung dieses Wechsels, für die Herausforderungen von Wissensmanagement, Vermittlung von Informationskompetenz, Aufarbeitung von Digitalisaten und der Evaluation wissenschaftlicher Leistungen unter den neuen Rahmenbedingungen geben die Beiträge dieses Bandes eine gute Hilfe. Die Zentralbibliothek des Forschungszentrums Jülich, deren Leiter Rafael Ball den Band herausgibt, veranstaltet seit Jahren eine Reihe kleinerer und größerer Tagungen. Die 23 Beiträge der »Wissenschaftskommunikation der Zukunft« sind nach den Themenschwerpunkten »Neue Formen wissenschaftlicher Zusammenarbeit«, »Wissenschaftliche Kommunikation in Forschung und Lehre«, »Praxisbeispiele Web 2.0» »Primärdatenmanagement«, »Neue Aspekte von Wissenschaftsindikatoren« und »Wissenschaftsindikatoren als Managementtool« geordnet. Zwei Beiträge sind in Englisch verfasst, der Rest in Deutsch. Bei der Lektüre der Aufsätze beeindruckt der Brückenschlag zwischen Natur- und Geisteswissenschaften sowie zwischen Theorie und Praxis. Es ist somit für jedem etwas dabei, ganz gleich, um welches Interesse es sich handelt: Theoretische beziehungsweise auf Grundlagen ausgerichtete Abhandlungen wechseln sich mit praktischen Modellen und Umsetzungsbeispielen ab. Natürlich sind wie in jedem Konferenzband theoretische Abhandlungen mit Worthülsen und praktische Darstellungen, die sich lediglich auf ein bestimmtes Projekt beziehen und somit für eine Übertragung auf eigene Gegebenheiten schlecht eignen, zu finden.
    Dennoch enthält der Band viele Beiträge, die für jene, die auf dem Feld der Wissenschaftskommunikation tätig sind, als fruchtbare Denkvorlage oder brauchbares praktisches Beispiel nützlich sind. Kommunikation in »Communities« Im Teil eScience (wobei das »e« für »enhanced« gleich »erweitert, verbessert« steht) werden in mehreren Beiträgen Projekte und Programme vorgestellt, welche die Bildung von und Kommunikation in »Communities« unterstützen und die kontrolliertes Vokabular (sogenannte »Ontologien«) für die Erschließung der unterschiedlichsten Medien bieten. Im Teil zur wissenschaftlichen Kommunikation hat dem Rezensenten besonders der Beitrag zu wandelnden Anforderungen von Historikern an einen virtuellen Arbeitsplatz und eine sich wandelnde Fachkommunikation gefallen, der darauf folgende Artikel aus Chur, der ein integriertes Modell von Maßnahmen zur Informations-, Medien- und Methodenkompetenz vorschlägt, ist für jeden hilfreich, die/der InformationskompetenzVeranstaltungen plant und durchführt. Bei den Praxisbeispielen zu Web 2.0 gefielen sowohl die Schilderung der Kommunikation innerhalb verschiedener Institutionen der Entwicklungsforschung, was die Bedeutung von RSS als Technik der kollektiven Information hervorhob, als auch der eher auf die Informationsversorgung abgestellte Bericht aus einem Unternehmen. Aber auch der Artikel zum »Collaborative Tagging» als einem neuen Dienst von Hochschulbibliotheken gibt Anhaltspunkte, dass das Verschlagworten nicht nur den Online-Foren vorbehalten bleibt, sondern zunehmend systematisch in den Hochschulen eingeführt wird. Beim Teil zum Primärdatenmanagement behandeln mehrere Beiträge die Praxis von Repositorien und der Erschließung der dort gelagerten Mediendateien, ebenso wird in zwei Beiträgen näher auf Open Access eingegangen, unter anderem auf die Nachweismittel von Open Access Journals wie zum Beispiel das »Directory of Open Access Journals« (DOAJ, www.doaj.org).
    Die letzten beiden Teile des Kongressbandes behandeln die Möglichkeiten der Bibliometrie zum Handling des sich explosionsartig vermehrenden Wissens sowie der Einsatz solcher Technologien als Trenderkennungssystem. Zuletzt behandelt ein Artikel die Evaluation der Helmholtz-Einrichtungen. Am Schluss befindet sich noch ein sechsseitiges Register, das sehr hilfreich und für einen Kongressband keineswegs selbstverständlich ist. Vielleicht sollte noch auf den als Einleitung abgedruckten, überaus lesenswerten Festvortrag von Ernst Pöppel, Professor für medizinische Psychologie aus München, hingewiesen werden, der die verschiedenen Formen des Wissens allgemeinverständlich aus Sicht der Hirnforschung darstellt. Hervorzuheben ist noch, dass die Publikation kostenlos über den Publikationsserver des FZ Jülich bezogen werden kann, eine Tatsache, die sich offensichtlich nicht herumgesprochen hat, da bei einer Suche über den Karlsruher Virtuellen Katalog (Stand: 22. April 2008) dieses »Exemplar« nicht gefunden wurde. Als höchstes der Gefühle bietet der Südwestverbund bei »elektronische Referenz« einen Link auf das Inhaltsverzeichnis. Vielleicht erbarmt sich pro Verbund jemand und nimmt die elektronische Version auf."
    Weitere Rez. in: Mitt VÖB 61(2008) H.2, S79-84 (E. Pipp): " ... Der Tagungsband bietet einen guten Einblick in die behandelten Themenschwerpunkte. Da sich alle Autor/inn/en bemühten, Fragestellungen, Probleme und Ziele vorzustellen, auf weiterführende Literatur und zukunftsweisende Lösungsansätze hinzuweisen, wird dieser Tagungsband sicherlich auch noch in einigen Jahren mit Gewinn gelesen werden können." - IWP 59(2008) H.4, S.267-268 (A. Oßwald)
    RVK
    AK 28400 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftspraxis / Informationen, Kontakte, Austausch, Technologietransfer
  3. Information science in transition (2009) 0.06
    0.06321683 = product of:
      0.12643366 = sum of:
        0.025293468 = weight(_text_:und in 1634) [ClassicSimilarity], result of:
          0.025293468 = score(doc=1634,freq=16.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.17327337 = fieldWeight in 1634, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1634)
        0.10114019 = weight(_text_:handling in 1634) [ClassicSimilarity], result of:
          0.10114019 = score(doc=1634,freq=4.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.24500476 = fieldWeight in 1634, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1634)
      0.5 = coord(2/4)
    
    Abstract
    Are we at a turning point in digital information? The expansion of the internet was unprecedented; search engines dealt with it in the only way possible - scan as much as they could and throw it all into an inverted index. But now search engines are beginning to experiment with deep web searching and attention to taxonomies, and the semantic web is demonstrating how much more can be done with a computer if you give it knowledge. What does this mean for the skills and focus of the information science (or sciences) community? Should information designers and information managers work more closely to create computer based information systems for more effective retrieval? Will information science become part of computer science and does the rise of the term informatics demonstrate the convergence of information science and information technology - a convergence that must surely develop in the years to come? Issues and questions such as these are reflected in this monograph, a collection of essays written by some of the most pre-eminent contributors to the discipline. These peer reviewed perspectives capture insights into advances in, and facets of, information science, a profession in transition. With an introduction from Jack Meadows the key papers are: Meeting the challenge, by Brian Vickery; The developing foundations of information science, by David Bawden; The last 50 years of knowledge organization, by Stella G Dextre Clarke; On the history of evaluation in IR, by Stephen Robertson; The information user, by Tom Wilson A; The sociological turn in information science, by Blaise Cronin; From chemical documentation to chemoinformatics, by Peter Willett; Health informatics, by Peter A Bath; Social informatics and sociotechnical research, by Elisabeth Davenport; The evolution of visual information retrieval, by Peter Enser; Information policies, by Elizabeth Orna; Disparity in professional qualifications and progress in information handling, by Barry Mahon; Electronic scholarly publishing and open access, by Charles Oppenheim; Social software: fun and games, or business tools? by Wendy A Warr; and, Bibliometrics to webometrics, by Mike Thelwall. This monograph previously appeared as a special issue of the "Journal of Information Science", published by Sage. Reproduced here as a monograph, this important collection of perspectives on a skill set in transition from a prestigious line-up of authors will now be available to information studies students worldwide and to all those working in the information science field.
    Content
    Inhalt: Fifty years of UK research in information science - Jack Meadows / Smoother pebbles and the shoulders of giants: the developing foundations of information science - David Bawden / The last 50 years of knowledge organization: a journey through my personal archives - Stella G. Dextre Clarke / On the history of evaluation in IR - Stephen Robertson / The information user: past, present and future - Tom Wilson / The sociological turn in information science - Blaise Cronin / From chemical documentation to chemoinformatics: 50 years of chemical information science - Peter Willett / Health informatics: current issues and challenges - Peter A. Bath / Social informatics and sociotechnical research - a view from the UK - Elisabeth Davenport / The evolution of visual information retrieval - Peter Enser / Information policies: yesterday, today, tomorrow - Elizabeth Orna / The disparity in professional qualifications and progress in information handling: a European perspective - Barry Mahon / Electronic scholarly publishing and Open Access - Charles Oppenheim / Social software: fun and games, or business tools ? - Wendy A. Warr / Bibliometrics to webometrics - Mike Thelwall / How I learned to love the Brits - Eugene Garfield
    Footnote
    Rez. in: Mitt VÖB 62(2009) H.3, S.95-99 (O. Oberhauser): "Dieser ansehnliche Band versammelt 16 Beiträge und zwei Editorials, die bereits 2008 als Sonderheft des Journal of Information Science erschienen sind - damals aus Anlass des 50. Jahrestages der Gründung des seit 2002 nicht mehr selbständig existierenden Institute of Information Scientists (IIS). Allgemein gesprochen, reflektieren die Aufsätze den Stand der Informationswissenschaft (IW) damals, heute und im Verlauf dieser 50 Jahre, mit Schwerpunkt auf den Entwicklungen im Vereinigten Königreich. Bei den Autoren der Beiträge handelt es sich um etablierte und namhafte Vertreter der britischen Informationswissenschaft und -praxis - die einzige Ausnahme ist Eugene Garfield (USA), der den Band mit persönlichen Reminiszenzen beschließt. Mit der nunmehrigen Neuauflage dieser Kollektion als Hardcover-Publikation wollten Herausgeber und Verlag vor allem einen weiteren Leserkreis erreichen, aber auch den Bibliotheken, die die erwähnte Zeitschrift im Bestand haben, die Möglichkeit geben, das Werk zusätzlich als Monographie zur Aufstellung zu bringen. . . . Bleibt die Frage, ob eine neuerliche Publikation als Buch gerechtfertigt ist. Inhaltlich besticht der Band ohne jeden Zweifel. Jeder, der sich für Informationswissenschaft interessiert, wird von den hier vorzufindenden Texten profitieren. Und: Natürlich ist es praktisch, eine gediegene Buchpublikation in Händen zu halten, die in vielen Bibliotheken - im Gegensatz zum Zeitschriftenband - auch ausgeliehen werden kann. Alles andere ist eigentlich nur eine Frage des Budgets." Weitere Rez. in IWP 61(2010) H.2, S.148 (L. Weisel); JASIST 61(2010) no.7, S.1505 (M. Buckland); KO 38(2011) no.2, S.171-173 (P. Matthews): "Armed then with tools and techniques often applied to the structural analysis of other scientific fields, this volume frequently sees researchers turning this lens on themselves and ranges in tone from the playfully reflexive to the (parentally?) overprotective. What is in fact revealed is a rather disparate collection of research areas, all making a valuable contribution to our understanding of the nature of information. As is perhaps the tendency with overzealous lumpers (see http://en.wikipedia.org/wiki/Lumpers_and_splitters), some attempts to bring these areas together seem a little forced. The splitters help draw attention to quite distinct specialisms, IS's debts to other fields, and the ambition of some emerging subfields to take up intellectual mantles established elsewhere. In the end, the multidisciplinary nature of information science shines through. With regard to future directions, the subsumption of IS into computer science is regarded as in many ways inevitable, although there is consensus that the distinct infocentric philosophy and outlook which has evolved within IS is something to be retained." Weitere Rez. in: KO 39(2012) no.6, S.463-465 (P. Matthews)
    RSWK
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
    Subject
    Informations- und Dokumentationswissenschaft / Aufsatzsammlung
  4. Braeckman, J.: ¬The integration of library information into a campus wide information system (1996) 0.06
    0.06320464 = product of:
      0.25281855 = sum of:
        0.25281855 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.25281855 = score(doc=729,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.5450528 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=729)
      0.25 = coord(1/4)
    
    Abstract
    Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven
  5. Chang, S.-F.; Smith, J.R.; Meng, J.: Efficient techniques for feature-based image / video access and manipulations (1997) 0.06
    0.06320464 = product of:
      0.25281855 = sum of:
        0.25281855 = weight(_text_:java in 756) [ClassicSimilarity], result of:
          0.25281855 = score(doc=756,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.5450528 = fieldWeight in 756, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=756)
      0.25 = coord(1/4)
    
    Abstract
    Describes 2 research projects aimed at studying the parallel issues of image and video indexing, information retrieval and manipulation: VisualSEEK, a content based image query system and a Java based WWW application supporting localised colour and spatial similarity retrieval; and CVEPS (Compressed Video Editing and Parsing System) which supports video manipulation with indexing support of individual frames from VisualSEEK and a hierarchical new video browsing and indexing system. In both media forms, these systems address the problem of heterogeneous unconstrained collections
  6. Lo, M.L.: Recent strategies for retrieving chemical structure information on the Web (1997) 0.06
    0.06320464 = product of:
      0.25281855 = sum of:
        0.25281855 = weight(_text_:java in 3611) [ClassicSimilarity], result of:
          0.25281855 = score(doc=3611,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.5450528 = fieldWeight in 3611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3611)
      0.25 = coord(1/4)
    
    Abstract
    Discusses various structural searching methods available on the Web. some databases such as the Brookhaven Protein Database use keyword searching which does not provide the desired substructure search capabilities. Others like CS ChemFinder and MDL's Chemscape use graphical plug in programs. Although plug in programs provide more capabilities, users first have to obtain a copy of the programs. Due to this limitation, Tripo's WebSketch and ACD Interactive Lab adopt a different approach. Using JAVA applets, users create and display a structure query of the molecule on the web page without using other software. The new technique is likely to extend itself to other electronic publications
  7. Priss, U.: ¬A graphical interface for conceptually navigating faceted thesauri (1998) 0.06
    0.06320464 = product of:
      0.25281855 = sum of:
        0.25281855 = weight(_text_:java in 658) [ClassicSimilarity], result of:
          0.25281855 = score(doc=658,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.5450528 = fieldWeight in 658, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=658)
      0.25 = coord(1/4)
    
    Abstract
    This paper describes a graphical interface for the navigation and construction of faceted thesauri that is based on formal concept analysis. Each facet of a thesaurus is represented as a mathematical lattice that is further subdivided into components. Users can graphically navigate through the Java implementation of the interface by clicking on terms that connect facets and components. Since there are many applications for thesauri in the knowledge representation field, such a graphical interface has the potential of being very useful
  8. Renehan, E.J.: Science on the Web : a connoisseur's guide to over 500 of the best, most useful, and most fun science Websites (1996) 0.06
    0.06320464 = product of:
      0.25281855 = sum of:
        0.25281855 = weight(_text_:java in 1211) [ClassicSimilarity], result of:
          0.25281855 = score(doc=1211,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.5450528 = fieldWeight in 1211, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1211)
      0.25 = coord(1/4)
    
    Abstract
    Written by the author of the best-selling 1001 really cool Web sites, this fun and informative book enables readers to take full advantage of the Web. More than a mere directory, it identifies and describes the best sites, guiding surfers to such innovations as VRML3-D and Java. Aside from downloads of Web browsers, Renehan points the way to free compilers and interpreters as well as free online access to major scientific journals
  9. Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002) 0.06
    0.06320464 = product of:
      0.25281855 = sum of:
        0.25281855 = weight(_text_:java in 4608) [ClassicSimilarity], result of:
          0.25281855 = score(doc=4608,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.5450528 = fieldWeight in 4608, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4608)
      0.25 = coord(1/4)
    
    Abstract
    In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.
  10. Hancock, B.; Giarlo, M.J.: Moving to XML : Latin texts XML conversion project at the Center for Electronic Texts in the Humanities (2001) 0.06
    0.06320464 = product of:
      0.25281855 = sum of:
        0.25281855 = weight(_text_:java in 5801) [ClassicSimilarity], result of:
          0.25281855 = score(doc=5801,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.5450528 = fieldWeight in 5801, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5801)
      0.25 = coord(1/4)
    
    Abstract
    The delivery of documents on the Web has moved beyond the restrictions of the traditional Web markup language, HTML. HTML's static tags cannot deal with the variety of data formats now beginning to be exchanged between various entities, whether corporate or institutional. XML solves many of the problems by allowing arbitrary tags, which describe the content for a particular audience or group. At the Center for Electronic Texts in the Humanities the Latin texts of Lector Longinquus are being transformed to XML in readiness for the expected new standard. To allow existing browsers to render these texts, a Java program is used to transform the XML to HTML on the fly.
  11. Calishain, T.; Dornfest, R.: Google hacks : 100 industrial-strength tips and tools (2003) 0.06
    0.06303135 = product of:
      0.1260627 = sum of:
        0.09029234 = weight(_text_:java in 134) [ClassicSimilarity], result of:
          0.09029234 = score(doc=134,freq=2.0), product of:
            0.46384227 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0658165 = queryNorm
            0.19466174 = fieldWeight in 134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
        0.035770364 = weight(_text_:und in 134) [ClassicSimilarity], result of:
          0.035770364 = score(doc=134,freq=32.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.24504554 = fieldWeight in 134, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=134)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: nfd - Information Wissenschaft und Praxis 54(2003) H.4, S.253 (D. Lewandowski): "Mit "Google Hacks" liegt das bisher umfassendste Werk vor, das sich ausschließlich an den fortgeschrittenen Google-Nutzer wendet. Daher wird man in diesem Buch auch nicht die sonst üblichen Anfänger-Tips finden, die Suchmaschinenbücher und sonstige Anleitungen zur Internet-Recherche für den professionellen Nutzer in der Regel uninteressant machen. Mit Tara Calishain hat sich eine Autorin gefunden, die bereits seit nahezu fünf Jahren einen eigenen Suchmaschinen-Newsletter (www.researchbuzz.com) herausgibt und als Autorin bzw. Co-Autorin einige Bücher zum Thema Recherche verfasst hat. Für die Programmbeispiele im Buch ist Rael Dornfest verantwortlich. Das erste Kapitel ("Searching Google") gibt einen Einblick in erweiterte Suchmöglichkeiten und Spezifika der behandelten Suchmaschine. Dabei wird der Rechercheansatz der Autorin klar: die beste Methode sei es, die Zahl der Treffer selbst so weit einzuschränken, dass eine überschaubare Menge übrig bleibt, die dann tatsächlich gesichtet werden kann. Dazu werden die feldspezifischen Suchmöglichkeiten in Google erläutert, Tips für spezielle Suchen (nach Zeitschriftenarchiven, technischen Definitionen, usw.) gegeben und spezielle Funktionen der Google-Toolbar erklärt. Bei der Lektüre fällt positiv auf, dass auch der erfahrene Google-Nutzer noch Neues erfährt. Einziges Manko in diesem Kapitel ist der fehlende Blick über den Tellerrand: zwar ist es beispielsweise möglich, mit Google eine Datumssuche genauer als durch das in der erweiterten Suche vorgegebene Auswahlfeld einzuschränken; die aufgezeigte Lösung ist jedoch ausgesprochen umständlich und im Recherchealltag nur eingeschränkt zu gebrauchen. Hier fehlt der Hinweis, dass andere Suchmaschinen weit komfortablere Möglichkeiten der Einschränkung bieten. Natürlich handelt es sich bei dem vorliegenden Werk um ein Buch ausschließlich über Google, trotzdem wäre hier auch ein Hinweis auf die Schwächen hilfreich gewesen. In späteren Kapiteln werden durchaus auch alternative Suchmaschinen zur Lösung einzelner Probleme erwähnt. Das zweite Kapitel widmet sich den von Google neben der klassischen Websuche angebotenen Datenbeständen. Dies sind die Verzeichniseinträge, Newsgroups, Bilder, die Nachrichtensuche und die (hierzulande) weniger bekannten Bereichen Catalogs (Suche in gedruckten Versandhauskatalogen), Froogle (eine in diesem Jahr gestartete Shopping-Suchmaschine) und den Google Labs (hier werden von Google entwickelte neue Funktionen zum öffentlichen Test freigegeben). Nachdem die ersten beiden Kapitel sich ausführlich den Angeboten von Google selbst gewidmet haben, beschäftigt sich das Buch ab Kapitel drei mit den Möglichkeiten, die Datenbestände von Google mittels Programmierungen für eigene Zwecke zu nutzen. Dabei werden einerseits bereits im Web vorhandene Programme vorgestellt, andererseits enthält das Buch viele Listings mit Erläuterungen, um eigene Applikationen zu programmieren. Die Schnittstelle zwischen Nutzer und der Google-Datenbank ist das Google-API ("Application Programming Interface"), das es den registrierten Benutzern erlaubt, täglich bis zu 1.00o Anfragen über ein eigenes Suchinterface an Google zu schicken. Die Ergebnisse werden so zurückgegeben, dass sie maschinell weiterverarbeitbar sind. Außerdem kann die Datenbank in umfangreicherer Weise abgefragt werden als bei einem Zugang über die Google-Suchmaske. Da Google im Gegensatz zu anderen Suchmaschinen in seinen Benutzungsbedingungen die maschinelle Abfrage der Datenbank verbietet, ist das API der einzige Weg, eigene Anwendungen auf Google-Basis zu erstellen. Ein eigenes Kapitel beschreibt die Möglichkeiten, das API mittels unterschiedlicher Programmiersprachen wie PHP, Java, Python, usw. zu nutzen. Die Beispiele im Buch sind allerdings alle in Perl geschrieben, so dass es sinnvoll erscheint, für eigene Versuche selbst auch erst einmal in dieser Sprache zu arbeiten.
    Das sechste Kapitel enthält 26 Anwendungen des Google-APIs, die teilweise von den Autoren des Buchs selbst entwickelt wurden, teils von anderen Autoren ins Netz gestellt wurden. Als besonders nützliche Anwendungen werden unter anderem der Touchgraph Google Browser zur Visualisierung der Treffer und eine Anwendung, die eine Google-Suche mit Abstandsoperatoren erlaubt, vorgestellt. Auffällig ist hier, dass die interessanteren dieser Applikationen nicht von den Autoren des Buchs programmiert wurden. Diese haben sich eher auf einfachere Anwendungen wie beispielsweise eine Zählung der Treffer nach der Top-Level-Domain beschränkt. Nichtsdestotrotz sind auch diese Anwendungen zum großen Teil nützlich. In einem weiteren Kapitel werden pranks and games ("Streiche und Spiele") vorgestellt, die mit dem Google-API realisiert wurden. Deren Nutzen ist natürlich fragwürdig, der Vollständigkeit halber mögen sie in das Buch gehören. Interessanter wiederum ist das letzte Kapitel: "The Webmaster Side of Google". Hier wird Seitenbetreibern erklärt, wie Google arbeitet, wie man Anzeigen am besten formuliert und schaltet, welche Regeln man beachten sollte, wenn man seine Seiten bei Google plazieren will und letztlich auch, wie man Seiten wieder aus dem Google-Index entfernen kann. Diese Ausführungen sind sehr knapp gehalten und ersetzen daher keine Werke, die sich eingehend mit dem Thema Suchmaschinen-Marketing beschäftigen. Allerdings sind die Ausführungen im Gegensatz zu manch anderen Büchern zum Thema ausgesprochen seriös und versprechen keine Wunder in Bezug auf eine Plazienung der eigenen Seiten im Google-Index. "Google Hacks" ist auch denjenigen zu empfehlen, die sich nicht mit der Programmierung mittels des APIs beschäftigen möchten. Dadurch, dass es die bisher umfangreichste Sammlung von Tips und Techniken für einen gezielteren Umgang mit Google darstellt, ist es für jeden fortgeschrittenen Google-Nutzer geeignet. Zwar mögen einige der Hacks einfach deshalb mit aufgenommen worden sein, damit insgesamt die Zahl von i00 erreicht wird. Andere Tips bringen dafür klar erweiterte Möglichkeiten bei der Recherche. Insofern hilft das Buch auch dabei, die für professionelle Bedürfnisse leider unzureichende Abfragesprache von Google ein wenig auszugleichen." - Bergische Landeszeitung Nr.207 vom 6.9.2003, S.RAS04A/1 (Rundschau am Sonntag: Netzwelt) von P. Zschunke: Richtig googeln (s. dort)
  12. Hindersmann, J.: ¬Der zentrale CD-ROM-/DVD-Service der Verbundzentrale des GBV (VZG) : Ein Erfahrungsbericht einer Anwenderbibliothek (2005) 0.06
    0.06298622 = product of:
      0.12597243 = sum of:
        0.040152133 = weight(_text_:und in 4213) [ClassicSimilarity], result of:
          0.040152133 = score(doc=4213,freq=28.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.27506292 = fieldWeight in 4213, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4213)
        0.0858203 = weight(_text_:handling in 4213) [ClassicSimilarity], result of:
          0.0858203 = score(doc=4213,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.20789343 = fieldWeight in 4213, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4213)
      0.5 = coord(2/4)
    
    Abstract
    Bei den Datenbanken geht die Entwicklung eindeutig in Richtung Online-Datenbanken. Immer mehr Anbieter stellen ihre Datenbanken von einer CD-ROM-Version auf Online um. Für die Bibliotheken ist diese Entwicklung zu begrüßen. Der Aufwand für das Einspielen und Handling der Datenbanken wird von der Bibliothek auf den Anbieter verlagert. Im günstigsten Fall muss die Bibliothek lediglich einen Link auf ihrer Homepage bzw. in DBIS einpflegen. Dennoch müssen sich die Bibliotheken nach wie vor mit den silbernen Scheiben abgeben. Gerade im geisteswissenschaftlichen Bereich erscheinen einige Fachbibliographien nur auf CD-ROM, beispielsweise der Index Theologicus oder Germanistik. Außerdem wurden in den letzten Jahren verstärkt CD-ROM-Versionen von bekannten Lexika und Nachschlagewerken veröffentlicht. Als Beispiel sei hier nur auf die Reihe "Digitale Bibliothek" mit ihren Digitalisierungen der Literaturlexika von Walther Killy, Gero von Wilpert und vielen weiteren Bänden verwiesen. Auch die großen nationalbibliographischen Verzeichnisse des Saur-Verlages liegen nur als CD-ROM vor. Bei CD-ROM-Datenbanken hat jede Bibliothek grundsätzlich die Entscheidung zu treffen, ob sie sie als Einzelplatzlizenz oder im Netzwerk anbietet. Eine Netzlizenz ist eindeutig die attraktivere Variante, denn so können Studierende und Dozenten von ihrem Arbeitsplatz aus in der Datenbank recherchieren - ein Komfort, den sie von E-Journals und Online-Datenbanken gewohnt sind. Um eine CD-ROM in einem Netzwerk anbieten zu können, muss die Bibliothek nicht nur eine Netzlizenz der Datenbank erwerben, sondern auch einen CD-ROM-Server betreiben, was nicht unbeträchtliche Kosten für die Hardwarebeschaffung sowie Personalkosten für Wartung und Betrieb des Servers bedeutet. Da vielfach dieselben Datenbanken in den Bibliotheken genutzt werden, liegt die Idee nahe, diese Datenbanken auf einem zentralen Server einzuspielen und so den Aufwand für die beteiligten Bibliotheken zu minimieren. Die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (GBV) setzte diese Idee schon 1998 in die Tat um und bot einen zentralen Service für CD-ROMDatenbanken an, allerdings zunächst nur beschränkt auf CD-ROMs der Firmen SilverPlatter und DIALOG. Der Wunsch der Bibliotheken war aber, CDROMs aller Anbieter einspielen zu können. Der neue Service der Verbundzentrale erfüllt diese Wünsche. Außer CD-ROMs verschiedener Anbieter können auch DVDs eingespielt werden. Nach einem mehrmonatigen Testbetrieb begann der Produktivbetrieb im August 2003. Derzeit gibt es für den Service drei Kunden: die Hochschulbibliothek Vechta, die Fachhochschulbibliothek Jena sowie die Universitätsbibliothek Osnabrück.
    Der CD-ROM-/DVD-Service ist eine Kooperation der Verbundzentrale (VZG) und der Firma H+H Software GmbH. Der Zugriff auf den Server erfolgt über das Wissenschaftsnetz, sodass eine schnelle Anbindung gewährleistet ist. Der Server wurde von der VZG gekauft, die Betreuung des Servers sowie das Einspielen der Datenbanken erfolgt durch die Firma H+H. Der Service war zuerst nur darauf ausgerichtet, Rechner mit Betriebsystem Windows 2000 oder höher zu unterstützen. Da in der Universität Osnabrück aber noch Rechner mit älteren Windows-Versionen sowie Linux oder Mac verbreitet sind, war diese Einschränkung inakzeptabel. Auf dem Verhandlungswege wurde für das Problem eine Lösung gefunden. Der Zugriff ist jetzt von Rechnern mit allen Betriebssystemen möglich, Rechner mit älteren Windows-Versionen sowie Linux oder Mac benötigen aber eine Terminalserverlizenz (TS-CAL), die von der zugreifenden Institution bereitgestellt werden sollte. Auf allen Rechnern, die auf den zentralen Server zugreifen, muss zuvor einmalig ein Plug-In installiert werden, das von einer Webseite von H+H heruntergeladen werden kann. Hinsichtlich der Anzahl der CD-ROMs und DVDs, die eingespielt werden können, hat H+H eine Obergrenze von 20 Titeln pro Kunde festgelegt. Für den Erwerb der Netzlizenzen ist die jeweilige Bibliothek selbst verantwortlich. Bei Titeln, die für mehrere Bibliotheken eingespielt werden, müssen die Bibliotheken untereinander klären, wer die Scheiben zu H+H schickt. Monatliche Nutzungsstatistiken sowie eine Jahresstatistik erlauben es den Bibliotheken, die Akzeptanz des Angebotes zu überprüfen und gegebenenfalls Änderungen im Portfolio vorzunehmen. H+H hat für den CD-ROM-/DVD-Service ein gestaffeltes Preissystem zu Grunde gelegt. Um diesen Service nutzen zu können, muss jede Bibliothek eine einmalige Grundgebühr zahlen. Für jede Datenbank ist dann eine Einspielgebühr und gegebenenfalls eine Updategebühr zu zahlen. Die genauen Preise kann man auf der Homepage der VZG erfahren. Eine Jahresgebühr wird nicht erhoben. Spielt eine Bibliothek nur CD-ROMs oder DVDs ein, die nicht upgedatet werden, so kann der Service in den Folgejahren praktisch ohne Folgekosten genutzt werden. Vereinbarungen über die Laufzeit waren Verhandlungsgegenstand zwischen der Firma H+H und der UB Osnabrück. Die vertragliche Regelung, die erzielt wurde, sieht eine garantierte Mindestlaufzeit vor.
  13. Drabenstott, K.M.: Classification to the rescue : handling the problems of too many and too few retrievals (1996) 0.06
    0.06068412 = product of:
      0.24273647 = sum of:
        0.24273647 = weight(_text_:handling in 5232) [ClassicSimilarity], result of:
          0.24273647 = score(doc=5232,freq=4.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.58801144 = fieldWeight in 5232, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.046875 = fieldNorm(doc=5232)
      0.25 = coord(1/4)
    
    Abstract
    The first studies of online catalog use demonstrated that the problems of too many and too few retrievals plagued the earliest online catalog users. Despite 15 years of system development, implementation, and evaluation, these problems still adversely affect the subject searches of today's online catalog users. In fact, the large-retrievals problem has grown more acute due to the growth of online catalog databases. This paper explores the use of library classifications for consolidating and summarizing high-posted subject searches and for handling subject searches that result in no or too few retrievals. Findings are presented in the form of generalization about retrievals and library classifications, needed improvements to classification terminology, and suggestions for improved functionality to facilitate the display of retrieved titles in online catalogs
  14. Sitas, A.: ¬The classification of byzantine literature in the Library of Congress classification (2001) 0.06
    0.06068412 = product of:
      0.24273647 = sum of:
        0.24273647 = weight(_text_:handling in 957) [ClassicSimilarity], result of:
          0.24273647 = score(doc=957,freq=4.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.58801144 = fieldWeight in 957, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.046875 = fieldNorm(doc=957)
      0.25 = coord(1/4)
    
    Abstract
    Topics concerning the Classification of Byzantine literature and, generally, of Byzantine texts are discussed, analyzed and made clear. The time boundaries of this period are described as well as the kinds of published material. Schedule PA (Supplement) of the Library of Congress Classification is discussed and evaluated as far as the handling of Byzantine literature is concerned. Schedule PA is also mentioned, as well as other relevant categories. Based on the results regarding the manner of handling Classical literature texts, it is concluded that a) Early Christian literature and the Fathers of the Church must be excluded from Class PA and b) in order to achieve a uniform, continuous, consistent and reliable classification of Byzantine texts, they must be treated according to the method proposed for Classical literature by the Library of Congress in Schedule PA.
  15. Williamson, N.: ¬An interdisciplinary world and discipline based classification (1998) 0.06
    0.06068412 = product of:
      0.24273647 = sum of:
        0.24273647 = weight(_text_:handling in 1085) [ClassicSimilarity], result of:
          0.24273647 = score(doc=1085,freq=4.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.58801144 = fieldWeight in 1085, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.046875 = fieldNorm(doc=1085)
      0.25 = coord(1/4)
    
    Abstract
    The major classification systems continue to remain discipline based despite significant changes in the structure of knowledge. particularly in the latter part of the 20th century.While it would be desirable to have these systems replaced by systems in keeping with the changes, the probability of this happening in the near future is very slim indeed. Problems of handling interdisciplinarity among subjects in conjunction with existing systems are addressed.The nature of interdisciplinarity is defined and general problems discussed. Principles and methods of handling are examined andnew approaches to the problems are proposed. Experiments are currently being carried out to determine how some of the possibilities might be implemented in the existing systems. Experimental examples are under development. Efforts have been made to propose practical solutions and to suggest directions for further theoretical and experimental research
  16. Kübler, H.-D.: Aufwachsen mit dem Web : Surfen eher selten: zwei Studien zur Internetnutzung von Kindern (2005) 0.06
    0.060400166 = product of:
      0.12080033 = sum of:
        0.063586794 = weight(_text_:und in 4341) [ClassicSimilarity], result of:
          0.063586794 = score(doc=4341,freq=158.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.4356025 = fieldWeight in 4341, product of:
              12.569805 = tf(freq=158.0), with freq of:
                158.0 = termFreq=158.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=4341)
        0.057213537 = weight(_text_:handling in 4341) [ClassicSimilarity], result of:
          0.057213537 = score(doc=4341,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.13859563 = fieldWeight in 4341, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.015625 = fieldNorm(doc=4341)
      0.5 = coord(2/4)
    
    Content
    "Als Generation @ werden Kinder und Jugendliche in der Öffentlichkeit bereits gefeiert, insbesondere Marketing und Werbung schwärmen vom geschickten, unermüdlichen Surfen im WWW, von kinderleichter Handhabung des Equipments, spielerischem Edutainment und spannenden Verlockungen des digitalen Lernens, und zwar schon für die Kleinsten ab dem Kindergartenalter. Mehrheit noch offline Imposant sind auch die quantitativen Daten zur Haushaltsausstattung und PC- beziehungsweise Internetnutzung, vor allem ihre Wachstumsraten, die die Studie von Christine Feil und Co-Autoren referiert und miteinander abgleicht. Susanne Richter (S. 18) hingegen weiß nichts von ihrer Existenz, zumal Angaben aus kommerziellen Kontexten meist zu Obertreibungen neigen. Seriöser sind die Angaben des so genannten Medienpädagogischen Forschungsverbundes Südwest, der seit 1999 die Studie »Kinder und Medien« (»KIM-Studie«) durchführt, 2003 zum vierten Mal. Danach hatten 57 Prozent der bundesdeutschen Haushalte mit 6- bis 13-jährigen Kinder Internet zu Hause (Feil S. 15),42 Prozent der 6-bis 13-Jährigen besuchen hin und wieder das Internet, nur etwa gut zwölf Prozent sind täglich oder mehrmals in der Woche nach Schätzungen durchschnittlich zwischen einer halben und einer Stunde im Netz, werden aber von kommerzieller Seite bereits als »Heavy User« apostrophiert (Feil S. 18). Etwa bei zehn, elf Jahren lag 2003/2004 das Einstiegsalter für das Internet, bei Mädchen und bei Kindern aus niedrigeren Einkommens- und Sozialschichten etwas später. Offenbar haben die inzwischen - auch schon im Primarbereich - gut ausgestatten Schulen noch »kaum kompensatorische Wirkung im Sinne gleicher Zugangschancen für alle Kinder« entfaltet, »sondern allenfalls den Anteil der Kinder mit Sowohl-als-auch-Zugang« erhöht (Feil S. 21). So zeichnen sich tendenziell zwar jeweils steigende Beteiligungen ab, aber »die Mehrheit der Kinder« ist noch »offline«. Und der Zugang der Kinder zum Netz allein »gibt weder Aufschluss über ihre Nutzungskompetenzen noch über die Bedeutung der Kommunikationsund Informationsfunktion des Internets für Kinder« (Feil S. 30), so die sicherlich stimmige Ausgangsthese.
    Beobachtungen und Befragungen Da kommen die beiden vorliegenden Studien gerade recht, untersuchen sie doch mit qualitativen Methoden, mit Befragungen und teilnehmenden Beobachtungen, wie Kinder das Internet entdecken beziehungsweise nutzen, welche Kompetenzen sie haben und entwickeln, welche Erwartungen, Interessen und Präferenzen sie für das Netz haben, wie und welche Orientierungen und Suchstrategien sie entfalten und schließlich wodurch und wie sie sich von den Web-Sites ansprechen lassen. Das wird jeweils an einzelnen Beispielen und Szenen anschaulich beschrieben, teils wörtlich dokumentiert, sodass man plastische Eindrücke bekommt, wie Kinder an das Web herangehen, wie sie sich zurechtfinden und was sie darüber denken und wissen. Die eine Studie (Christine Feil et al. 2004) wurde zwischen 2001 und 2003 am Deutschen Jugendinstitut (DJI) München mit Unterstützung des Bundesministeriums für Bildung und Forschung durchgeführt; an ihr sind mehrere ForscherInnen beteiligt gewesen. Entsprechend komplexer und differenzierter sind ihre Erhebungsmethoden, entsprechend aufwendiger ist ihr Forschungsdesign, und entsprechend umfassender und dichter sind ihre Ergebnisse. Teilgenommen an der Studie haben elf Mädchen und sieben Jungen zwischen fünf und elf Jahren; sie wurden in zwei bis drei mindestens einstündigen Beobachtungsphasen in ihrem Umgang mit PC und Internet per Video beobachtet, zweimal befragt wurden die Eltern und die Erzieherinnen der Horte, in die die Kinder gehen. Die andere (Susanne Richter 2004) ist eine literaturdidaktische Dissertation an der Universität Lüneburg, deren empirischer Teil schon 1999, also drei Jahre früher als die DJI-Studie, durchgeführt wurde. Beteiligt waren 25 Schüler, darunter nur sechs Mädchen, zwischen zehn und 13 Jahren, die von der Autorin nach ihrer PC-Nutzung befragt und während einer halbstündigen »Surfphase« über vier ausgewählte Web-Sites beobachtet wurden. Mithin sind die Populationen allenfalls für die neun 10- bis 11-Jährigen der DJI-Studie vergleichbar, die andere Hälfte ist jünger.
    Tipps von Freunden Beide Studien beschränken sich nicht nur auf die Darstellung der empirischen Befunde: Außer der Aufbereitung der quantitativen Nutzungsdaten findet sich in der DJI-Studie noch ein informativer Abriss über »neuere Entwicklungen im deutschen Kinderweh«. Darin werden die neuen Kinder- und Jugendschutzregelungen abgehandelt sowie jüngste formale und inhaltliche Entwicklungen der Internetseiten für Kinder skizziert. Damit setzt das DJI seine Bestandsaufnahmen und Sichtungen von Kindersoftware und -selten, die es seit 1999 vornimmt, fort.* In einer Datenbank (unter www. kinderseiten.de) sind sie jeweils aktuell abzurufen. Insgesamt wachse die »Ökonomisierung des Kinderweh«; gerade die für Kindermedien symptomatischen Medienverbundstrategien werden durch das Web enorm verstärkt, wie es umgekehrt von ihnen profitiert, sodass sich Werbung und Inhalt immer intensiver vermischen (und kaum das gesetzliche Gebot nach Trennung einhalten). Nicht-kommerzielle Angebote, die es gleichwohl in Fülle im Netz gibt, haben es gegenüber solch geballter Marktmacht zunehmend schwerer, überhaupt die Aufmerksamkeit der Kinder zu finden, das heißt, überhaupt von ihnen entdeckt zu werden. Denn Kinder diesen Alters, darin stimmen beide Studien überein, surfen im eigentlichen Sinne kaum; sie merken sich die Adressen (URLs) aus Zeitschriften, von Fernsehsendungen oder bekommen sie von Freunden. Nur selten suchen sie welche gezielt mittels Suchmaschinen oder Katalogen; und auch spezielle Kindersuchmaschinen wie die viel gelobte Blinde Kuh (www.blindekuh.de) kommen nur selten in ihr Gesichtsfeld. Auch Richter beginnt - wohl typisch Dissertation - recht allgemein, mit der Darstellung (kontroverser) Medienbegriffe, von Web-Geschichte und -funktionalitäten und gängigen Gestaltungskriterien, was für das eigentliche Thema nicht unbedingt erforderlich ist. Aufschlussreich für den bibliothekarischen Kontext sind hingegen ihre Ausführungen zur Lesekompetenz und ihre Relationen zu speziellen Internetkompetenzen, die die Autorin auch empirisch erhärten kann: Denn Kinder, die flüssig, gut und sicher lesen können, erfassen natürlich nicht nur die Web-Inhalte besser, sie finden sich auch schneller auf den Web-Seiten zurecht und erkennen deren Strukturen (Linkpfade, Navigationsleisten, Buttons und so weiter) leichter und genauer als die Leseschwächeren. Ob man solchen Umgang sogleich als kompetentes Informationsverhalten und Surf-Aktivität werten will oder nicht, ist wohl Definitionssache. Denn auch Richter räumt ein, dass die meisten Kinder vornehmlich über das Internet spielen oder aber ihnen schon bekannte Seiten für ihre Hobbys, über Stars, Musik und Chat aufrufen. Dabei ist ihnen vor allem das Design der Seiten wichtig: Bunt, mit Bildern und Fotos sollen sie gestaltet sein, aber nicht überladen und durch Animationen in ihrer Ladezeit zu langwierig. Fachliches Computerwissen haben die Kinder gemeinhin nicht, nur wenige Freaks brillieren mit nicht immer ganz begriffenem Vokabular; und sie brauchen es auch kaum, denn sie lernen den Internetumgang durch Zugucken und kurze Handling-Tipps von Eltern und älteren Kindern. Eine systematische Internetdidaktik, wie sie Richter fordert, wurde vor vier Jahren offenbar noch kaum praktiziert.
    Trial and Error Aber auch die DJI-Studie konstatiert drei Jahre später, dass gezieltes Anleiten der Kinder noch die ganz seltene Ausnahme ist. Das informelle Lernen, das allmähliche Hinweinwachsen in die erforderlichen Nutzungsweisen überwiegt. Nur wenige Erzieherinnen beschäftigen sich explizit damit, Lehrerinnen wurden aus Zeitgründen nicht befragt. Und für die Eltern wären attraktive Bildungsangebote mit der Intention zu empfehlen, die Medien- und Internetkompetenz ihrer Kinder zu fördern. Bislang sind die meisten Kinder weithin Autodidakten, die durch Trial and Errordas eine oder andere entdecken oder aber sich mit einmal eingeübten Routinen - etwa auf der Ebene der Computerspiele - begnügen. Denn so einfach und kinderleicht, wie auch Richter (S. 155) behauptet, sind die Bedienung der WebSoftware (Browser) und die Nutzung des Netzes nach Ansicht der DJI-ForscherInnen längst noch nicht: Da bedarf es neben technisch-instrumenteller auch noch kognitiv-analytischer Fähigkeiten, um sich zu orientieren, durch die Masse von Informationen, die vielfach belanglos oder irreführend und nur selten erschöpfend sind, sich durchzubeißen und endlich Verlässliches und Brauchbares in ansprechender Weise zu finden. Spätestens, wenn etwas nicht oder schief geht, sind die meisten Kinder- aberwohl nicht nur sie - ratlos und bedürfen der kompetenten Hilfe anderer. Und mit den vielen Tricks, Täuschungen und Manipulationsstrategien kommerzieller Websites-Werbung, Pop-Ups und Dialers - kommen Kinder kaum zurecht. Schon die vielen Anglizismen, vermeintlichen Jugendjargons und Fachtermini überfordern sie ebenso wie die zahlreichen Anmelde- und Registrierungsprozeduren, wo vielfach - wenn nicht gar datenschutzrechtliche - so doch Nützlichkeitsmaximen überschritten werden. Dafür bedürfte es nicht nur mehr und gründlicher pädagogischer Aufklärung; vielmehr könnten verantwortliche Website-Anbieter - gegen die Masse der Kommerzseiten - transparente, interaktive Hilfen, die selbsterklärend oder sogar -steuernd sind, implementieren. So könnten sich Qualitäts- und Kontrollmaßstäbe entwickeln, die die jugendlichen User dann auch an andere Seiten stellen. Denn Verbreitung, Nutzung und Bedeutung des Internet werden im Alltag und in der Kultur der Kinder gewiss wachsen. Bis es so selbstverständlich, vielseitig und problemlos genutzt werden kann, wie heute die nun schon »alten« Medien, ist es nach Einschätzung der DJI-AutorInnen noch ein gehöriges Stück Weges, den man pädagogisch besser und konstruktiver gestalten könnte. In solcher Aufgabenstellung stimmen beide Studien erneut überein."
    Footnote
    Rezensionen zu: Christine Feil, Regine Decker, Christoph Gieger: Wie entdecken Kinder das Internet? Beobachtungen bei 5- bis 12-jährigen Kindern. Wiesbaden: VS Verlag für Sozialwissenschaften, 2004 (Schriften des Deutschen Jugendinstituts: Kinder). 254 Seiten: Illustrationen, grafische Darstellungen. Susanne Richter: Die Nutzung des Internets durch Kinder. Eine qualitative Studie zu internetspezifischen Nutzungsstrategien, Kompetenzen und Präferenzen von Kindern im Alter zwischen 11 und 13 Jahren. Frankfurt (Main) [u.a.]: Lang, 2004 (Kinder- und Jugendkultur, -literatur und -medien; 27). 299 Seiten: Illustrationen, grafische Darstellungen.
  17. Patalong, F.: Life after Google : II. Hilfreiche Geister (2002) 0.06
    0.058991995 = product of:
      0.11798399 = sum of:
        0.046467066 = weight(_text_:und in 2163) [ClassicSimilarity], result of:
          0.046467066 = score(doc=2163,freq=54.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.3183235 = fieldWeight in 2163, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2163)
        0.07151692 = weight(_text_:handling in 2163) [ClassicSimilarity], result of:
          0.07151692 = score(doc=2163,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.17324454 = fieldWeight in 2163, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2163)
      0.5 = coord(2/4)
    
    Content
    "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
    Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
    Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
  18. Tools for knowledge organization and the human interface : Proc. 1st Int. ISKO-Conference Darmstadt, 14.-17.8.1990. Vol.1-2 (1990-91) 0.06
    0.058914557 = product of:
      0.117829114 = sum of:
        0.017705427 = weight(_text_:und in 269) [ClassicSimilarity], result of:
          0.017705427 = score(doc=269,freq=4.0), product of:
            0.14597435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0658165 = queryNorm
            0.121291354 = fieldWeight in 269, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=269)
        0.10012369 = weight(_text_:handling in 269) [ClassicSimilarity], result of:
          0.10012369 = score(doc=269,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.24254234 = fieldWeight in 269, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.02734375 = fieldNorm(doc=269)
      0.5 = coord(2/4)
    
    Content
    Enthält u.a. die Beiträge: HILDRETH, Ch.R.: End users and structured searching of online catalogues: recent resaarch findings; FUJIKAWA, M.: Concept theory and facet analysis of knowledge units - with emphasis on AI research; GILCHRIST, A.: Knowledge organization and the human interface; SECHSER, O.: Classification issues in databases from machine-readable text data; VICKERY, B.C.: Classificatory principles in intelligent interfaces; HJERPPE, R.: A framework for characterizing systems for knowledge organization: a first basis for comparisons and evaluation; MARKEY DRABENSTOTT, K.: Experiences with online catalogs in the USA using a classification system as a subject searching tool; ALBRECHTSEN, H.: Software concepts: knowledge organization and the human interface; BOON, J.A.: The integration of technology in the organization and dissemination of information; FUGMANN, R.: Unused opportunities in indexing and classification; MOLHOLT, P.: Standardizing and codifying related term links for improved information retrieval; BAUER, G.: Promoting creative processes by a thesaurus-like representation of knowledge structures; DEFFNER, R. u. H. GEIGER: Associative word recognition with connectionist architectures; RUGE, G. u. Ch. SCHWARZ: Linguistically based term associations; BOUCHE, R., S. LAINE u. J.-P. METZGER: Knowledge retrieval from a documentary set; CIGANIK, M.: Key faceted structures in the text as background of text understanding; GROLIER, E. de: Some notes on the question of a so-called "Unified classification"; SUKIASJAN, E.: Description and analysis of the Library-Bibliographic Classification (BBK/LBC); RIESTHUIS, G.J.A. u. S. BLIEDUNG: Thesaurification of the UDC; BIES, W.: Die Rezeption von Regelwerken zur Sacherschließung: Das Beispiel RSWK; STERN, A. u. N. RISCHETTE: On the construction of a super thesaurus based on existing thesauri; CRAVEN, T.: Automatic structure modification in the graphic display of thesauri; REES-POTTER, L.K.: Dynamic thesauri: the cohnitive function; EISNER, M.: New thesaurus qualities of ARBOR; GÖDERT, W.: The design of subject access elements in online catalogues: some problems; IYER, H.: Online searching: use of classificatory structures; VASILJEV; A.: Enhancement of the subject access vocabulray in an online catalogue; DYKSTRA, M.: "Handling the stuff itself": toward automatic textual analysis; PEJTERSEN, A.M.: Icons for representation of domain knowledge in interfaces; CZAP, H.: Representation of interrelated economic concepts and facts; HÖLZL, J.: Expertensysteme in Produkt- und Warenwirtschaft; VISCHER, J.: Das harmonisierte System zur Bezeichnung und Codierung der Waren des internationalen Handels; LESCH, A. u. P. SZABO: Hypermedia approaches; BJÖRKLUND, L.: HYPERCLASS: Four hypertext applications of a classification scheme; BJÖRKLUND, L. u. G. KRISTIANSSON: Problems of knowledge organization in an archival environment - KAM; HJERPPE, R.: The role of classification in hypertext: issues in implementing Roget's thesaurus as a hypertext; HUG, H. u. M. WALSER: Retrieval in the ETH database using the UDC; WILLIAMSON, N.J.: The Library of Congress Classification: preparation for an online system; GOPINATH, M.A.: Information processing language and development of a knowledge based system; VICKERY, A.: Knowledge organization in an intelligent tutoring system; OECHTERING, V.: On the problem of transparency of individual computer technologies in subject-oriented online retrieval; ROCKMORE, M.: Facet analysis and thesauri for corporate information retreival; SCHOPEN, M.: Cross file searching of biomedical databases at DIMDI; POULSEN, C.: An indexing concept supporting subject access for innovation and creativity; PRASHER, R.G.: Index and indexing; PARAMESWARAN, M.: Chain procedure and Dewey Decimal Classification; IIVONEN, M.: The impact of the indexing environment on interindexer consistency. -
  19. Ritzler, C.: Comparative study of PC-supported thesaurus software (1990) 0.06
    0.057213537 = product of:
      0.22885415 = sum of:
        0.22885415 = weight(_text_:handling in 2218) [ClassicSimilarity], result of:
          0.22885415 = score(doc=2218,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.5543825 = fieldWeight in 2218, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0625 = fieldNorm(doc=2218)
      0.25 = coord(1/4)
    
    Abstract
    This article presents the results of a comparative study of three PC supported software packages (INDEX, PROTERM and TMS) for development, construction and management of thesauri and other word material with special regard to hardware and software requirements, handling and user interface, and functionality and reliability. Advantages and disadvantages are discussed. The result shows that all three software products comply with the minimum standards of a thesaurus software. After inclusion of additional features distinct differences become visible
  20. Cawkell, A.E.: Selected aspects of image processing and management : review and future prospects (1992) 0.06
    0.057213537 = product of:
      0.22885415 = sum of:
        0.22885415 = weight(_text_:handling in 2658) [ClassicSimilarity], result of:
          0.22885415 = score(doc=2658,freq=2.0), product of:
            0.4128091 = queryWeight, product of:
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0658165 = queryNorm
            0.5543825 = fieldWeight in 2658, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.272122 = idf(docFreq=227, maxDocs=44421)
              0.0625 = fieldNorm(doc=2658)
      0.25 = coord(1/4)
    
    Abstract
    State of the art review of techniques applied to various aspects of image processing in information systems including: indexing of images in electronic form (manual and computerised indexing and automatic indexing by content); image handling using microcomputers; and description of 8 British Library funded research projects. The article is based in a BLRD report

Authors

Languages

Types

  • a 9521
  • m 2248
  • el 1014
  • x 593
  • s 566
  • i 169
  • r 121
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications