-
Noerr, P.: ¬The Digital Library Tool Kit (2001)
0.03
0.033508092 = product of:
0.13403237 = sum of:
0.13403237 = weight(_text_:java in 774) [ClassicSimilarity], result of:
0.13403237 = score(doc=774,freq=2.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.31145877 = fieldWeight in 774, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=774)
0.25 = coord(1/4)
- Footnote
- This Digital Library Tool Kit was sponsored by Sun Microsystems, Inc. to address some of the leading questions that academic institutions, public libraries, government agencies, and museums face in trying to develop, manage, and distribute digital content. The evolution of Java programming, digital object standards, Internet access, electronic commerce, and digital media management models is causing educators, CIOs, and librarians to rethink many of their traditional goals and modes of operation. New audiences, continuous access to collections, and enhanced services to user communities are enabled. As one of the leading technology providers to education and library communities, Sun is pleased to present this comprehensive introduction to digital libraries
-
Herrero-Solana, V.; Moya Anegón, F. de: Graphical Table of Contents (GTOC) for library collections : the application of UDC codes for the subject maps (2003)
0.03
0.033508092 = product of:
0.13403237 = sum of:
0.13403237 = weight(_text_:java in 3758) [ClassicSimilarity], result of:
0.13403237 = score(doc=3758,freq=2.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.31145877 = fieldWeight in 3758, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=3758)
0.25 = coord(1/4)
- Abstract
- The representation of information contents by graphical maps is an extended ongoing research topic. In this paper we introduce the application of UDC codes for the subject maps development. We use the following graphic representation methodologies: 1) Multidimensional scaling (MDS), 2) Cluster analysis, 3) Neural networks (Self Organizing Map - SOM). Finally, we conclude about the application viability of every kind of map. 1. Introduction Advanced techniques for Information Retrieval (IR) currently make up one of the most active areas for research in the field of library and information science. New models representing document content are replacing the classic systems in which the search terms supplied by the user were compared against the indexing terms existing in the inverted files of a database. One of the topics most often studied in the last years is bibliographic browsing, a good complement to querying strategies. Since the 80's, many authors have treated this topic. For example, Ellis establishes that browsing is based an three different types of tasks: identification, familiarization and differentiation (Ellis, 1989). On the other hand, Cove indicates three different browsing types: searching browsing, general purpose browsing and serendipity browsing (Cove, 1988). Marcia Bates presents six different types (Bates, 1989), although the classification of Bawden is the one that really interests us: 1) similarity comparison, 2) structure driven, 3) global vision (Bawden, 1993). The global vision browsing implies the use of graphic representations, which we will call map displays, that allow the user to get a global idea of the nature and structure of the information in the database. In the 90's, several authors worked an this research line, developing different types of maps. One of the most active was Xia Lin what introduced the concept of Graphical Table of Contents (GTOC), comparing the maps to true table of contents based an graphic representations (Lin 1996). Lin applies the algorithm SOM to his own personal bibliography, analyzed in function of the words of the title and abstract fields, and represented in a two-dimensional map (Lin 1997). Later on, Lin applied this type of maps to create websites GTOCs, through a Java application.
-
Radhakrishnan, A.: Swoogle : an engine for the Semantic Web (2007)
0.03
0.033508092 = product of:
0.13403237 = sum of:
0.13403237 = weight(_text_:java in 709) [ClassicSimilarity], result of:
0.13403237 = score(doc=709,freq=2.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.31145877 = fieldWeight in 709, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=709)
0.25 = coord(1/4)
- Content
- "Swoogle, the Semantic web search engine, is a research project carried out by the ebiquity research group in the Computer Science and Electrical Engineering Department at the University of Maryland. It's an engine tailored towards finding documents on the semantic web. The whole research paper is available here. Semantic web is touted as the next generation of online content representation where the web documents are represented in a language that is not only easy for humans but is machine readable (easing the integration of data as never thought possible) as well. And the main elements of the semantic web include data model description formats such as Resource Description Framework (RDF), a variety of data interchange formats (e.g. RDF/XML, Turtle, N-Triples), and notations such as RDF Schema (RDFS), the Web Ontology Language (OWL), all of which are intended to provide a formal description of concepts, terms, and relationships within a given knowledge domain (Wikipedia). And Swoogle is an attempt to mine and index this new set of web documents. The engine performs crawling of semantic documents like most web search engines and the search is available as web service too. The engine is primarily written in Java with the PHP used for the front-end and MySQL for database. Swoogle is capable of searching over 10,000 ontologies and indexes more that 1.3 million web documents. It also computes the importance of a Semantic Web document. The techniques used for indexing are the more google-type page ranking and also mining the documents for inter-relationships that are the basis for the semantic web. For more information on how the RDF framework can be used to relate documents, read the link here. Being a research project, and with a non-commercial motive, there is not much hype around Swoogle. However, the approach to indexing of Semantic web documents is an approach that most engines will have to take at some point of time. When the Internet debuted, there were no specific engines available for indexing or searching. The Search domain only picked up as more and more content became available. One fundamental question that I've always wondered about it is - provided that the search engines return very relevant results for a query - how to ascertain that the documents are indeed the most relevant ones available. There is always an inherent delay in indexing of document. Its here that the new semantic documents search engines can close delay. Experimenting with the concept of Search in the semantic web can only bore well for the future of search technology."
-
Batley, S.: Classification in theory and practice (2005)
0.03
0.02586796 = product of:
0.10347184 = sum of:
0.10347184 = weight(_text_:hyperlinked in 2170) [ClassicSimilarity], result of:
0.10347184 = score(doc=2170,freq=2.0), product of:
0.53472483 = queryWeight, product of:
8.757029 = idf(docFreq=18, maxDocs=44421)
0.06106236 = queryNorm
0.19350483 = fieldWeight in 2170, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.757029 = idf(docFreq=18, maxDocs=44421)
0.015625 = fieldNorm(doc=2170)
0.25 = coord(1/4)
- Footnote
- - Similarly, there is very little space provided to the thorny issue of subject analysis, which is at the conceptual core of classification work of any kind. The author's recommendations are practical, and do not address the subjective nature of this activity, nor the fundamental issues of how the classification schemes are interpreted and applied in diverse contexts, especially with respect to what a work "is about." - Finally, there is very little about practical problem solving - stories from the trenches as it were. How does a classifier choose one option over another when both seem plausible, even given that he or she has done a user and task analysis? How do classifiers respond to rapid or seemingly impulsive change? How do we evaluate the products of our work? How do we know what is the "correct" solution, even if we work, as most of us do, assuming that this is an elusive goal, but we try our best anyway? The least satisfying section of the book is the last, where the author proposes some approaches to organizing electronic resources. The suggestions seem to be to more or less transpose and adapt skills and procedures from the world of organizing books an shelves to the virtual hyperlinked world of the Web. For example, the author states (p. 153-54): Precise classification of documents is perhaps not as crucial in the electronic environment as it is in the traditional library environment. A single document can be linked to and retrieved via several different categories to allow for individual needs and expertise. However, it is not good practice to overload the system with links because that will affect its use. Effort must be made to ensure that inappropriate or redundant links are not included. The point is well taken: too muck irrelevant information is not helpful. At the same time an important point concerning the electronic environment has been overlooked as well: redundancy is what relieves the user from making precise queries or knowing the "right" place for launching a search, and redundancy is what is so natural an the Web. These are small objections, however. Overall the book is a carefully crafted primer that gives the student a strong foundation an which to build further understanding. There are well-chosen and accessible references for further reading. I world recommend it to any instructor as an excellent starting place for deeper analysis in the classroom and to any student as an accompanying text to the schedules themselves."
-
Tennant, R.: Library catalogs : the wrong solution (2003)
0.03
0.02513107 = product of:
0.10052428 = sum of:
0.10052428 = weight(_text_:java in 2558) [ClassicSimilarity], result of:
0.10052428 = score(doc=2558,freq=2.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.23359407 = fieldWeight in 2558, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=2558)
0.25 = coord(1/4)
- Content
- - User Interface hostility - Recently I used the Library catalogs of two public libraries, new products from two major library vendors. A link an one catalog said "Knowledge Portal," whatever that was supposed to mean. Clicking an it brought you to two choices: Z39.50 Bibliographic Sites and the World Wide Web. No public library user will have the faintest clue what Z39.50 is. The other catalog launched a Java applet that before long froze my web browser so badly I was forced to shut the program down. Pick a popular book and pretend you are a library patron. Choose three to five libraries at random from the lib web-cats site (pick catalogs that are not using your system) and attempt to find your book. Try as much as possible to see the system through the eyes of your patrons-a teenager, a retiree, or an older faculty member. You may not always like what you see. Now go back to your own system and try the same thing. - What should the public see? - Our users deserve an information system that helps them find all different kinds of resources-books, articles, web pages, working papers in institutional repositories-and gives them the tools to focus in an what they want. This is not, and should not be, the library catalog. It must communicate with the catalog, but it will also need to interface with other information systems, such as vendor databases and web search engines. What will such a tool look like? We are seeing the beginnings of such a tool in the current offerings of cross-database search tools from a few vendors (see "Cross-Database Search," LJ 10/15/01, p. 29ff). We are in the early stages of developing the kind of robust, userfriendly tool that will be required before we can pull our catalogs from public view. Meanwhile, we can begin by making what we have easier to understand and use."
-
OWLED 2009; OWL: Experiences and Directions, Sixth International Workshop, Chantilly, Virginia, USA, 23-24 October 2009, Co-located with ISWC 2009. (2009)
0.03
0.02513107 = product of:
0.10052428 = sum of:
0.10052428 = weight(_text_:java in 378) [ClassicSimilarity], result of:
0.10052428 = score(doc=378,freq=2.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.23359407 = fieldWeight in 378, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=378)
0.25 = coord(1/4)
- Content
- Long Papers * Suggestions for OWL 3, Pascal Hitzler. * BestMap: Context-Aware SKOS Vocabulary Mappings in OWL 2, Rinke Hoekstra. * Mechanisms for Importing Modules, Bijan Parsia, Ulrike Sattler and Thomas Schneider. * A Syntax for Rules in OWL 2, Birte Glimm, Matthew Horridge, Bijan Parsia and Peter Patel-Schneider. * PelletSpatial: A Hybrid RCC-8 and RDF/OWL Reasoning and Query Engine, Markus Stocker and Evren Sirin. * The OWL API: A Java API for Working with OWL 2 Ontologies, Matthew Horridge and Sean Bechhofer. * From Justifications to Proofs for Entailments in OWL, Matthew Horridge, Bijan Parsia and Ulrike Sattler. * A Solution for the Man-Man Problem in the Family History Knowledge Base, Dmitry Tsarkov, Ulrike Sattler and Robert Stevens. * Towards Integrity Constraints in OWL, Evren Sirin and Jiao Tao. * Processing OWL2 ontologies using Thea: An application of logic programming, Vangelis Vassiliadis, Jan Wielemaker and Chris Mungall. * Reasoning in Metamodeling Enabled Ontologies, Nophadol Jekjantuk, Gerd Gröner and Jeff Z. Pan.
-
Sprache - Kognition - Kultur : Sprache zwischen mentaler Struktur und kultureller Prägung. Vorträge der Jahrestagung 2007 des Instituts für Deutsche Sprache (2008)
0.02
0.022508217 = product of:
0.09003287 = sum of:
0.09003287 = weight(_text_:und in 1143) [ClassicSimilarity], result of:
0.09003287 = score(doc=1143,freq=92.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.66479194 = fieldWeight in 1143, product of:
9.591663 = tf(freq=92.0), with freq of:
92.0 = termFreq=92.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1143)
0.25 = coord(1/4)
- Abstract
- Dieses Jahrbuch des Instituts für Deutsche Sprache ist dem Jahr der Geisteswissenschaften gewidmet und beleuchtet aus interdisziplinärer Perspektive das Zusammenwirken von cultural und linguistic turn. Die Beiträge aus Linguistik, Kultur- und Kognitionswissenschaft sowie Literatur- und Geschichtswissenschaft zielen darauf ab, die kulturwissenschaftlichen Traditionen der Sprachwissenschaft zu vergegenwärtigen und gleichzeitig den Anschluss der Linguistik an die modernen Forschungsrichtungen der Kulturwissenschaft zu dokumentieren: Hermeneutik, Rhetorik und Lexikographie, Kognitionstheorie und Diskursanalyse werden aus sprachwissenschaftlicher Perspektive diskutiert. Darüber hinaus beleuchten die Beiträge die Folgen des linguistic turn in den Nachbarwissenschaften exemplarisch anhand der Literaturwissenschaft und der Historiographie. Insgesamt präsentiert der Band das Spektrum von Grundlagen, Theorien und Methoden sowie anwendungsbezogene Beispiele einer kulturwissenschaftlichen Linguistik.
- BK
- 17.10 Sprache in Beziehung zu anderen Bereichen der Wissenschaft und Kultur
18.00 Einzelne Sprachen und Literaturen allgemein
- Classification
- ES 360: Kultur- und Sozialwissenschaften / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft
ER 300: Kongressberichte, Sammelwerke (verschiedener Autoren) / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
ER 940: Sprechen und Denken, Kompetenz und Performanz, Pragmatik / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
ES 110: Sprache und Kultur / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft
17.10 Sprache in Beziehung zu anderen Bereichen der Wissenschaft und Kultur
18.00 Einzelne Sprachen und Literaturen allgemein
- RVK
- ES 360: Kultur- und Sozialwissenschaften / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft
ER 300: Kongressberichte, Sammelwerke (verschiedener Autoren) / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
ER 940: Sprechen und Denken, Kompetenz und Performanz, Pragmatik / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft
ES 110: Sprache und Kultur / Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft
-
Schüling, H.: ¬Die Mechanisierung und Automation der erkennenden Akte und Operationen (2005)
0.02
0.02249292 = product of:
0.08997168 = sum of:
0.08997168 = weight(_text_:und in 5221) [ClassicSimilarity], result of:
0.08997168 = score(doc=5221,freq=30.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.66434014 = fieldWeight in 5221, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=5221)
0.25 = coord(1/4)
- Abstract
- Im vorliegenden Band 8 wird die Mechanisierung und Automation der hauptsächlichen Akte und Operationen des Erkennens in ihrer Genese und in ihrer gnoseologischen Bedeutung erforscht. Die Untersuchung geht aus von technikgeschichtlichen Spezialabhandlungen, wissenschafts- und technik-journalistischen Berichten sowie von Prospekten automatenherstellender Firmen samt Besichtigung der Geräte und Maschinen. Die Gliederung der enormen Stoffmassen erfolgt nach den Gruppen der einzelnen erkennenden Akte und Operationen: den perzeptiven, speichernden und inventiven Akten und den sprachlichen, mathematischen und wissensbasiert-deduktiven Operationen. Für die einzelnen Akte und Operationen werden die geschichtlichen Entwicklungen skizziert und die hauptsächlichen Automaten in anschaulichen Beispielen vorgestellt. In der Synthese entsteht ein Oberblick über eine der umwälzendsten Bewegungen in der jüngsten Phase der Evolution des Erkennens.
- Footnote
- Band 8 von: System und Evolution des menschlichen Erkennens: Ein Handbuch der evolutionären Erkenntnistheorie
- Series
- Philosophische Texte und Studien; Bd 46,8
-
Schmitz, K.-D.: Wörterbuch, Thesaurus, Terminologie, Ontologie : Was tragen Terminologiewissenschaft und Informationswissenschaft zur Wissensordnung bei? (2006)
0.02
0.02249292 = product of:
0.08997168 = sum of:
0.08997168 = weight(_text_:und in 75) [ClassicSimilarity], result of:
0.08997168 = score(doc=75,freq=30.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.66434014 = fieldWeight in 75, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=75)
0.25 = coord(1/4)
- Abstract
- Im Rahmen der technischen Redaktion, der Fachübersetzung und der Terminologiearbeit werden Verfahren und Werkzeuge zur Verwaltung und Nutzung des (technischen) Fachwortschatzes benötigt; im Bereich der Information und Dokumentation erarbeitet und nutzt man Systeme, die Information und Wissen verwaltbar, zugänglich und wieder auffindbar machen. Die in diesen Anwendungsbereichen erarbeiteten und genutzten Sammlungen von meist fachsprachlichen Informationen werden in der Praxis häufig undifferenziert als Glossar, Wörterbuch, Lexikon, Vokabular, Nomenklatur, Thesaurus, Terminologie oder Ontologie bezeichnet. Dieser Beitrag zeigt die Unterschiede und Gemeinsamkeiten dieser einzelnen Typen von geordneten Wissensbeständen auf, wobei auch auf die spezielle Methoden und Paradigmen der Terminologiewissenschaft und der Informationswissenschaft eingegangen wird.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Zillmann, H.: OSIRIS und eLib : Information Retrieval und Search Engines in Full-text Databases (2001)
0.02
0.020989018 = product of:
0.08395607 = sum of:
0.08395607 = weight(_text_:und in 6937) [ClassicSimilarity], result of:
0.08395607 = score(doc=6937,freq=20.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.6199216 = fieldWeight in 6937, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6937)
0.25 = coord(1/4)
- Abstract
- OSIRIS und ELIB sind von der Deutschen Forschungsgemeinschaft (DFG) und dem Niedersächsischen Ministerium für Wissenschaft und Kultur (MWK) geförderte Projekte an der Universität Osnabrück. Sie beschäftigen sich mit intuitiv-natürlichsprachlichen Retrievalsystemen und mit Fragen der Indexierung großer Volltexdatenbanken in dieser Technik. Die Entwicklungen haben dazu geführt, daß an sich aufwendige und komplexe Verfahren der syntaktisch-semantischen Analyse und Bewertung von textuellen Phrasen in relationale Datenbanken für Massendaten eingebettet werden konnten und nun im Produktionsbetrieb eingesetzt werden können
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 54(2001) H.1, S.55-62
-
Müller, M.: ¬Das Fremde und die Medien : interkulturelle Vergleiche der Darstellung von Ethnizität im öffentlich-rechtlichen Fernsehen und deren Rezeption in den Metropolen Hamburg und Sydney (2004)
0.02
0.020989018 = product of:
0.08395607 = sum of:
0.08395607 = weight(_text_:und in 4717) [ClassicSimilarity], result of:
0.08395607 = score(doc=4717,freq=20.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.6199216 = fieldWeight in 4717, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4717)
0.25 = coord(1/4)
- Abstract
- Nach historischem Abriß des öffentlich-rechtlichen Rundfunks in Deutschland und Australien werden Programmstrukturen und -richtlinien behandelt, die sich auf die ethnische Vielfalt der Länder beziehen, ferner die multikulturelle Gesellschaft beider Länder und die Rolle der Medien bei der Integration. Ausgewählte Formate und ihre Programme werden auf ihren Anteil an Multikulturalität hin ausgewertet und Ergebnisse einer in Sydney und Hamburg durchgeführten Rezeptionsstudie miteinander verglichen.
- Imprint
- Hamburg : Hochschule für Angewandte Wissenschaften, FB Bibliothek und Information
-
Zhang, J.; Mostafa, J.; Tripathy, H.: Information retrieval by semantic analysis and visualization of the concept space of D-Lib® magazine (2002)
0.02
0.020942558 = product of:
0.08377023 = sum of:
0.08377023 = weight(_text_:java in 2211) [ClassicSimilarity], result of:
0.08377023 = score(doc=2211,freq=2.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.19466174 = fieldWeight in 2211, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=2211)
0.25 = coord(1/4)
- Content
- The JAVA applet is available at <http://ella.slis.indiana.edu/~junzhang/dlib/IV.html>. A prototype of this interface has been developed and is available at <http://ella.slis.indiana.edu/~junzhang/dlib/IV.html>. The D-Lib search interface is available at <http://www.dlib.org/Architext/AT-dlib2query.html>.
-
Weisel, L.; Vogts, I.; Bürk, K.: Mittler zwischen Content und Markt : Die neue Rolle des FIZ Karlsruhe (2000)
0.02
0.020939767 = product of:
0.08375907 = sum of:
0.08375907 = weight(_text_:und in 6437) [ClassicSimilarity], result of:
0.08375907 = score(doc=6437,freq=26.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.618467 = fieldWeight in 6437, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=6437)
0.25 = coord(1/4)
- Abstract
- Das Fachinformationszentrum (FIZ) Karlsruhe ist als internationale Drehscheibe für Fachinformation seit Jahrzehnten verlässlicher und professioneller Servicepartner der Informationssuchenden in Wissenschaft und Technik. Neue web-basierte Dienstleistungen und Produkte erlauben dem professionellen Informationsbroker ebenso wie dem gelegentlichen Onliner oder Internet Pedestrian den effizienten und kostengünstigen Zugang zu Metadaten, naturwissenschaftlich-technisehen Daten und Fakten. Elektronische Volltexte per Hyperlink oder die komplette Dokument-Vermittlung werden gleichfalls angeboten. Die Weiterentwicklung und flexible Anpassung der Informationssysteme ermöglichen auch die Verknüpfung mit lokalen und regionalen Netzen der Forschungseinrichtungen und Hochschulen. Neue Serviceleistungen und Abrechnungsverfahren bieten besonders preisgünstige Konditionen für Hochschulen durch akademische Programme und Festpreise auf Subskriptionsbasis für ausgewählte Datenbanken. Darüber hinaus ist das FIZ Karlsruhe kompetenter Kooperationspartner bei Entwicklung und Betrieb von Informationssystemen
- Source
- nfd Information - Wissenschaft und Praxis. 51(2000) H.7, S.397-406
-
Hiller, H.; Füssel, S. (Bearb.): Wörterbuch des Buches (2002)
0.02
0.020524748 = product of:
0.08209899 = sum of:
0.08209899 = weight(_text_:und in 215) [ClassicSimilarity], result of:
0.08209899 = score(doc=215,freq=34.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.60620916 = fieldWeight in 215, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=215)
0.25 = coord(1/4)
- Abstract
- Der "Hiller/Füssel", das bewährte Nachschlagewerk für Buch und Verlag, Papier und Druck, Einband und Restaurierung, Redaktionen und Bibliotheken, Internet und Medienkonzerne für die Hand jedes Studierenden, Auszubildenden, Praktikers und Bücherfreundes. Die sechste, von den Spezialisten des Mainzer Instituts für Buchwissenschaft grundlegend überarbeitete Fassung ist kompakt, zuverlässig und aktuell. Hier sind nun auch die neuesten Entwicklungen und Tendenzen in Buchmarkt und Buchwissenschaft berücksichtigt und umfassend dargestellt: Globalisierung und Marktkonzentration, elektronisches Publizieren und Printing an Demand, der Internet-Buchhandel, Preisbindung, Urhebervertragsrecht und und und ...
- Classification
- AN 17000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Buchwesen # Nachschlagewerke, Allgemeine Darstellungen # Fachwörterbücher einsprachig]
- RVK
- AN 17000 [Allgemeines # Buch- und Bibliothekswesen, Informationswissenschaft # Buchwesen # Nachschlagewerke, Allgemeine Darstellungen # Fachwörterbücher einsprachig]
-
Mönnich, M.: Elektronisches Publizieren von Hochschulschriften : Formate und Datenbanken (2000)
0.02
0.02011828 = product of:
0.08047312 = sum of:
0.08047312 = weight(_text_:und in 5709) [ClassicSimilarity], result of:
0.08047312 = score(doc=5709,freq=6.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.5942039 = fieldWeight in 5709, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=5709)
0.25 = coord(1/4)
- Series
- Zeitschrift für Bibliothekswesen und Bibliographie: Sonderh.80
- Source
- Wissenschaft online: Elektronisches Publizieren in Bibliothek und Hochschule. Hrsg. B. Tröger
-
Birkenbihl, V.F.: KaGa und Mehrfachdenken : Gehirntraining mit Birkenbihl (2002)
0.02
0.02011828 = product of:
0.08047312 = sum of:
0.08047312 = weight(_text_:und in 2073) [ClassicSimilarity], result of:
0.08047312 = score(doc=2073,freq=6.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.5942039 = fieldWeight in 2073, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=2073)
0.25 = coord(1/4)
- Source
- Gehirn und Geist: Das Magazin für Hirnforschung und Psychologie. 2002, H.2, S.90-92
-
Birkenbihl, V.F.: Abruf und Erinnerung : Gehirntraining mit Birkenbihl (2002)
0.02
0.02011828 = product of:
0.08047312 = sum of:
0.08047312 = weight(_text_:und in 2074) [ClassicSimilarity], result of:
0.08047312 = score(doc=2074,freq=6.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.5942039 = fieldWeight in 2074, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=2074)
0.25 = coord(1/4)
- Source
- Gehirn und Geist: Das Magazin für Hirnforschung und Psychologie. 2002, H.3, S.92-94
-
Gabrys-Deutscher, E.; Tobschall, E.: Zielgruppenspezifische Aufbereitung von Informationen als Angebot der Virtuellen Fachbibliotheken Technik und Physik (2004)
0.02
0.02011828 = product of:
0.08047312 = sum of:
0.08047312 = weight(_text_:und in 3310) [ClassicSimilarity], result of:
0.08047312 = score(doc=3310,freq=24.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.5942039 = fieldWeight in 3310, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=3310)
0.25 = coord(1/4)
- Abstract
- Die Berücksichtigung der Informationsbedarfe und Informationsgewohnheiten ihrer jeweiligen Zielgruppe ist ein wesentliches Charakteristikum desAngebots der Virtuellen Fachbibliotheken Technik und Physik: Von Ingenieuren und Physikern gestellte Anforderungen an ein Informationsangebot werden in den Virtuellen Fachbibliotheken Technik und Physik umgesetzt, um demAnspruch gerecht zu werden, einen integrierten Zugang zu fachrelevanten Informationen und Dienstleistungen zu bieten. Dabei ist nicht nur bei derAuswahl der bereitgestellten Informationsquellen, sondern insbesondere auch bei derAufbereitung (wie z.B. der sachlichen Erschließung) und Präsentation der Inhalte und Angebote der Virtuellen Fachbibliotheken auf fachspezifische Gewohnheiten und Konventionen zu achten. Kooperationen z.B. mit Fachwissenschaftlern und mit Informationslieferanten sind für die Bereitstellung eines umfassenden und qualitativ hochwertigen Angebots wesentlich.
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.2, S.81-88
-
Gruber, H.: Arbeitskreis kritischer Bibliothekarinnen und Bibliothekare im Renner-Institut KRIBIBI : Digital Divide und Bibliotheken (Wien, 4.-6.5.2007) (2007)
0.02
0.02011828 = product of:
0.08047312 = sum of:
0.08047312 = weight(_text_:und in 4569) [ClassicSimilarity], result of:
0.08047312 = score(doc=4569,freq=6.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.5942039 = fieldWeight in 4569, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=4569)
0.25 = coord(1/4)
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 60(2007) H.3, S.51-52
-
Medienmanagement : Aufgaben und Lösungen (2004)
0.02
0.02011828 = product of:
0.08047312 = sum of:
0.08047312 = weight(_text_:und in 4757) [ClassicSimilarity], result of:
0.08047312 = score(doc=4757,freq=6.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.5942039 = fieldWeight in 4757, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=4757)
0.25 = coord(1/4)
- Series
- Studien- und Übungsbücher der Wirtschafts- und Sozialwissenschaften