-
Melzer, C.: ¬Der Maschine anpassen : PC-Spracherkennung - Programme sind mittlerweile alltagsreif (2005)
0.12
0.12183942 = product of:
0.24367884 = sum of:
0.20761119 = weight(_text_:juan in 44) [ClassicSimilarity], result of:
0.20761119 = score(doc=44,freq=2.0), product of:
0.58251727 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06320332 = queryNorm
0.3564035 = fieldWeight in 44, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.02734375 = fieldNorm(doc=44)
0.036067646 = weight(_text_:und in 44) [ClassicSimilarity], result of:
0.036067646 = score(doc=44,freq=18.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.2572978 = fieldWeight in 44, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=44)
0.5 = coord(2/4)
- Content
- "Der Spracherkennung am Computer schien vor wenigen Jahren die Zukunft zu gehören. Geradezu euphorisch waren viele Computernutzer, als sich auf den Bildschirmen die ersten gesprochenen Sätze als Text darstellten. Doch die Spracherkennung erwies sich als anfällig, die Nachbearbeitung nahm manchmal mehr Zeit in Anspruch als gespart wurde. Dabei ist die Kommunikation des Menschen mit der Maschine über die Tastatur eigentlich höchst kompliziert - selbst geübte Schreiber sprechen schneller als sie tippen. Deshalb hat sich inzwischen viel getan: Im Preis und in der Genauigkeit sind viele Spracherkennungsprogramme heute alltagsreif. Die besten Systeme kosten aber noch immer mehrere hundert Euro, die günstigsten weisen Lücken auf. Letztlich gilt: Respektable Ergebnisse sind erreichbar, wenn sich der Mensch der Maschine anpasst. Die Stiftung Warentest in Berlin hat die sechs gängigsten Systeme auf den Prüfstand gestellt. Die ersten Ergebnisse waren ernüchternd: Das deutlich gesprochene "Johann Wolfgang von Goethe" wurde als "Juan Wolf kann Mohnblüte", "Jaun Wolfgang von Göbel" oder "Johann-Wolfgang Wohngüte" geschrieben. Grundsätzlich gilt: Bei einem einfachen Basiswortschatz sind die Ergebnisse genau, sobald es etwas spezieller wird, wird die Software erfinderisch. "Zweiter Weltkrieg" kann dann zu "Zeit für Geld kriegt" werden. Doch ebenso wie der Nutzer lernt auch das System. Bei der Software ist Lernfähigkeit Standard. Ohnehin muss der Benutzer das System einrichten, indem er vorgegebene Texte liest. Dabei wird das Programm der Stimme und der Sprechgeschwindigkeit angepasst. Hier gilt, dass der Anwender deutlich, aber ganz normal vorlesen sollte. Wer akzentuiert und übertrieben betont, wird später mit ungenauen Ausgaben bestraft. Erkennt das System auch nach dem Training einzelne Wörter nicht, können sie nachträglich eingefügt werden. Gleiches gilt für kompliziertere Orts- oder Eigennamen. Wie gut das funktioniert, beweist ein Gegentest: Liest ein anderer den selben Text vor, sinkt das Erkennungsniveau rapide. Die beste Lernfähigkeit attestierten die Warentester dem System "Voice Pro 10" von linguatec. Das war das mit Abstand vielseitigste, mit fast 200 Euro jedoch auch das teuerste Programm.
Billiger geht es mit "Via Voice Standard" von IBM. Die Software kostet etwa 50 Euro, hat aber erhebliche Schwächen in der Lernfähigkeit: Sie schneidet jedoch immer noch besser ab als das gut drei Mal so teure "Voice Office Premium 10"; das im Test der sechs Programme als einziges nur ein "Befriedigend" bekam. "Man liest über Spracherkennung nicht mehr so viel" weil es funktioniert", glaubt Dorothee Wiegand von der in Hannover erscheinenden Computerzeitschrift "c't". Die Technik" etwa "Dragon Naturally Speaking" von ScanSoft, sei ausgereift, "Spracherkennung ist vor allem Statistik, die Auswertung unendlicher Wortmöglichkeiten. Eigentlich war eher die Hardware das Problem", sagt Wiegand. Da jetzt selbst einfache Heimcomputer schnell und leistungsfähig seien, hätten die Entwickler viel mehr Möglichkeiten."Aber selbst ältere Computer kommen mit den Systemen klar. Sie brauchen nur etwas länger! "Jedes Byte macht die Spracherkennung etwas schneller, ungenauer ist sie sonst aber nicht", bestätigt Kristina Henry von linguatec in München. Auch für die Produkte des Herstellers gelte jedoch, dass "üben und deutlich sprechen wichtiger sind als jede Hardware". Selbst Stimmen von Diktiergeräten würden klar, erkannt, versichert Henry: "Wir wollen einen Schritt weiter gehen und das Diktieren von unterwegs möglich machen." Der Benutzer könnte dann eine Nummer anwählen, etwa im Auto einen Text aufsprechen und ihn zu Hause "getippt" vorfinden. Grundsätzlich passt die Spracherkennungssoftware inzwischen auch auf den privaten Computer. Klar ist aber, dass selbst der bestgesprochene Text nachbearbeitet werden muss. Zudem ist vom Nutzer Geduld gefragt: Ebenso wie sein System lernt, muss der Mensch sich in Aussprache und Geschwindigkeit dem System anpassen. Dann sind die Ergebnisse allerdings beachtlich - und "Sexterminvereinbarung" statt "zwecks Terminvereinbarung" gehört der Vergangenheit an."
-
Stone, A.T.: ¬The LCSH century : a brief history of the Library of Congress Subject Headings, and introduction to the centennial essays (2000)
0.11
0.10895787 = product of:
0.21791574 = sum of:
0.020610081 = weight(_text_:und in 6600) [ClassicSimilarity], result of:
0.020610081 = score(doc=6600,freq=2.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.14702731 = fieldWeight in 6600, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6600)
0.19730566 = weight(_text_:headings in 6600) [ClassicSimilarity], result of:
0.19730566 = score(doc=6600,freq=8.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.64334357 = fieldWeight in 6600, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=6600)
0.5 = coord(2/4)
- Abstract
- The history of the Library of Congress Subject Headings is traced, from its beginnings with the implementation of a dictionary catalog at the Library of Congress in 1898 to the present day. The author describes the most significant changes which have occurred in LCSH policies and practices during the 100-year period. Events noted near the end of the century indicate an increased willingness on the part of' the Library of Congress to involve the larger library community in the creation or revision of subject headings and other decision-making regarding the LCSH system. Finally, the author provides a summary of the other contributions to this collection of essays, a collection which celebrates the "centennial" of the world's most popular library subject heading language
- Content
- Mit einer Publikationsgeschichte der LCSH (vgl. Tabellen) und dazu gehörenden Publikationen
- Source
- The LCSH century: one hundred years with the Library of Congress Subject Headings system. Ed.: A.T.Stone
-
Heiner-Freiling, M.: Survey on subject heading languages used in national libraries and bibliographies (2000)
0.11
0.10895787 = product of:
0.21791574 = sum of:
0.020610081 = weight(_text_:und in 6921) [ClassicSimilarity], result of:
0.020610081 = score(doc=6921,freq=2.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.14702731 = fieldWeight in 6921, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=6921)
0.19730566 = weight(_text_:headings in 6921) [ClassicSimilarity], result of:
0.19730566 = score(doc=6921,freq=8.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.64334357 = fieldWeight in 6921, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=6921)
0.5 = coord(2/4)
- Abstract
- Surveys conducted during the last four years under the auspices of the International Federation of Library Associations and Organizations (IFLA) reveal that the Library of Congress Subject Headings is heavily used in national libraries outside of the United States, particularly in English-speaking countries. Many other countries report using a translation or adaptation of LCSH as their principal subject heading language. Magda Heiner-Freiling presents an analysis of the IFLA data, which also includes information on the classification schemes used by the libraries and whether or not the libraries have produced a manual on the creation and application of subject headings. The paper concludes with an Appendix showing the complete data from the 88 national libraries that respond to the surveys
- Content
- Mit einer tabellarischen Übersicht der eingesetzten Systeme und Regeln
- Object
- Sears List of Subject Headings
- Source
- The LCSH century: one hundred years with the Library of Congress Subject Headings system. Ed.: A.T.Stone
-
Aitchison, J.; Gilchrist, A.; Bawden, D.: Thesaurus construction and use : a practical manual (2000)
0.11
0.10675084 = product of:
0.21350168 = sum of:
0.02748011 = weight(_text_:und in 1130) [ClassicSimilarity], result of:
0.02748011 = score(doc=1130,freq=2.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.19603643 = fieldWeight in 1130, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1130)
0.18602157 = weight(_text_:headings in 1130) [ClassicSimilarity], result of:
0.18602157 = score(doc=1130,freq=4.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.60655016 = fieldWeight in 1130, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0625 = fieldNorm(doc=1130)
0.5 = coord(2/4)
- LCSH
- Subject headings / Terminology
- Subject
- Subject headings / Terminology
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Culture and identity in knowledge organization : Proceedings of the Tenth International ISKO Conference 5-8 August 2008, Montreal, Canada (2008)
0.09
0.09469953 = product of:
0.18939906 = sum of:
0.14829372 = weight(_text_:juan in 3494) [ClassicSimilarity], result of:
0.14829372 = score(doc=3494,freq=2.0), product of:
0.58251727 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06320332 = queryNorm
0.25457394 = fieldWeight in 3494, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.01953125 = fieldNorm(doc=3494)
0.041105345 = weight(_text_:headings in 3494) [ClassicSimilarity], result of:
0.041105345 = score(doc=3494,freq=2.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.13402991 = fieldWeight in 3494, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.01953125 = fieldNorm(doc=3494)
0.5 = coord(2/4)
- Content
- KNOWLEDGE ORGANIZATION FOR INFORMATION MANAGEMENT AND RETRIEVAL Sabine Mas, L'Hedi Zäher and Manuel Zacklad. Design and Evaluation of Multi-viewed Knowledge System for Administrative Electronic Document Organization. - Xu Chen. The Influence of Existing Consistency Measures on the Relationship Between Indexing Consistency and Exhaustivity. - Michael Buckland and Ryan Shaw. 4W Vocabulary Mapping Across Diverse Reference Genres. - Abdus Sattar Chaudhry and Christopher S. G. Khoo. A Survey of the Top-level Categories in the Structure of Corporate Websites. - Nicolas L. George, Elin K. Jacob, Lijiang Guo, Lala Hajibayova and M Yasser Chuttur. A Case Study of Tagging Patteras in del.icio.us. - Kwan Yi and Lois Mai Chan. A Visualization Software Tool for Library of Congress Subject Headings. - Gercina Angela Borem Oliveira Lima. Hypertext Model - HTXM: A Model for Hypertext Organization of Documents. - Ali Shiri and Thane Chambers. Information Retrieval from Digital Libraries: Assessing the Potential Utility of Thesauri in Supporting Users' Search Behaviour in an Interdisciplinary Domain. - Verönica Vargas and Catalina Naumis. Water-related Language Analysis: The Need for a Thesaurus of Mexican Terminology. - Amanda Hill. What's in a Name?: Prototyping a Name Authority Service for UK Repositories. - Rick Szostak and Claudio Gnoli. Classifying by Phenomena, Theories and Methods: Examples with Focused Social Science Theories.
DISCOURSE COMMUNITIES AND KNOWLEDGE ORGANIZATION Aaron Loehrlein. The Benefits of Participating in a Form of Life: Interpretations of Complex Concepts among Experts and Novices in Records Management. - Widad Mustafa El Hadi. Discourse Community Analysis: Sense Construction Versus Non-Sense Construction. - Chaomei Chen, Fidelia Ibekwe-SanJuan, Roberto Pinho and James Zhang. The Impact of the Sloan Digital Sky Survey on Astronomical Research: The Role of Culture, Identity, and International Collaboration. USERS AND SOCIAL CONTEXT Edward M. Corrado and Heather Lea Moulaison. Social Tagging and Communities of Practice: Two Case Studies. - Margaret E. I. Kipp. Searching with Tags: Do Tags Help Users Find Things? Lynne C. Howarth. Creating Pathways to Memory: Enhancing Life Histories through Category Clusters. - Christopher S. G. Khoo and Shiyan Ou. Machine Versus Human Clustering of Concepts Across Documents. - Maria J. Löpez-Huertas. Cultural Impact on Knowledge Representation and Organization in a Subject Domain. - Inge Alberts and Suzanne Bertrand-Gastaldy. A Pragmatic Perspective of E-mail Management Practices in Two Canadian Public Administrations. - June Abbas. Daddy, How do I Find a Book on Purple Frogs?: Representation Issues for Children and Youth. - Jose Augusto Chaves Guimaräes, Juan Carlos Fernändez-Molina, Fabio Assis Pinho and Suellen Oliveira Milani. Ethics in the Knowledge Organization Environment: An Overview of Values and Problems in the LIS Literature. SYSTEMS, TOOLS AND EVALUATION Ismail Jlmimi and Stephane Chaudiron. Information Filtering as a Knowledge Organization Process: Techniques and Evaluation. - Carles Tebe and Mari-Carmen Marcos. Retrieving Terminological Information on the Net: Are Linguistic Tools Still Useful?
-
Keen, A.: ¬The cult of the amateur : how today's internet is killing our culture (2007)
0.09
0.09334917 = product of:
0.18669835 = sum of:
0.14829372 = weight(_text_:juan in 1797) [ClassicSimilarity], result of:
0.14829372 = score(doc=1797,freq=2.0), product of:
0.58251727 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06320332 = queryNorm
0.25457394 = fieldWeight in 1797, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.01953125 = fieldNorm(doc=1797)
0.03840462 = weight(_text_:und in 1797) [ClassicSimilarity], result of:
0.03840462 = score(doc=1797,freq=40.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.27396923 = fieldWeight in 1797, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1797)
0.5 = coord(2/4)
- BK
- 05.20 / Kommunikation und Gesellschaft
- Classification
- 05.20 / Kommunikation und Gesellschaft
- Footnote
- Andrew Keen is ein englisch-amerikanischer Schriftsteller, Absolvent der Universitäten von London, Berkeley y Sarajevo, Professor an den Universitäten von Tufts, Northeastern und Massachusetts und Gründer des Online-Unternehmens Audiocafe, wer gegenwärtig über die Massenmedien schreibt. Dieses Buch, veröffentlicht in USA in Juni 2007, kursierte schon zwischen den Teilnehmern der Konferenz des TED (Technology Entertainment Design) in Monterrey und es ist eine unerbittliche Kritik des Web 2.0. Ein Artikel in der Weekly Standard ging voraus.. Das Web 2.0 ist nicht so sehr eine Aktualisierung des Internets aus technischer Sicht sondern ein Kolloquialismus, das von O'Reilly Media, ein Internet Kommunikationsunternehmen, während eines der unternehmensinternen Konferenzzyklen geschaffen wurde. Es bezieht sich vor allem auf die Art, in der das Internet benutzt wird. Web 2.0 bezieht sich darüber hinaus auf die Methoden, die die Zusammenarbeit zwischen den Benutzern nachdrücklich betonen und den Besucher oder Kunden einer Seite in Mitverfasser/Co-autor transformieren. Beispiele von Web 2.0 können sein: die Rezensionen in Amazon, die online-offene Enzyklopädie Wikipedia, blogs mit Beteiligung der Leser, Verlage wie blurb.com, welche für jeden Autor die Veröffentlichung seines Buches ermöglichen, u.a. Das Web 2.0 erlaubt einerseits eine größere Interaktivität zwischen Schöpfern und Konsumenten der Kultur- Online, anderseits hat die intellektuelle Piraterie stimuliert. Für den Autor ist es klar, dass genauso wichtig die Mitbestimmung für die politischen Demokratie ist, ist in der Welt der Wissenschaft das, was die Verfechter des Web 2.0 "Diktatur der Experten" nennen. Hundert Wikipedia Mitarbeiter werden nie einen authentischen Techniker, Wissenschaftler oder Historiker ersetzen können. Die Amateurs Blogs können sogar die Texte von Journalisten ersetzen, fehlt es ihnen jedoch die Seriosität dieser. An der einen Seite, stehen die Journalisten, die reisen, befragen, untersuchen, erforschen. An der anderen stehen viel zu oft Leute, die nicht verifizierte Information aus sekundären Quellen entnehmen und veröffentlichen. Es ist nicht nur, dass sie an Seriosität mangeln, sondern auch an Verantwortung. Die anonyme Information kann auch falsch oder fehlerhaft sein, aber ist vor allem verantwortungslose Information, für die, die Verfasser selten zur Verantwortung gezogen werden, egal wie schädlich ihre Ergebnisse sind. Anders geschieht es mit der gedruckten Presse, weil sie rundweg reguliert ist.
Wenn Wikipedia und blogs nur Ergänzungen zur Kultur und zur Information wären, wäre dies nicht gravierend. Das Problem ist, dass sie Ihren Ersatz geworden sind. Darüber hinaus neben der Unerfahrenheit der Autoren steht auch die Anonymität, die ermöglicht, dass sich zwischen den Amateurs Dessinformanten, getarnten Publizisten (vor allem die Spezialisten in Enten und Desinformation, welche jetzt die ganze Welt direkt und glaubhafter erreichen können) zwischen schieben. Fügen wir diesem apokalyptischen Panorama die intellektuelle Piraterie hinzu, werden wir eine Welt haben, in der die Schöpfer von den Nachahmern verdrängt werden. Dies annulliert die Motivation für die Schöpfung des Neuen. Der Autor gibt uns einige Beispiele, wie die Entlassungen bei Disney Productions. Eine große nordamerikanische Fernsehkette hat teuere Serien in Prime Time aus dem Programm entfernt, weil diese nicht mehr rentabel sind. Andere Beispiele u.a. sind die Verluste der traditionellen Presse und das Verschwinden von spezialisierten Platten- und Bücherläden egal wie gut sie waren. Andere Themen: Invasion der Privatsphäre durch das Internet, E-Mail Betrug, wachsende Kinderpornografie, das Plagiat bei Schülern sind auch in dem Buch enthalten. So sollten wir uns ein furchtbares Bild der von den neuen Technologien verursachten Probleme machen. Aber der Kern des Buches besteht in die Verteidigung des individuellen Schöpfertums und des Fachwissens. Beide sind nach Meinung des Autors die Hauptopfer des Web 2.0. Das Buch ist ein Pamphlet, was im Prinzip nicht Schlechtes bedeutet. Marx, Nietzsche, u..v.a. haben auch Pamphlete geschrieben und einige dieser Schriften haben bei der Gestaltung der modernen Welt beigetragen. Das Buch hat alle Merkmale des Pamphlets: ist kurz, kontrovers, aggressiv und einseitig. Daran liegen seine Kräfte und seine Schwäche. Der Text kann in einigen wenigen Stunden gelesen werden und schärft die Wahrnehmung des Leser vor scheinbar unschädlichen Praktiken: runterladen eines Liedes oder die Zusammenstellung einer Schulaufgabe. Weil er einseitig ist, der Autor absichtlich ignoriert, dass viele dieser Probleme unabhängig des Internets existieren, wie das Plagiat. Er unterdrückt auch Tatsachen, wie die Kontrollmechanismen von Wikipedia, die sie genau so vertrauensvoll wie die Encyclopaedia Britannica machen. Aber gerade weil das Buch einseitig ist, hilft der Autor dem Dialog zwischen den unterschiedlichen Formen, um das Internet zu sehen und zu nutzen. (Aus der Originalrezension in Spanisch von Juan Carlos Castillon, Barcelona, en el Blog Penultimos Dias)
-
Aikawa, H. (Bearb.): Guidelines on subject access to individual works of fiction, drama, etc. (2000)
0.09
0.090990566 = product of:
0.36396226 = sum of:
0.36396226 = weight(_text_:headings in 1176) [ClassicSimilarity], result of:
0.36396226 = score(doc=1176,freq=20.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
1.1867515 = fieldWeight in 1176, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0546875 = fieldNorm(doc=1176)
0.25 = coord(1/4)
- LCSH
- Form headings
Subject headings / Literary form
Subject headings / Literature
Subject headings / Motion pictures
Subject headings / Television programs
- Subject
- Form headings
Subject headings / Literary form
Subject headings / Literature
Subject headings / Motion pictures
Subject headings / Television programs
-
Tendencias de investigación en organización del conocimiento : IV Cologuio International de Ciencas de la Documentación ; VI Congreso del Capitulo Espanol de ISKO = Trends in knowledge organization research (2003)
0.09
0.087788515 = product of:
0.17557703 = sum of:
0.14680329 = weight(_text_:juan in 4541) [ClassicSimilarity], result of:
0.14680329 = score(doc=4541,freq=4.0), product of:
0.58251727 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06320332 = queryNorm
0.25201535 = fieldWeight in 4541, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.013671875 = fieldNorm(doc=4541)
0.028773742 = weight(_text_:headings in 4541) [ClassicSimilarity], result of:
0.028773742 = score(doc=4541,freq=2.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.09382094 = fieldWeight in 4541, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.013671875 = fieldNorm(doc=4541)
0.5 = coord(2/4)
- Content
- McIlwaine, I.: Current trends in Knowledge Organization research. - Lopez-Huertas, M.J.: La investigacion espanola en Organizacion del Conocimiento (1992-2001) [Spanish research in knowledge organization (1992-2001). - Bazan, C.B.: La clasificacion de los materiales documentales del Deposito Legal [Documental material classification from legal deposit legislation]. - Bosch, M.: Modelo conceptual de objetos para la representaci6n y rastreabilidad de documentos en el medio digital [Conceptual object model for representation and traceability of digital documents]. - Brufem, L.S., Breda, S.M., Nunes Silva, H., Prates, Y, Fecchio, S.M.: Organizacao do conhecimento: tendencias da producao cientifica [Knowledge organization: tendencies of the scientific production]. - Caro Castro, C., Travieso Rodriguez, C.: Encabezamientos de materia en las bibliotecas espanolas : perspectiva historica y situacion actual [Subject headings in Spanish libraries: past en present]. - Carrizo Sainero, G., Pindado Villaverde, A.M.: Propuesta de normalizacion para el tratamiento bibliografico de documentos no contemplados en la norma ISO 6901987 [How to deal with works out of the scope of ISO 690-1987: a proposal for standarization]. Knecht, A., Frigeni, M., Hernandez, A., Tedde, L.: La transcion a la democracia en Espana: el archivo emerografico del profesor Juan J. Linz (1973-1983) [Spain's democratic transition: Professor Juan J. Linz's newspaper archive (1973-1983)] - Hajdu Barat, A.: Change in the process of cognition by contemporary information technology. - Del Castillo, D., Jimenez Piano, M., L6pez de Prado, R.: EI sistema de clasificacion de la FIAF para documentos no filmicos de eine y television: cuestiones especificas de compatibilidad para la recuperaci6n de informacion en cinematografia [FIAF classification system for non-film cinema and television documents: specific issues abour compatibility for information retrieval in cinematography]. - Villar Flecha, J., Alonso Alvarez, A., Benavides Cuellar, C., Garcia Rodriguez, I., Martinez Ordas, F., Moran Suarez, M.: Elaboracion de un corpus semantico para un clasificador de textos basado en extraccion de la informacion [Semantic corpus elaboration to train an information extraction based text classifier]. - Melly, M., Mara Ferreira, S., Garcia, L., Reis, G.: Ciencas de la informacion y de la computacion: una vision integrada del diseno de sistemas virtuales de busqueda directa de informacion centrados en el usuario [Information Science and Computer Science: an integrated vision for the design of user-centered virtual systems]. - Oliveira, R.M.: A organizacao do conhecimento nas bibliotecas portuguesas [Knowledge organization in Portuguese libraries. - Osuna Alarcon, R.: Catalogos, indices e inventarios en los siglos XVIII y XIX o los antecedentes de una disciplina [Catalogues, indexes and inventories in the eighteenth and nineteenth centuries, or the forerunners of a discipline]. - San Segundo Manual, R.: Nueva conception de la representaci6n del conocimiento [A new conception of representation of knowledge]. - Sidhom, S., Hassoun, M.: Morpho-syntactic parsing to text mining environment: NP recognition model to knowledge visualization and information. - Aldana Montes, J.F., Moreno Vergara, N., Roldan Garcia, M.M.: La web semantica: punto de encuentro [Semantic Web: a meeting point for DB, Al and IR]. - Pereira Pinheiro da Cruz, R.A., Garcia Penalvo, F.J., Romero, L.A.: Perfiles de usuarios para la adaptatividad de interfaces web [User profiling in web interfaces adaptivity]. - Dimitri, PJ.: Evaluacion de la pertinencia de la base de datos del Instituto National de la Administracion Publica [Pertinence evaluation of the Instituto National de la Administracion Publica's database]. - Eito Brun, R.: Applicacion de tecnicas de recuperaci6n de informacion y organizacion del conocimiento en los repositorios software: tendencias y vision retrospectiva [Information retrieval and knowledge organization in software libraries: bibliographic review and historical trends]. -
-
Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009)
0.08
0.08334116 = product of:
0.16668232 = sum of:
0.024289217 = weight(_text_:und in 26) [ClassicSimilarity], result of:
0.024289217 = score(doc=26,freq=4.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.17327337 = fieldWeight in 26, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=26)
0.1423931 = weight(_text_:headings in 26) [ClassicSimilarity], result of:
0.1423931 = score(doc=26,freq=6.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.46429324 = fieldWeight in 26, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=26)
0.5 = coord(2/4)
- Abstract
- Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
-
Kreyche, M.: Subject headings for the 21st century : the lcsh-es.org bilingual database (2008)
0.08
0.08006313 = product of:
0.16012625 = sum of:
0.020610081 = weight(_text_:und in 3625) [ClassicSimilarity], result of:
0.020610081 = score(doc=3625,freq=2.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.14702731 = fieldWeight in 3625, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3625)
0.13951617 = weight(_text_:headings in 3625) [ClassicSimilarity], result of:
0.13951617 = score(doc=3625,freq=4.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.4549126 = fieldWeight in 3625, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=3625)
0.5 = coord(2/4)
- Abstract
- Spanish is one of the most widely spoken languages in the world and a review of the lists of subject headings in this language reveals numerous efforts over a period of time, usually involving some form of collaboration, but largely isolated from each other. Technological developments suggest that a greater degree of cooperation is now possible and would be beneficial to the international library community if other barriers can be surmounted. The lcsh-es.org project demonstrates this concept in a practical way and suggest a new model for international cooperation in authority control. The site may be accessed at http://lcsh-es.org.
- Content
- Beitrag während: World library and information congress: 74th IFLA general conference and council, 10-14 August 2008, Québec, Canada. Vgl. auch: http://www.ibiblio.org/fred2.0/wordpress/?p=20 (mit Grafik der Beziehung zwischen 'mammal' und 'doorbell')
-
Schult, T.J.: Lernen vom Schinken in Scheiben : Was taugen die aktuellen Enzyklopädien auf CD-ROM und DVD? Ein Test (2004)
0.08
0.0796393 = product of:
0.1592786 = sum of:
0.11863497 = weight(_text_:juan in 924) [ClassicSimilarity], result of:
0.11863497 = score(doc=924,freq=2.0), product of:
0.58251727 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06320332 = queryNorm
0.20365915 = fieldWeight in 924, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.015625 = fieldNorm(doc=924)
0.040643632 = weight(_text_:und in 924) [ClassicSimilarity], result of:
0.040643632 = score(doc=924,freq=70.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.2899418 = fieldWeight in 924, product of:
8.3666 = tf(freq=70.0), with freq of:
70.0 = termFreq=70.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=924)
0.5 = coord(2/4)
- Abstract
- Enzyklopädien waren früher eine Anschaffung fürs Leben. Ihre multimedialen Versionen sind inzwischen so preiswert, dass man sich öfter eine neue leisten kann. Es haben sich daher zwei Fraktionen gebildet: Die eine stemmt lieber eine schmucke 20-bändige Schwartensammlung über den Kamin. Suchen heißt für sie: blättern. Die andere liebt es, wenn sich im Rechner eine CD-ROM oder DVD dreht und die Inhalte auf den Bildschirm wirft. Im ZEIT-Enzyklopädientest treten die aktuellen Multimedia-Ausgaben zum Vergleich an. Dabei müssen sie sich an der kostenlosen Wikipedia messen, dem beliebten Wissensspender im Internet.
- Content
- "Gute Multimedia-Enzyklopädien versammeln den Inhalt von 15 bis 20 dicken Wälzern auf CD-ROM oder DVD. Die zumeist deutlich billigeren Enzyklopädien für den Computer ermöglichen eine vielfältige Vernetzung von Information: Gliederungen, Begriffserklärungen, thematisch verwandte Artikel, Landkarten und Zeitleisten sind nur einen Mausklick entfernt. Auch Multimedia-Beigaben öffnen sich im Nu: Grafiken, Tabellen, Fotos, Animationen, Film- und Tondokumente illustrieren die Artikel. Der »gläserne Mensch« von Brockhaus entledigt sich auf Kommando der Haut, Muskeln, Gefäße oder Organe. Die Suche nach Artikeln beginnt, wenn man den Begriff auf dem Bildschirm ins Eingabefeld tippt. In einer guten elektronischen Enzyklopädie startet dann ein zweistufiger Prozess aus Stichwort- und Volltextsuche, der mit der Ausgabe einer Trefferliste endet. Oben in der Liste sind Artikel genannt, die den Suchbegriff im Titel haben (also etwa »Wittgenstein, Ludwig« bei Eingabe von »Wittgenstein«), darunter die Artikel, die den Suchbegriff irgendwo außerhalb des Titels enthalten (in diesem Fall etwa »Analytische Philosophie«). Wer mehrere Begriffe eintippt, kann sie unterschiedlich verknüpfen. Reicht es, wenn die Artikel einen der Suchbegriffe enthalten? Sollen alle drin sein? Gar alle direkt hintereinander (Wortfolgensuche)? Wer seiner Enzyklopädie durch Kommentare, Lesezeichen, Web-Links oder eigene Artikel eine persönliche Note geben möchte, kann dies am Computer beliebig oft tun, ohne das Missfallen von Mitlesern zu erregen. Steht etwa ein Referat an, mutieren bessere Werke zudem zum Recherche-Assistenten, der das Sammeln, Sortieren und Nutzen von Textstellen durch eine Art virtuellen Karteikasten plus Textverarbeitung unterstützt.
Um einen aussagekräftigen Vergleich zu ermöglichen, mussten sich die Enzyklopädien einer inhaltlichen Überprüfung stellen: Eine Batterie von jeweils sieben Testbegriffen aus 21 Wissensbereichen stand bereit, von Acetatseide bis Zwölftafelgesetz. Die zu diesen Begriffen gefundenen Informationen wurden verglichen und bewertet. Am Ende gab es dafür in den Bereichen Naturwissenschaft/Technik, Geistes-/Gesellschaftswissenschaften und Kultur eine Note. Dabei kam es hauptsächlich auf Qualität und Breite der Texte an, weil diese in der Praxis eine weit größere Rolle als die Medienbeigaben spielen. Diese sind in einer eigenen Multimedia-Note berücksichtigt. Die Note »Aktualität« bewertet, wie die Lexika bei Themen abschneiden, die in den letzten Monaten eine besondere Rolle in der öffentlichen Diskussion spielten: »Hartz« und »Rechtschreibreform«, »Phishing« und »Novel Food«, »Gesine Schwan« und »John Kerry« beispielsweise. Eine weitere Note würdigt die Vielfalt der Suchmöglichkeiten, und schließlich stand auch die Bedienung auf dem Prüfstand. Wenn etwa Stichwort- und Volltextsuche nur getrennt durchgeführt werden können oder wenn Text und Bild nicht gleichzeitig zu sehen sind, führte dies zur Abwertung. Bei denTexten steht die Wikipedia mit ihren rund 150000 deutschsprachigen Artikeln an erster Stelle. Das kostenfreie Online-Projekt Tausender Freiwilliger schaffte es durch sein explosives Wachstum in den letzten Monaten, Brockhaus und Encarta zu toppen. Meilenweit ist ihr Vorsprung in puncto Aktualität: Bei keinem anderen Lexikon finden sich so ausführliche Artikel zu Themen wie »DVB-T«, »Attac«, »Horst Köhler« oder »Mars Express«. Wer sich Sorgen um die Qualität der Artikel macht, weil keine etablierte Redaktion verantwortlich zeichnet, kann beruhigt sein: Wir ließen die meisten überprüften Wikipedia-Artikel zusätzlich von Fachleuten der jeweiligen Wissensbereiche beurteilen, die durchweg angetan waren. Zwar haben die Texte hier und da noch Lücken, aber sie machen diese durch präzise und ausführliche Beschreibungen an anderen Stellen wett. Und jeder kann sich als Lückenfüller engagieren: Ein Klick auf den Link »Artikel bearbeiten« macht den Leser zum Autor.
Großer Nachteil bei Wikipedia: Der Benutzer blickt meist auf Textwüsten. Auf andere Medienbeigaben muss er ganz verzichten. Außerdem findet er nicht sofort Unterstützung bei komplexen Suchanfragen; selbst Stichwort- und Volltextsuche muss er getrennt starten. Und schließlich muss er online sein - es sei denn, er besorgt sich eine Momentaufnahme des Artikelbestands zum Download oder auf Silberscheibe. So verkauft in wenigen Tagen der Berliner Verlag Directmedia erstmals die (halbjährlich aktualisierte) deutsche Wikipedia auf CD-ROM für drei Euro im Buchhandel. Nur im naturwissenschaftlichen Bereich muss die Wikipedia ihre Spitzenposition teilen: mit dem Brockhaus »multimedial premium«, dem einst der gedruckte Brockhaus in 15 Bänden zugrunde lag. Mittlerweile bietet er Extras wie Englischwörterbuch, interaktiven Atlas und diverse Begleitmedien, vom Tagesschau-Film über die Tschernobyl-Explosion bis zum interaktiven Bamberg-Panorama. In fast allen geprüften Wissensbereichen zeigte sich der Brockhaus in der Spitzengruppe, lediglich Sport und Geschichte können andere besser. Für Verwirrung sorgt dieses Jahr allerdings, dass viele Artikel mehrfach vorkommen und sich dabei oft ähneln. Brockhaus nahm in den letzten Jahren verschiedene Speziallexika in den Artikelbestand auf und überlässt die Integration bisweilen dem Leser.
Erstmals läuft der Brockhaus nun auch unter Linux und Mac OS X und ermöglicht auf allen Plattformen eine konkurrenzlos flexible Recherche: Suchbegriffe lassen sich etwa mit »und«, »oder«, »nicht« und »nahe bei« verknüpfen; die »Schreibungstoleranz« sucht auf Wunsch auch nach bloß ähnlichen Wörtern. Selbst wenn Artikel nicht direkt aufeinander verweisen, kann ein mit computerlinguistischen Methoden erzeugtes »Wissensnetz« einen Bezug herstellen und (manchmal originelle) Vorschläge zum Weiterlesen präsentieren. Die Textbasis des nur halb so teuren Standard-Brockhaus schnitt im Test fast genauso gut ab wie die der Premium-Version. Wer noch mehr sparen muss, kann den Inhalt des 149 Euro teuren 26-bändigen Großen Taschenlexikons von Meyer plus Begleitmedien für ganze 16 Euro auf den Computer bringen: Meyer - Das multimediale Lexikon 2004 heißt das ebenfalls aus der Brockhaus-Redaktion stammende, allerdings dieses Jahr nicht aktualisierte Produkt. Einziger Text-Unterschied zum Standard-Brockhaus: Schätzungsweise jeder zehnte Artikel musste deutliche Kürzungen hinnehmen. Microsofts Encarta Professional liefert sich seit Jahren ein Kopf-an-Kopf-Rennen mit dem Brockhaus, in der Qualität wie in den Marktanteilen. Auch unser Wissenstest zeigt, dass die Rivalen fast ebenbürtig sind. Lediglich in den Bereichen Politik, Literatur und Mythen hat die Encarta einen deutlichen Vorsprung vor allen anderen Titeln. Sowohl Multimedia-Ausstattung (mit dem besten elektronischen Atlas überhaupt) als auch Bedienungskomfort lassen kaum Wünsche offen. Wer auf ein Drittel der Artikel verzichten kann, zahlt sogar nur 30 Euro für die Standardausgabe.
Seltsamerweise verliert Microsofts Encarta kein Wort darüber, wie man Suchbegriffe kombinieren kann, selbst in der Hilfefunktion nicht. Auch eine wichtige Einschränkung verschweigt sie: Sie ignoriert zweibuchstabige Suchbegriffe - Pech für den »PC«, der sich auch als »IBM-PC« kaum finden lässt. Bei Umlauten ist die Encarta zudem ungenau; eine Stichwortsuche nach »Döner« liefert auch »Don Juan«. Schließlich interpretiert sie jede Anfrage so, als würde man auch nach Artikeln suchen, die das Suchwort am Anfang eines längeren Wortes stehen haben: Die Suche nach »Kakao« findet auch »Kakaobohne«. Das ist aber nicht immer erwünscht: Wer nach der Eishockey-Liga »DEL« sucht, ertrinkt in einer Liste von irrelevanten Treffern (»Delft«, »Delhi«). Steht eine komplexere Recherche an, ist Experimentieren angesagt. Zwischen die Suchbegriffe darf der Anwender »oder«, »nicht« oder »nahe bei« schreiben und damit spezielle Verknüpfungen veranlassen - oder er setzt Anführungszeichen für Wortfolgen ein. Aber warum verliert Microsoft über alle diese Möglichkeiten kein Wort? Die anderen Lexika spielen inhaltlich eine Liga tiefer. Bertelsmann hat das wohl eingesehen und zum ersten Mal seit zwölf Jahren keine neue Version seiner mittlerweile unter dem Label Wissen.de vertriebenen elektronischen Enzyklopädien auf dem Markt - die Texte fanden sich ohnehin auch auf dem kostenlosen Web-Portal gleichen Namens. Data Becker mischt unverdrossen mit, produziert Jahr für Jahr ein unterhaltsames, leicht zu bedienendes Lexikon, das sich in Aufmachung und Stil auch an jüngere Nutzer wendet. Wer es genauer wissen will, stößt jedoch rasch an Grenzen. Das Universallexikon 2005 bietet noch dünnere Texte und eine bemerkenswert unfreundliche Oberfläche, die Nachschlagen zur Qual macht. Wer im Volltext nach zwei Suchbegriffen gleichzeitig sucht, erntet zudem eine Fehlermeldung. Bleibt die (englischsprachige) Encyclopaedia Britannica 2005 DVD mit dem aktualisierten Inhalt des legendären 32-Bänders; im naturwissenschaftlichen Bereich glänzt sie mit ausgezeichneten Texten. Über Sport oder aktuelle Themen sollte man sie lieber nicht befragen. Doch allein die 165000 gut sortierten Web-Links sind den Preis wert, der sich für die Vorvorjahresversion auf 14,95 Euro (bei www.zweitausendeins.de) reduziert."
-
Berg-Schorn, E.: MeSH 2006: Deutsche Version lieferbar (2006)
0.08
0.07916682 = product of:
0.15833364 = sum of:
0.042070154 = weight(_text_:und in 959) [ClassicSimilarity], result of:
0.042070154 = score(doc=959,freq=12.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.30011827 = fieldWeight in 959, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=959)
0.11626349 = weight(_text_:headings in 959) [ClassicSimilarity], result of:
0.11626349 = score(doc=959,freq=4.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.37909386 = fieldWeight in 959, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=959)
0.5 = coord(2/4)
- Abstract
- Beim DIMDI erhalten Sie ab sofort die aktuelle deutsche Übersetzung des Thesaurus Medical Subject Headings (MeSH) 2006 der National Library of Medicine (NLM). Auf Anfrage liefern wir die neue Version 11.0 (Stand 2006) als kostenpflichtige XML-Datei auf CD-ROM. Gegenüber 2005 enthält derThesaurus 933 neue Deskriptoren. Andere wurden nach der aktuellen Terminologie umbenannt, obsolete Benennungen entfielen ganz. Da jede Deskriptorklasse in Konzepte und Unterkonzepte mit zugehörigen Begriffen unterteilt ist, beträgt die tatsächliche Zahl neuer Bezeichnungen etwa das Fünffache. Der laufend weiterentwickelte Thesaurus umfasst jetzt 23.880 Hauptschlagwörter (Main Headings). Zum Vergleich: vor zehn Jahren gab die NLM erst 18.436 Deskriptoren an. Zuwachs verzeichnet vor allem die Kategorie Chemische Substanzen, Drogen und Arzneimittel mit 684 neuen Schlagwörtern. Zahlreiche neue Begriffe enthalten auch die Kategorien Organismen, Krankheiten, Biowissenschaften, Anatomie sowie Analytische, diagnostische und therapeutische Verfahren und Geräte. Neue Deskriptoren sind beispielsweise Kalziumaktivierte Kaliumkanäle mit großer Leitfähigkeit, Tritonia-Meeresschnecke, Mesangiumzellen oder Bariatrische Chirurgie. Das DIMDI übersetzt den MeSH in enger Anlehnung an die amerikanische Vorlage und ist offizieller Herausgeber der deutschen Version (inkl. Urheberrechte). Der Thesaurus ist Bestandteil des UMLS (Unified Medical Language System) der NLM. Übersetzungen liegen auch in Finnisch, Französisch, Italienisch, Portugiesisch, Russisch und Spanisch vor.
-
Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007)
0.08
0.07659099 = product of:
0.15318199 = sum of:
0.054529153 = weight(_text_:und in 1557) [ClassicSimilarity], result of:
0.054529153 = score(doc=1557,freq=14.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.38899773 = fieldWeight in 1557, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1557)
0.09865283 = weight(_text_:headings in 1557) [ClassicSimilarity], result of:
0.09865283 = score(doc=1557,freq=2.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.32167178 = fieldWeight in 1557, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=1557)
0.5 = coord(2/4)
- Abstract
- Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
- Series
- Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
-
Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003)
0.08
0.07651266 = product of:
0.15302531 = sum of:
0.070814624 = weight(_text_:und in 5524) [ClassicSimilarity], result of:
0.070814624 = score(doc=5524,freq=34.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.50517434 = fieldWeight in 5524, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=5524)
0.08221069 = weight(_text_:headings in 5524) [ClassicSimilarity], result of:
0.08221069 = score(doc=5524,freq=2.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.26805982 = fieldWeight in 5524, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0390625 = fieldNorm(doc=5524)
0.5 = coord(2/4)
- Abstract
- Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Daten-, Literatur- und Faktendokumentation enthält neben zahlreichen Übungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit Antworten. Das Buch ist von zentraler Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Das Thema gewinnt aber auch an Bedeutung für Wissenschaftler aller Fachrichtungen. Das Buch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden vierten Auflage werden insbesondere Entwicklungen im Bereich des Internets und der Informationssysteme berücksichtigt.
- Content
- Zweck und Grundzüge der Dokumentation.- Begriff und Wesen der Information.- Dateien und Informationsspeicher.Referate.- Ordnungsprinzip Klassifikation.- Hierarchische Begriffsstrukturen.- Alphabetisches Sortieren und systematisches Anordnen.- Die Klassfikationen ICD-10 und ICPM.- Ordnungsprinzip Register.- Beispiel einer Dokumentation mit Registern.- Ordnungsprinzip Fassettenklassifikation.- Ordnungsprinzip Begriffskombination.- Struktur eines Ordnungssystems.Beispielthesaurus Gebäude.- Ordnungssystem Medical Subject Headings (MeSH).- Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren.- Dokumenten-Deskriptoren-Matrix.Relevanz- und Vollzähligkeitsrate.- Recherchieren und Suchstrategien.- Dokumentations- und Retrievalsysteme.Aktive Informationsdienste.- Revision eines Ordnungssystems.
-
Jungk, S.: ¬Die Erschließung der Belletristik und Kinder- und Jugendliteratur im Sachkatalog der Deutschen Nationalbibliothek Leipzig (2008)
0.07
0.074549936 = product of:
0.14909987 = sum of:
0.0340049 = weight(_text_:und in 3173) [ClassicSimilarity], result of:
0.0340049 = score(doc=3173,freq=4.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.24258271 = fieldWeight in 3173, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=3173)
0.11509497 = weight(_text_:headings in 3173) [ClassicSimilarity], result of:
0.11509497 = score(doc=3173,freq=2.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.37528375 = fieldWeight in 3173, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0546875 = fieldNorm(doc=3173)
0.5 = coord(2/4)
- Abstract
- In its overall function as the archive of all German-language publications, the German National Library also collects and catalogues German-language literary works. Belles-lettres as well as children's and youth literature form a considerable part of the library's collection. From 1913 until 1990, the titles were assigned subject headings, were filed in the library's card subject catalogue according to genres and languages and (within these categories) were further divided into formal aspects, themes and motifs. The subject indexing of belles-lettres and children's and youth literature is unique in its scope and depth.
-
Hearn, S.: Machine-assisted validation of LC Subject Headings : implications for authority file structure (2000)
0.07
0.07048099 = product of:
0.28192395 = sum of:
0.28192395 = weight(_text_:headings in 6607) [ClassicSimilarity], result of:
0.28192395 = score(doc=6607,freq=12.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.91925365 = fieldWeight in 6607, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0546875 = fieldNorm(doc=6607)
0.25 = coord(1/4)
- Abstract
- Many kinds of structure can be discerned in the headings and rules governing the Library of Congress Subject Headings. By addressing these structures at different levels, librarians can develop different approaches to the machine-assisted validation of subject headings, from the checking of individual words to the validation of complex forms of heading/subdivision compatibility. Using computer programs to assist with maintenance of subject headings is becoming increasingly necessary as technical services librarians strive to create consistent and useful patterns of subject collocation in library catalogs
- Source
- The LCSH century: one hundred years with the Library of Congress Subject Headings system. Ed.: A.T.Stone
-
Koh, G.S.L.: Transferring intended messages of subject headings exemplified in the list of Korean subject headings (2006)
0.07
0.07048099 = product of:
0.28192395 = sum of:
0.28192395 = weight(_text_:headings in 100) [ClassicSimilarity], result of:
0.28192395 = score(doc=100,freq=12.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.91925365 = fieldWeight in 100, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0546875 = fieldNorm(doc=100)
0.25 = coord(1/4)
- Abstract
- This paper focuses on meaning as the core concern and challenge of interoperability in a multilingual context. Korean subject headings, presently translated from English, crystallize issues attached to the semantics of translation in at least two languages (Korean, with written Chinese, and English). Presenting a model microcosm, which explains grammatical and semantic characteristics, and allows a search for equivalence of headings that have the closest approximation of semantic ranges, the study concludes the necessary conditions for linking multilingual subject headings and suggests an interoperable model for the transfer of meaning of headings across languages and cultures.
-
Mitchell, V.; Hsieh-Yee, I.: Converting Ulrich's subject headings(TM) to FAST headings : a feasibility study (2007)
0.07
0.07048099 = product of:
0.28192395 = sum of:
0.28192395 = weight(_text_:headings in 1774) [ClassicSimilarity], result of:
0.28192395 = score(doc=1774,freq=12.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.91925365 = fieldWeight in 1774, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0546875 = fieldNorm(doc=1774)
0.25 = coord(1/4)
- Abstract
- This paper presents a study that assessed the feasibility of applying the approach of the Faceted Application of Subject Terminology (FAST), an initiative of the Online Computer Library Center (OCLC), to records in the Ulrich's Periodicals Directory.? The goal is to determine whether a simplified application of Library of Congress Subject Headings (LCSH), as illustrated by FAST, would benefit the Ulrich's system. This feasibility study found that although a few problems were encountered in the process, overall the FAST database was useful for converting Ulrich's subject headings into FAST headings.
- Object
- Ulrich's subject headings
-
Wilk, D.; Rotenberg, S.; Schackam, S.; Hoffman, G.; Liebman, S.: Problems in the use of the Library of Congress Subject Headings as the basis for Hebrew Subject Headings in the Bar-Ilan University Library (2001)
0.07
0.06975809 = product of:
0.27903235 = sum of:
0.27903235 = weight(_text_:headings in 1498) [ClassicSimilarity], result of:
0.27903235 = score(doc=1498,freq=4.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.9098252 = fieldWeight in 1498, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.09375 = fieldNorm(doc=1498)
0.25 = coord(1/4)
-
ASIS&T Thesaurus of Information Science, Technology and Librarianship (2005)
0.07
0.0693367 = product of:
0.1386734 = sum of:
0.017848857 = weight(_text_:und in 166) [ClassicSimilarity], result of:
0.017848857 = score(doc=166,freq=6.0), product of:
0.14017859 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06320332 = queryNorm
0.12732941 = fieldWeight in 166, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=166)
0.12082454 = weight(_text_:headings in 166) [ClassicSimilarity], result of:
0.12082454 = score(doc=166,freq=12.0), product of:
0.30668786 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06320332 = queryNorm
0.39396584 = fieldWeight in 166, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0234375 = fieldNorm(doc=166)
0.5 = coord(2/4)
- BK
- 06.00 / Information und Dokumentation: Allgemeines
- Classification
- 06.00 / Information und Dokumentation: Allgemeines
- Footnote
- Weitere Rez. in: Information - Wissenschaft und Praxis 58(2007) H.1, S.59-60 (J. Fassbender) mit Berücksichtigung der Software Thesaurus Master.
- LCSH
- Subject headings / Information science
Subject headings / Information technology
Subject headings / Library science
- Subject
- Subject headings / Information science
Subject headings / Information technology
Subject headings / Library science