-
Wissen in Aktion : Der Primat der Pragmatik als Motto der Konstanzer Informationswissenschaft. Festschrift für Rainer Kuhlen (2004)
0.14
0.14026906 = product of:
0.2805381 = sum of:
0.051508933 = weight(_text_:und in 5664) [ClassicSimilarity], result of:
0.051508933 = score(doc=5664,freq=28.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.36675057 = fieldWeight in 5664, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5664)
0.22902918 = weight(_text_:harald in 5664) [ClassicSimilarity], result of:
0.22902918 = score(doc=5664,freq=4.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.47544518 = fieldWeight in 5664, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.03125 = fieldNorm(doc=5664)
0.5 = coord(2/4)
- Abstract
- Diese Festschrift ist Rainer Kuhlen zu seinem 60. Geburtstag gewidmet. Mit ihrem Motto Wissen in Aktion und dem breiten Spektrum der Beiträge, welche die Deutsche Informationswissenschaft und angrenzende Gebiete - Informatik, Wirtschaftsinformatik, Psychologie, Sprachwissenschaft - repräsentieren, spiegelt sie Rainer Kuhlens Arbeitsweise wider: philosophisch begründet, breit interdisziplinär angelegt, auf der Höhe der aktuellen Diskussion. Die Beiträge der Kollegen und ehemaligen Schüler verbindet das Verständnis von Information, als Wissen in Aktion, wie es Rainer Kuhlen formulierte. Die offene Fragestellung berührt nicht nur die Informationswissenschaft, sondern auch die Disziplinen, die ebenfalls Wissen und Wissensmanagement untersuchen. Die Autoren setzen sich mit dem Informationsbegriff auseinander, diskutieren die grundlegende Bedeutung von Information und Kommunikation genauso wie die aktuellen Trends zu E-learning und Visualisierung.
- Content
- Enthält die Beiträge: - Experimentelles Information Retrieval Harald Reiterer: Visuelle Recherchesysteme zur Unterstützung der Wissensverarbeitung Manfred Wettler: Psychologische Theorien sind Information-Retrieval-Verfahren Joachim Griesbaum, Bernard Bekavac: Von der Kommerzialisierung bis zum Deep Web: Problemfelder der Internetsuche Udo Hahn: Die Verdichtung textuellen Wissens zu Information - Vom Wandel methodischer Paradigmen beim automatischen Abstracting Ulrich Reimer: Von textbasiertem zu inhaltsorientiertem Wissensmanagement - Die Rolle von Terminologien und Ontologien - Informationstheorie Rainer Hammwöhner: Besuch bei alten Bekannten - Zu den Sprachspielen mit dem Informationsbegriff Norbert Henrichs: Was heißt "handlungsrelevantes Wissen"? Wolf Rauch: Die Dynamisierung des Informationsbegriffes Sameer Patil, Alfred Kobsa: Preserving Privacy in Awareness Systems - Information im Kontext Gabriele Beger: Hält § 52 a UrhG dem urheberrechtlichen Dreistufentest stand? Erich Ortner: Anthropozentrik und Sprachbasierung in der (Wirtschafts-) Informatik Marc Rittberger: Vertrauen und Qualität in Informationsdienste. Wo finde ich Vertrauen im Information Quality Framework?
- Informationsversorgung Jürgen Krause: Zur Problematik eines Gedankenexperiments über die Informationsversorgung der Wissenschaften Thomas Seeger: Ein Blick voraus in die Vergangenheit. Von Visionen und Konzepten der frühen Dokumentationsbewegung Achim Osswald: eBook-Angebotskonzepte von Aggregatoren für Bibliotheken Ilse Maria Harms: Auf dem Weg zur Reduktion der Komplexität des sozialen Koordinationssystems Josef Herget: Das informationswissenschaftliche Ausbildungsangebot für Information Professionals in der Schweiz - Wissensmanagement Jubran Rajup, Claus Rautenstrauch: Werkzeuggestütztes Wissensmanagement bei einer deutschen Großbank zur Unterstützung des strategischen und administrativen Informationsmanagements - eine Fallstudie Herbert Stoyan et al.: Wissenserwerb und Wissensmanagement Fahri Yetim: Universal Actability of and with Knowledge: Managing and Communicating Knowledge with Patterns Harald Zimmermann: Der "Nietzsche-Thesaurus" des Nietzsche-Online-Portals - Kooperatives Informationsmanagement Christa Womser-Hacker: Ein mehrsprachiges Kommunikationsforum zur Unterstützung von Lernprozessen ohne Sprachbarrieren Wolfgang F. Finke: Basic LMS Architecture for Learner-Centric LearnFlows or How Reusable Learning Objects Fit into Co-Constructivist Learning Processes Wolfgang Semar, Joachim Griesbaum, Jagoda König-Mistric, Andreas Lenich, Thomas Schütz: K3 - Wissensmanagement über kooperative verteilte Formen der Produktion und der Aneignung von Wissen zur Bildung von konzeptueller Informationskompetenz durch Nutzung heterogener Informationsressourcen - Stand und Aussichten
-
Wersig, G.: Vereinheitlichte Medientheorie und ihre Sicht auf das Internet (2006)
0.13
0.13454056 = product of:
0.26908112 = sum of:
0.06664602 = weight(_text_:und in 65) [ClassicSimilarity], result of:
0.06664602 = score(doc=65,freq=30.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.47452867 = fieldWeight in 65, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=65)
0.20243509 = weight(_text_:harald in 65) [ClassicSimilarity], result of:
0.20243509 = score(doc=65,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 65, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=65)
0.5 = coord(2/4)
- Abstract
- Ein noch wenig systematisch erforschtes Feld ist die Beziehung zwischen Wissenschaft und Öffentlichkeit, die langdauernder und intensiver zu wirken scheint, als man gemeinhin glaubt. Deutlich macht das z.B. derzeit das Einstein-Jahr, das daran erinnert, wie sehr Einstein und seine Arbeiten in der Öffentlichkeit standen und wie sehr die Öffentlichkeit sich auch auf seine Wissenschaft einließ. Vermutlich war es vor allem das Konzept der "Relativität", das an der Schnittstelle zur Öffentlichkeit besondere Aufmerksamkeit fand, weil es auch zum Zeitgeist der Zwanziger Jahre passte - weswegen eben Einstein ein Star und Planck nur Namensgeber der wichtigen Forschungsgemeinschaft wurde. Wahrscheinlich war es dann das Konzept des "Atom", das als Schnittstellenkonzept fungierte, und zwar schon vor der Atombombe als Konzept, das wegen seiner Bedeutung für den Aufbau der Welt faszinierend wirkte. In den Sechziger Jahren spielte als Schnittstellenkonzept ohne Zweifel das Konzept "Information" eine zentrale Rolle, ausgehend von Shannon/Weaver und dann mit der Kybernetik sich verbreitend. Das klang gleichzeitig nach Rationalität und Überwindung alter Grenzen, schließlich wurde die Kybernetik auch nicht ganz zu Unrecht als "transklassische Wissenschaft" bezeichnet. In den Sechziger und z.T. auch den Siebziger Jahren wurde viel und innovativ mit dem Informationskonzept experimentiert, entstanden interessante Ansätze zur Informationstheorie. Der Siegeszug der elektronischen Datenverarbeitung und später die rein kommerzielle Interpretation von "Information" im Kontext der Diskussionen zur "Informationsgesellschaft" trugen zur vollständigen semantischen Entleerung des Informationskonzeptes bei.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Virtuelle Welten? : Die Realität des Internets (2008)
0.13
0.13341063 = product of:
0.26682127 = sum of:
0.06438617 = weight(_text_:und in 2850) [ClassicSimilarity], result of:
0.06438617 = score(doc=2850,freq=28.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.45843822 = fieldWeight in 2850, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2850)
0.20243509 = weight(_text_:harald in 2850) [ClassicSimilarity], result of:
0.20243509 = score(doc=2850,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 2850, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=2850)
0.5 = coord(2/4)
- Abstract
- Das Internet als Netz der Netze repräsentiert eine technische Infrastruktur, auf deren Basis heute eine weltumspannende Kommunikation zwischen Rechnern und zwischen den sie nutzenden Menschen möglich ist. Die Nutzungsformen des Internets sind vielfältig und beeinflussen die verschiedensten Lebensbereiche. Doch was am Internet ist virtuell und was real? Die Abgrenzungsproblematik zwischen Realität und Virtualität einerseits sowie die scheinbar unauflösbaren Zusammenhänge zwischen Virtualität und Realität andererseits sind das Leitthema dieses Bandes. Die unterschiedlichen Ansatzpunkte der Verfasserinnen und Verfasser aus verschiedenen Wissenschaftsdisziplinen ermöglichen vielfältige Einsichten in die Wirkungen der «virtuellen» Medien des Internets.
- Classification
- AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
- Content
- Inhalt: Thomas Myrach: Vorwort - Torsten Braun: Entstehung und Funktionsweise des Internets - Rudolf Groner/Esther Scholler/Bartholomäus Wissmath: Internet und Psychologie - Elke Hentschel: Linguistische Forschung zur Kommunikation im Internet. Ein Überblick - Philomen Schönhagen: Massenkommunikation und Internet. Skizzen zu ihrem Verhältnis aus Sicht der Kommunikationsgeschichte und -theorie - Gerhard Johann Lischka: Das virtuelle Netz - Thomas Myrach: Das Internet als Marktraum - Simon Hölzer: Informierte Patienten und Cyberhypochonder - Harald Kraemer: Interaktive Impulse. Über Hypermedia und virtuelle Museen - Alexandra Papadopoulos: Computergames - Joana Breidenbach: Ethnographie des Cyberspace - Marco Prestipino/Gerhard Schwabe: Tourismus-Communities: Neue Reiseinformation, neues Reisen? - Evelina Bühler-Ilieva: Augenlose Liebe oder die Liebe der inneren Augen: virtuelle Partnerwahlprozesse - Ursula Sury: Virtuelle Welten: Rechtsaspekte im Internet - Thomas B. Hodel/Alma Schütter/Michael Biedermann: Privacy within Tomorrow's Internet.
- RVK
- AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.13
0.13270172 = product of:
0.26540345 = sum of:
0.19657172 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.19657172 = score(doc=217,freq=4.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.06883171 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.06883171 = score(doc=217,freq=50.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Welzer, H.: ¬Die smarte Diktatur : der Angriff auf unsere Freiheit (2016)
0.13
0.13137485 = product of:
0.2627497 = sum of:
0.033720512 = weight(_text_:und in 163) [ClassicSimilarity], result of:
0.033720512 = score(doc=163,freq=12.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.24009462 = fieldWeight in 163, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=163)
0.22902918 = weight(_text_:harald in 163) [ClassicSimilarity], result of:
0.22902918 = score(doc=163,freq=4.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.47544518 = fieldWeight in 163, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.03125 = fieldNorm(doc=163)
0.5 = coord(2/4)
- Abstract
- Unsere Gesellschaft verändert sich radikal, aber fast unsichtbar. Wir steuern auf einen Totalitarismus zu. Das Private verschwindet, die Macht des Geldes wächst ebenso wie die Ungleichheit, wir kaufen immer mehr und zerstören damit die Grundlage unseres Lebens. Statt die Chance der Freiheit zu nutzen, die historisch hart und bitter erkämpft wurde, werden wir zu Konsum-Zombies, die sich alle Selbstbestimmung durch eine machtbesessene Industrie abnehmen lässt, deren Lieblingswort »smart« ist. Was heißt das für unsere Gesellschaft? Nach seinem Bestseller >Selbst denken< analysiert Harald Welzer in >Die smarte Diktatur. Der Angriff auf unsere Freiheit<, wie die scheinbar unverbundenen Themen von big data über Digitalisierung, Personalisierung, Internet der Dinge, Drohnen bis Klimawandel zusammenhängen. Daraus folgt: Zuschauen ist keine Haltung. Es ist höchste Zeit für Gegenwehr, wenn man die Freiheit erhalten will! Bestseller-Autor Harald Welzer legt mit >Die smarte Diktatur. Der Angriff auf unsere Freiheit< eine neue und frische Analyse der großen gesellschaftlichen Zusammenhänge in Deutschland vor, eine umfassende Diagnose der Gegenwart für alle politisch Interessierten.
- BK
- 54.08 Informatik in Beziehung zu Mensch und Gesellschaft
- Classification
- 54.08 Informatik in Beziehung zu Mensch und Gesellschaft
- Content
- Rez. in: Mitt. VOEB 70(2017) Nr.3/4, S.390-393 (B. Ecker): "Im Großen und Ganzen ist das Buch aber enttäuschend."
-
Giessen, H.W.: Ehrwürdig stille Informationen : Eine Interpretation der Phaidros-Passage unter besonderer Berücksichtigung der McLuhan'schen Unterscheidung in 'kühle' und 'heiße' Medien (2006)
0.13
0.12975366 = product of:
0.25950733 = sum of:
0.05707224 = weight(_text_:und in 64) [ClassicSimilarity], result of:
0.05707224 = score(doc=64,freq=22.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.4063621 = fieldWeight in 64, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=64)
0.20243509 = weight(_text_:harald in 64) [ClassicSimilarity], result of:
0.20243509 = score(doc=64,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 64, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=64)
0.5 = coord(2/4)
- Abstract
- Der folgende Beitrag bezieht sich auf Kommunikationsprozesse. Das klassische Kommunikationsmodell, das schon auf die antike Rhetorik zurückgeht, beschreibt eine Person, von der die Kommunikation ausgeht - das theoretische Modell, auf das heutzutage in der Regel zurückgegriffen wird, Claude Elwood Shannons und Warren Weavers "mathematische Theorie der Kommunikation" (1964), nennt diesen Ausgangspunkt der Kommunikation den 'Sender' -, und die Person, die das Ziel der kommunikativen Bemühungen ist, den 'Empfänger'. Für die Darstellung des Kommunikationsprozesses in historischer Zeit genügen diese beiden Elemente; der Kommunikationsprozess erfolgte in der Regel direkt, da (nahezu ausschließlich) mündlich. (Probleme der Kodierung von Informationen durch Sprache seien an dieser Stelle nicht berücksichtigt.) Unter Umständen benötigen Sender und Empfänger aber auch ein Medium, eine 'Mittelinstanz' (vom lateinischen medium, das Mittlere), damit die kommunikativen Signale gut vom Sender zum Empfänger kommen können. Der Begriff Medium' - Mittelinstanz' macht deutlich, dass damit das 'Sender'-'Empfänger'-Modell nicht aufgegeben wird. Es handelt sich vielmehr um eine Metapher, die den Ort und die Funktion dieser Instanz im Kommunikationsfluss lokalisiert und bewertet. Ein historisch frühes Beispiel für ein solches 'Medium' sind bildhafte Darstellungen in steinzeitlichen Höhlen. Es war jedoch stets (selbst den steinzeitlichen Menschen zumindest unbewusst) klar, dass diese mediale Form des Informationstransfers nicht nur untersucht werden muss, weil sie möglicherweise störanfällig ist oder den Umfang, die Sende- und die Empfangsmöglichkeiten der zu übermittelnden Informationen begrenzt. Schon früh hat sich gezeigt, dass die Metapher problematisch sein kann, weil ein Medium' nicht nur Mittelinstanz' ist, sondern auch selbst die Art und den Inhalt der zu übermittelnden Informationen (mit) beeinflussen kann.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Chatzimarkakis, J.: Sprache und Information in Europa (2006)
0.13
0.12975366 = product of:
0.25950733 = sum of:
0.05707224 = weight(_text_:und in 82) [ClassicSimilarity], result of:
0.05707224 = score(doc=82,freq=22.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.4063621 = fieldWeight in 82, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=82)
0.20243509 = weight(_text_:harald in 82) [ClassicSimilarity], result of:
0.20243509 = score(doc=82,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 82, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=82)
0.5 = coord(2/4)
- Abstract
- Sprache ist einer der wichtigsten Träger von Informationen. Europa ist reich an Informationen und somit auch reich an der Möglichkeit Informationen zu übertragen. Trotz aller verwandtschaftlichen Beziehungen gibt es wohl nicht die europäische Sprache, weil die Schnittmengen und Familienähnlichkeiten aller Sprachen in Europa gering sind. Sprache in Europa bedeutet die Vielfalt der Sprachen, die in Europa nebeneinander bestehen, zu bewahren. Europäisch sind nicht nur die Sprachen der Europäischen Union der 25 Mitgliedsstaaten, sondern auch die Sprachen der Beitritts- und Kandidatenländer; europäisch sind auch die Sprachen der 45 Länder, die im Europarat offiziell vertreten sind. Europäisch sind auch die vielen Dialekte, die bestimmten geographischen Bereichen gemeinsam sind. Sprachen in Europa haben viel zu tun mit Politik. Die Bewahrung der Verschiedenheit der Sprachen ist das Markenzeichen Europas. Die sprachliche Verschiedenheit ist europäische Gemeinsamkeit und Besonderheit im Vergleich zu anderen vergleichbaren Regionen in der Welt. Eine Sprache lernen heißt nicht nur, sie aussprechen können, Wörter dieser Sprache zu lernen und schreiben zu können. Dies ist der Anfang eines umfassenden Verständnisses für Sprache. Sprachen vermitteln auch kulturelle Werte. Sprachunterricht ist auch Kulturunterricht, so verstanden ist Sprachunterricht "europäisch". Sprachliche Vielfalt in Europa ist kulturelle Vielfalt. Die Bedeutung der Sprache für Mensch und Gesellschaft ist Ausgangspunkt der Überlegung, dass die Vielsprachigkeit eine besondere Fähigkeit der Europäer ist, die es zu bewahren gilt. Die verschiedenen Ansätze der EU zur Bewahrung der Sprachvielfalt soll hier dargestellt werden, um die Bedeutung von Sprache als Informations- und Kulturträger in Europa zu veranschaulichen.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Reiterer, H.; Jetter, H.-C.: ¬Das Projekt Mediovis : visuelle Exploration digitaler Bibliotheken (2007)
0.13
0.12975366 = product of:
0.25950733 = sum of:
0.05707224 = weight(_text_:und in 1568) [ClassicSimilarity], result of:
0.05707224 = score(doc=1568,freq=22.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.4063621 = fieldWeight in 1568, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1568)
0.20243509 = weight(_text_:harald in 1568) [ClassicSimilarity], result of:
0.20243509 = score(doc=1568,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 1568, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=1568)
0.5 = coord(2/4)
- Abstract
- Ziel des Forschungsprojektes MedioVis, das in enger Kooperation mit der Bibliothek der Universität Konstanz durchgeführt wird, ist die Realisierung einer innovativen visuellen Benutzungsschnittstelle zur analytischen Suche und zum interessengeleiteten Stöbern im Katalog der Konstanzer "Mediothek". Deren elektronische und multimediale Titel (z.B. Videoaufzeichnungen, DVD, Tonträger, CD-ROM) sind ein bedeutsamer Bestandteil des Serviceangebots der Bibliothek der Universität Konstanz, der gerade in dem Bereich der Theater-, Film- und Medienwissenschaften, aber auch in der Fremdsprachenausbildung oder zu Unterhaltungszwecken intensiv von Studenten, Lehrpersonen und Wissenschaftlern genutzt wird. MedioVis leistet dabei einen wesentlichen Beitrag zur Verbesserung und Erweiterung der nutzerorientierten Dienstleistungen, indem dem Bibliotheksnutzer nicht nur ein effizientes Suchen, sondern auch ein interessengeleitetes Stöbern im Katalog mittels spezieller Visualisierungen und neuartigen Interaktionskonzepten ermöglicht wird. Dabei wird er von der ersten Eingrenzung des Katalogs bis zur Selektion des gewünschten Titels begleitet, wobei zur Entscheidungsunterstützung eine Anreicherung mit ergänzenden Metadaten aus dem World Wide Web stattfindet. Das Projekt wird dabei von der Deutschen Forschungsgemeinschaft (DFG) im Förderprogramm für Wissenschaftliche Literaturversorgungs- und Informationssysteme gefördert, um somit die Schaffung eines für andere Bibliotheken frei verfügbaren und nachnutzbaren Systems zu unterstützen und dieses unter Realbedingungen zu testen. Zu diesem Zweck wird MedioVis von der UB Konstanz seit dem Sommer 2004 im operativen Testbetrieb auf Arbeitsplätzen innerhalb der Mediothek angeboten. Die Motivation für das Projekt MedioVis erwuchs aus Gesprächen mit Benutzern und deren Beobachtung bei der Verwendung des traditionellen bibliographischen Webkatalogs bzw. OPACs "KOALA", der gerade für die Domäne "Film" in den Augen der Befragten nur wenig geeignet war. Als Hauptproblem erwies sich dabei, dass die Entscheidungsunterstützung bei der Filmrecherche für den Benutzer durch einen traditionellen bibliographischen Katalog nur unzureichend ist
- Series
- Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
- Source
- Wa(h)re Information: 29. Österreichischer Bibliothekartag Bregenz, 19.-23.9.2006. Hrsg.: Harald Weigel
-
Grundlagen der praktischen Information und Dokumentation : Handbuch zur Einführung in die Informationswissenschaft und -praxis (2013)
0.13
0.12970571 = product of:
0.25941142 = sum of:
0.059010897 = weight(_text_:und in 5382) [ClassicSimilarity], result of:
0.059010897 = score(doc=5382,freq=48.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.42016557 = fieldWeight in 5382, product of:
6.928203 = tf(freq=48.0), with freq of:
48.0 = termFreq=48.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5382)
0.20040053 = weight(_text_:harald in 5382) [ClassicSimilarity], result of:
0.20040053 = score(doc=5382,freq=4.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.41601452 = fieldWeight in 5382, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.02734375 = fieldNorm(doc=5382)
0.5 = coord(2/4)
- Abstract
- Seit vierzig Jahren vermittelt das Standardwerk Wissenschaftlern, Praktikern und Studierenden Grundlagen der professionellen, wissenschaftlich fundierten Informationsarbeit. Mit der 6., völlig neu gefassten Auflage reagieren die Herausgeber Rainer Kuhlen, Wolfgang Semar und Dietmar Strauch auf die erheblichen technischen, methodischen und organisatorischen Veränderungen auf dem Gebiet der Information und Dokumentation und tragen damit der raschen Entwicklung des Internets und der Informationswissenschaft Rechnung. Die insgesamt über fünfzig Beiträge sind vier Teilen - Grundlegendes (A), Methodisches (B), Informationsorganisation (C) und Informationsinfrastrukturen (D) - zugeordnet.
- Content
- Enthält die Beiträge: A: Grundlegendes Rainer Kuhlen: Information - Informationswissenschaft - Ursula Georgy: Professionalisierung in der Informationsarbeit - Thomas Hoeren: Urheberrecht und Internetrecht - Stephan Holländer, Rolf A. Tobler: Schweizer Urheberrecht im digitalen Umfeld - Gerhard Reichmann: Urheberrecht und Internetrecht: Österreich - Rainer Kuhlen: Wissensökologie - Wissen und Information als Commons (Gemeingüter) - Rainer Hammwöhner: Hypertext - Christa Womser-Hacker, Thomas Mandl: Information Seeking Behaviour (ISB) - Hans-Christoph Hobohm: Informationsverhalten (Mensch und Information) - Urs Dahinden: Methoden empirischer Sozialforschung für die Informationspraxis - Michael Seadle: Ethnografische Verfahren der Datenerhebung - Hans-Christoph Hobohm: Erhebungsmethoden in der Informationsverhaltensforschung
B: Methodisches Bernard Bekavac: Web-Technologien - Rolf Assfalg: Metadaten - Ulrich Reimer: Wissensorganisation - Thomas Mandl: Text Mining und Data Mining - Harald Reiterer, Hans-Christian Jetter: Informationsvisualisierung - Katrin Weller: Ontologien - Stefan Gradmann: Semantic Web und Linked Open Data - Isabella Peters: Benutzerzentrierte Erschließungsverfahre - Ulrich Reimer: Empfehlungssysteme - Udo Hahn: Methodische Grundlagen der Informationslinguistik - Klaus Lepsky: Automatische Indexierung - Udo Hahn: Automatisches Abstracting - Ulrich Heid: Maschinelle Übersetzung - Bernd Ludwig: Spracherkennung - Norbert Fuhr: Modelle im Information Retrieval - Christa Womser-Hacker: Kognitives Information Retrieval - Alexander Binder, Frank C. Meinecke, Felix Bießmann, Motoaki Kawanabe, Klaus-Robert Müller: Maschinelles Lernen, Mustererkennung in der Bildverarbeitung
C: Informationsorganisation Helmut Krcmar: Informations- und Wissensmanagement - Eberhard R. Hilf, Thomas Severiens: Vom Open Access für Dokumente und Daten zu Open Content in der Wissenschaft - Christa Womser-Hacker: Evaluierung im Information Retrieval - Joachim Griesbaum: Online-Marketing - Nicola Döring: Modelle der Computervermittelten Kommunikation - Harald Reiterer, Florian Geyer: Mensch-Computer-Interaktion - Steffen Staab: Web Science - Michael Weller, Elena Di Rosa: Lizenzierungsformen - Wolfgang Semar, Sascha Beck: Sicherheit von Informationssystemen - Stefanie Haustein, Dirk Tunger: Sziento- und bibliometrische Verfahren
D: Informationsinfrastruktur Dirk Lewandowski: Suchmaschinen - Ben Kaden: Elektronisches Publizieren - Jens Olf, Uwe Rosemann: Dokumentlieferung - Reinhard Altenhöner, Sabine Schrimpf: Langzeitarchivierung - Hermann Huemer: Normung und Standardisierung - Ulrike Spree: Wörterbücher und Enzyklopädien - Joachim Griesbaum: Social Web - Jens Klump, Roland Bertelmann: Forschungsdaten - Michael Kerres, Annabell Preussler, Mandy Schiefner-Rohs: Lernen mit Medien - Angelika Menne-Haritz: Archive - Axel Ermert, Karin Ludewig: Museen - Hans-Christoph Hobohm: Bibliothek im Wandel - Thomas Breyer-Mayländer: Medien, Medienwirtschaft - Helmut Wittenzellner: Transformation von Buchhandel, Verlag und Druck - Elke Thomä, Heike Schwanbeck: Patentinformation und Patentinformationssysteme
- RSWK
- Information und Dokumentation
- Subject
- Information und Dokumentation
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.13
0.12953828 = product of:
0.25907657 = sum of:
0.2084958 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.2084958 = score(doc=977,freq=2.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.05058077 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.05058077 = score(doc=977,freq=12.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.12437706 = product of:
0.24875411 = sum of:
0.1737465 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.1737465 = score(doc=50,freq=2.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.07500761 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.07500761 = score(doc=50,freq=38.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Hagenau, B.: Gehabte Sorgen hab' ich gern? : Ein Blick zurück auf die Deutschen Bibliothekartage 1975 bis 1980 (2006)
0.12
0.12398149 = product of:
0.24796298 = sum of:
0.045527894 = weight(_text_:und in 81) [ClassicSimilarity], result of:
0.045527894 = score(doc=81,freq=14.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.32416478 = fieldWeight in 81, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=81)
0.20243509 = weight(_text_:harald in 81) [ClassicSimilarity], result of:
0.20243509 = score(doc=81,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 81, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=81)
0.5 = coord(2/4)
- Abstract
- Der Deutsche Bibliothekartag ist seit mehr als einem Jahrhundert die klassische Fortbildungsveranstaltung für alle bibliothekarisch Tätigen in Deutschland. Gleichzeitig ist er aber auch ein Forum, um Thesen und Neuentwicklungen vorzustellen oder auch nur zu proklamieren. Manches erweist sich im Nachhinein als wegweisend, manches als verwegene Absichtsbekundung, der die Realisierung versagt bleiben sollte. In seiner chronologischen Abfolge lässt er die Themen Revue passieren, die in Bibliothekskreisen jeweils aktuell diskutiert wurden. Der Bibliothekartag bietet den Protagonisten, die das ganze Jahr hindurch in der täglichen Praxis oder aber in übergeordneter Gremienarbeit mit den entsprechenden Themen befasst sind, ein Forum, um den Stand der Dinge zusammenzufassen oder die eigene Sichtweise in den Mittelpunkt zu stellen. Die breite Fachöffentlichkeit erhält auf diese Weise die Möglichkeit, die laufenden Diskussionen zumindest etappenweise zu verfolgen. Eine Rückschau auf die Vorträge längst vergangener Bibliothekartage bietet einen schönen Einstieg in bibliotheksgeschichtliche Betrachtungen. In diesem kurzen Beitrag sollen die Diskussionen in der zweiten Hälfte der 1970er Jahre' betrachtet werden, verbunden mit der Frage, welche der damaligen Probleme sich zwischenzeitlich erledigt oder zumindest weiter entwickelt haben, welche aus heutiger Sicht womöglich nur noch kurios anmuten und welche ihren Platz auf den Tagesordnungen bibliothekarischer Gremienarbeit bis auf den heutigen Tag behaupten konnten.
- Content
- Enthält auch Abschnitte zu den Komplexen Einheitsklassifikation und RSWK (S.221) sowie zu RAK und MARC
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.1221309 = product of:
0.2442618 = sum of:
0.2084958 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.2084958 = score(doc=1181,freq=2.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.03576601 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.03576601 = score(doc=1181,freq=6.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.122129865 = product of:
0.24425973 = sum of:
0.19657172 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.19657172 = score(doc=1761,freq=4.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.047688007 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.047688007 = score(doc=1761,freq=24.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Frederichs, A.: Natürlichsprachige Abfrage und 3-D-Visualisierung von Wissenszusammenhängen (2007)
0.12
0.11842547 = product of:
0.23685095 = sum of:
0.034415856 = weight(_text_:und in 1566) [ClassicSimilarity], result of:
0.034415856 = score(doc=1566,freq=8.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.24504554 = fieldWeight in 1566, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1566)
0.20243509 = weight(_text_:harald in 1566) [ClassicSimilarity], result of:
0.20243509 = score(doc=1566,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 1566, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=1566)
0.5 = coord(2/4)
- Abstract
- Eine der größten Herausforderungen für alle technischen Anwendungen ist die sogenannte Mensch-Maschine-Schnittstelle, also der Problemkreis, wie der bedienende Mensch mit der zu bedienenden Technik kommunizieren kann. Waren die Benutzungsschnittstellen bis Ende der Achtziger Jahre vor allem durch die Notwendigkeit des Benutzers geprägt, sich an die Erfordernisse der Maschine anzupassen, so wurde mit Durchsetzung grafischer Benutzungsoberflächen zunehmend versucht, die Bedienbarkeit so zu gestalten, dass ein Mensch auch ohne größere Einarbeitung in die Lage versetzt werden sollte, seine Befehle der Technik - letztlich also dem Computer - zu übermitteln. Trotz aller Fortschritte auf diesem Gebiet blieb immer die Anforderung, der Mensch solle auf die ihm natürlichste Art und Weise kommunizieren können, mit menschlicher Sprache. Diese Anforderung gilt gerade auch für das Retrieval von Informationen: Warum ist es nötig, die Nutzung von Booleschen Operatoren zu erlernen, nur um eine Suchanfrage stellen zu können? Ein anderes Thema ist die Frage nach der Visualisierung von Wissenszusammenhängen, die sich der Herausforderung stellt, in einem geradezu uferlos sich ausweitenden Informationsangebot weiterhin den Überblick behalten und relevante Informationen schnellstmöglich finden zu können.
- Series
- Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
- Source
- Wa(h)re Information: 29. Österreichischer Bibliothekartag Bregenz, 19.-23.9.2006. Hrsg.: Harald Weigel
-
Vonhoegen, H.: Einstieg in XML (2002)
0.12
0.11729537 = product of:
0.23459074 = sum of:
0.17200024 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.17200024 = score(doc=5002,freq=4.0), product of:
0.446278 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063324235 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.0625905 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.0625905 = score(doc=5002,freq=54.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Qualität in der Inhaltserschließung (2021)
0.12
0.11674005 = product of:
0.2334801 = sum of:
0.071532 = weight(_text_:und in 1754) [ClassicSimilarity], result of:
0.071532 = score(doc=1754,freq=54.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.5093176 = fieldWeight in 1754, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1754)
0.16194808 = weight(_text_:harald in 1754) [ClassicSimilarity], result of:
0.16194808 = score(doc=1754,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.3361905 = fieldWeight in 1754, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.03125 = fieldNorm(doc=1754)
0.5 = coord(2/4)
- Abstract
- Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
- Content
- Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
- Footnote
- Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
- Series
- Bibliotheks- und Informationspraxis; 70
-
Welzer, H: Alles könnte anders sein : eine Gesellschaftsutopie für freie Menschen (2019)
0.12
0.11612005 = product of:
0.2322401 = sum of:
0.029805005 = weight(_text_:und in 616) [ClassicSimilarity], result of:
0.029805005 = score(doc=616,freq=6.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.21221566 = fieldWeight in 616, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=616)
0.20243509 = weight(_text_:harald in 616) [ClassicSimilarity], result of:
0.20243509 = score(doc=616,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 616, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=616)
0.5 = coord(2/4)
- Abstract
- Heute glaubt niemand mehr, dass es unseren Kindern mal besser gehen wird. Muss das so sein? Muss es nicht! Der Soziologe und erprobte Zukunftsarchitekt Harald Welzer entwirft uns eine gute, eine mögliche Zukunft. Anstatt nur zu kritisieren oder zu lamentieren, macht er sich Gedanken, wie eine gute Zukunft aussehen könnte: In realistischen Szenarien skizziert er konkrete Zukunftsbilder u.a. in den Bereichen Arbeit, Mobilität, Digitalisierung, Leben in der Stadt, Wirtschaften, Umgang mit Migration usw. Erfrischend und Mut machend zeigt Welzer: Die vielbeschworene »Alternativlosigkeit« ist in Wahrheit nur Phantasielosigkeit. Wir haben auch schon viel erreicht, auf das man aufbauen kann. Es ist nur vergessen worden beziehungsweise von andere Prioritäten verdrängt. Es kann tatsächlich alles anders sein. Man braucht nur eine Vorstellung davon, wie es sein sollte. Und man muss es machen. Die Belohnung: eine lebenswerte Zukunft, auf die wir uns freuen können.
-
Newberg, A.; D'Aquili, E.; Rause, V.: ¬Der gedachte Gott : wie Glaube im Gehirn entsteht (2003)
0.11
0.11338539 = product of:
0.22677077 = sum of:
0.024335684 = weight(_text_:und in 470) [ClassicSimilarity], result of:
0.024335684 = score(doc=470,freq=4.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.17327337 = fieldWeight in 470, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=470)
0.20243509 = weight(_text_:harald in 470) [ClassicSimilarity], result of:
0.20243509 = score(doc=470,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.4202381 = fieldWeight in 470, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.0390625 = fieldNorm(doc=470)
0.5 = coord(2/4)
- Abstract
- Warum Menschen Götter haben, beschäftigte bislang vor allem Kulturforscher. Nun haben Mediziner den Ursprung der Religion im menschlichen Gehirn lokalisiert. Durch Experimente finden die Autoren heraus, was im Gehirn vor sich geht, wenn Menschen beten. Ihr sensationeller Befund: Es gibt eine Hirnregion, die für religiöse Gefühle zuständig ist. Ob betende Christen oder meditierende Buddhisten - es werden die gleichen Hirnzellen auf die genau gleiche Art aktiviert. Religion ist meßbar geworden. Verständlich und präzise stellen die drei Autoren den neuesten aufregenden Aspekt der Hirnforschung dar und liefern einen wichtigen Beitrag zu einer der ältesten Fragen der Menschheit: Warum gibt es Religion?
- Issue
- Aus dem Amerikanischen von Harald Stadler.
-
Gaus, W.; Kaluscha, R.: Maschinelle inhaltliche Erschließung von Arztbriefen und Auswertung von Reha-Entlassungsberichten (2006)
0.11
0.11097708 = product of:
0.22195417 = sum of:
0.06000609 = weight(_text_:und in 78) [ClassicSimilarity], result of:
0.06000609 = score(doc=78,freq=38.0), product of:
0.14044677 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063324235 = queryNorm
0.4272515 = fieldWeight in 78, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=78)
0.16194808 = weight(_text_:harald in 78) [ClassicSimilarity], result of:
0.16194808 = score(doc=78,freq=2.0), product of:
0.48171523 = queryWeight, product of:
7.607123 = idf(docFreq=59, maxDocs=44421)
0.063324235 = queryNorm
0.3361905 = fieldWeight in 78, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.607123 = idf(docFreq=59, maxDocs=44421)
0.03125 = fieldNorm(doc=78)
0.5 = coord(2/4)
- Abstract
- Schon Hippokrates empfahl den Ärzten, Krankenakten zu führen. Heute ist die detaillierte Dokumentation eine Standespflicht der Ärzte [Gaus et al 1999]. Diese Dokumentationen medizinischer Behandlungen bergen einen riesigen und wertvollen Erfahrungsschatz. Informationen zu Therapien und Behandlungsergebnissen, die in Studien erst mühsam erhoben werden müssten, sind bereits in der Routinedokumentation wie Operations- und Entlassungsberichten oder Arztbriefen zahlreich vorhanden. Mit der Einführung der elektronischen Datenverarbeitung in der Medizin liegen diese Informationen seit einigen Jahren auch maschinenlesbar vor, so dass ein Haupthemmnis für die Nutzung dieser Dokumentationen, nämlich die mühsame manuelle Aufbereitung der Papierakten, entfällt. Während die formale Erschließung nach Patientenmerkmalen wie Name und Geburtsdatum von den Krankenhaus- bzw. Praxisinformationssystemen heutzutage gut gelöst ist, bleibt die inhaltliche Erschließung dieser Dokumentationen schwierig, da nur wenige Informationen in strukturierter oder intellektuell indexierter Form vorliegen [Leiner et al. 2003]. Auch wenn nach der Einführung der Fallpauschalen (diagnosis related groups, DRG) in den Krankenhäusern die Diagnosen nach ICD-10 verschlüsselt werden, besteht ein Großteil der Informationen weiterhin aus freiem Text, dessen computerbasierte Erschließung aufgrund der Komplexität menschlicher Sprache nicht trivial ist. Zu diesen medizinischen Texten gehören u.a. Gutachten, verbal beschriebene (Differential-) Diagnosen, vielfältige Untersuchungs- und Befundberichte, Visitenblätter, Operationsberichte und der Arztbrief bzw. Entlassungsbericht. Arztbrief und Entlassbericht dienen der Information des einweisenden oder weiterbehandelnden Arztes (z.B. Hausarzt) über das, was mit dem Patienten geschehen ist, und geben Empfehlungen zur Weiterbehandlung. Sie fassen eine (stationäre) Behandlung epikritisch - also nachdem die Krankheit überwunden ist, im Rückblick - zusammen und geben einen Überblick über Anamnese (Vorgeschichte), Beschwerden und Symptome, die eingesetzten diagnostischen Verfahren, die gestellte(n) Diagnose(n), Therapie, Verlauf, Komplikationen und das erzielte Ergebnis. Sie haben somit eine ähnliche Funktion wie das Abstract in der Literaturdokumentation, oft wird eine Kopie in der Krankenakte obenauf abgelegt. Zumindest in Universitätskliniken möchten wissenschaftlich arbeitende Ärzte auch unter inhaltlichen Gesichtspunkten auf die Krankenakten zugreifen können, z.B. die Krankenakten aller Patienten mit einer bestimmten Diagnose einsehen, exzerpieren und die exzerpierten Daten auswerten. Auch bei der Suche nach ähnlichen Fällen oder im Bereich der Aus- und Fortbildung hilft eine inhaltliche Erschließung weiter. So könnte etwa ein Assistenzarzt, der im Rahmen seiner Weiterbildung demnächst Sonografien des Kniegelenkes durchzuführen hat, sich vorhandene Berichte von solchen Sonografien anschauen und sich so über relevante Untersuchungstechniken und Befunde vorab informieren.
- Source
- Information und Sprache: Beiträge zu Informationswissenschaft, Computerlinguistik, Bibliothekswesen und verwandten Fächern. Festschrift für Harald H. Zimmermann. Herausgegeben von Ilse Harms, Heinz-Dirk Luckhardt und Hans W. Giessen