-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.10
0.097016305 = product of:
0.19403261 = sum of:
0.14446774 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.14446774 = score(doc=6889,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.049564872 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.049564872 = score(doc=6889,freq=24.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.10
0.097016305 = product of:
0.19403261 = sum of:
0.14446774 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.14446774 = score(doc=1642,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.049564872 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.049564872 = score(doc=1642,freq=24.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
Internet: The editor's choice (2002)
0.09
0.09029234 = product of:
0.36116937 = sum of:
0.36116937 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.36116937 = score(doc=1854,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.08
0.08396609 = product of:
0.16793218 = sum of:
0.12640928 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
0.12640928 = score(doc=6206,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.2725264 = fieldWeight in 6206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.04152291 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.04152291 = score(doc=6206,freq=22.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.5 = coord(2/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
-
Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000)
0.08
0.08153447 = product of:
0.16306894 = sum of:
0.108350806 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
0.108350806 = score(doc=1729,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.23359407 = fieldWeight in 1729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.054718133 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
0.054718133 = score(doc=1729,freq=52.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.3748476 = fieldWeight in 1729, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.5 = coord(2/4)
- Abstract
- In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
-
Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006)
0.08
0.081003174 = product of:
0.16200635 = sum of:
0.108350806 = weight(_text_:java in 195) [ClassicSimilarity], result of:
0.108350806 = score(doc=195,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.23359407 = fieldWeight in 195, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.053655546 = weight(_text_:und in 195) [ClassicSimilarity], result of:
0.053655546 = score(doc=195,freq=50.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.3675683 = fieldWeight in 195, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.5 = coord(2/4)
- Abstract
- Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
- Content
- Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
-
Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003)
0.07
0.07326231 = product of:
0.14652462 = sum of:
0.06070432 = weight(_text_:und in 2833) [ClassicSimilarity], result of:
0.06070432 = score(doc=2833,freq=64.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.41585606 = fieldWeight in 2833, product of:
8.0 = tf(freq=64.0), with freq of:
64.0 = termFreq=64.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2833)
0.0858203 = weight(_text_:handling in 2833) [ClassicSimilarity], result of:
0.0858203 = score(doc=2833,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.20789343 = fieldWeight in 2833, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0234375 = fieldNorm(doc=2833)
0.5 = coord(2/4)
- Abstract
- Als in den siebziger Jahren des vergangenen Jahrhunderts immer häufiger die Bezeichnung Informationsmanager für Leute propagiert wurde, die bis dahin als Dokumentare firmierten, wurde dies in den etablierten Kreisen der Archivare und Bibliothekare gelegentlich belächelt und als Zeichen einer Identitätskrise oder jedenfalls einer Verunsicherung des damit überschriebenen Berufsbilds gewertet. Für den Berufsstand der Medienarchivare/Mediendokumentare, die sich seit 1960 in der Fachgruppe 7 des Vereins, später Verbands deutscher Archivare (VdA) organisieren, gehörte diese Verortung im Zeichen neuer inhaltlicher Herausforderungen (Informationsflut) und Technologien (EDV) allerdings schon früh zu den Selbstverständlichkeiten des Berufsalltags. "Halt, ohne uns geht es nicht!" lautete die Überschrift eines Artikels im Verbandsorgan "Info 7", der sich mit der Einrichtung von immer mächtigeren Leitungsnetzen und immer schnelleren Datenautobahnen beschäftigte. Information, Informationsgesellschaft: diese Begriffe wurden damals fast nur im technischen Sinne verstanden. Die informatisierte, nicht die informierte Gesellschaft stand im Vordergrund - was wiederum Kritiker auf den Plan rief, von Joseph Weizenbaum in den USA bis hin zu den Informations-Ökologen in Bremen. Bei den nationalen, manchmal auch nur regionalen Projekten und Modellversuchen mit Datenautobahnen - auch beim frühen Btx - war nie so recht deutlich geworden, welche Inhalte in welcher Gestalt durch diese Netze und Straßen gejagt werden sollten und wer diese Inhalte eigentlich selektieren, portionieren, positionieren, kurz: managen sollte. Spätestens mit dem World Wide Web sind diese Projekte denn auch obsolet geworden, jedenfalls was die Hardware und Software anging. Geblieben ist das Thema Inhalte (neudeutsch: Content). Und - immer drängender im nicht nur technischen Verständnis - das Thema Informationsmanagement. MedienInformationsManagement war die Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar überschrieben, und auch die Folgetagung 2001 in Köln, die der multimedialen Produktion einen dokumentarischen Pragmatismus gegenüber stellte, handelte vom Geschäftsfeld Content und von Content-Management-Systemen. Die in diesem 6. Band der Reihe Beiträge zur Mediendokumentation versammelten Vorträge und Diskussionsbeiträge auf diesen beiden Tagungen beleuchten das Titel-Thema aus den verschiedensten Blickwinkeln: archivarischen, dokumentarischen, kaufmännischen, berufsständischen und juristischen. Deutlich wird dabei, daß die Berufsbezeichnung Medienarchivarln/Mediendokumentarln ziemlich genau für all das steht, was heute mit sog. alten wie neuen Medien im organisatorischen, d.h. ordnenden und vermittelnden Sinne geschieht. Im besonderen Maße trifft dies auf das Internet und die aus ihm geborenen Intranets zu. Beide bedürfen genauso der ordnenden Hand, die sich an den alten Medien, an Buch, Zeitung, Tonträger, Film etc. geschult hat, denn sie leben zu großen Teilen davon. Daß das Internet gleichwohl ein Medium sui generis ist und die alten Informationsberufe vor ganz neue Herausforderungen stellt - auch das durchzieht die Beiträge von Weimar und Köln.
Vorliegender Band umgreift den gegenwärtigen Stand der Diskussion um das Handling von Informationen in und mit Hilfe von neuen und alten Medien und liefert außerdem dem Verein Fortbildung für Medienarchivare/ Mediendokumentare (VFM), der seit dem 5. Band die Reihe herausgibt, eine weitere Handreichung für die zusammen mit dem Deutschen Institut, für publizistische Bildungsarbeit in Hagen veranstalteten Seminare. Im Anhang sind außer den vollständigen Programmen der beiden Frühjahrstagungen die Namen und institutionellen Anbindungen der Referenten nachzulesen. Allen Autoren des Bandes sei für ihre Bereitschaft, an dieser Publikation mitzuwirken, gedankt, insbesondere denen, die sich auch noch der Mühe unterziehen mußten, das Transkript ihres in freier Rede gehaltenen Vortrags in eine lesbare Fassung zu bringen. Manche Eigentümlichkeiten des Stils sind dieser freien Rede geschuldet - oder vielleicht auch gedankt, denn sie geben damit umso lebendiger die Atmosphäre jener Frühlingstage in Weimar und Köln wieder.
- Classification
- AP 11500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Bibliographien und Sammelschriften / Tagungs- und Kongreßberichte (CSN)
- Content
- Enthält u.a. die Beiträge (Dokumentarische Aspekte): Günter Perers/Volker Gaese: Das DocCat-System in der Textdokumentation von Gr+J (Weimar 2000) Thomas Gerick: Finden statt suchen. Knowledge Retrieval in Wissensbanken. Mit organisiertem Wissen zu mehr Erfolg (Weimar 2000) Winfried Gödert: Aufbereitung und Rezeption von Information (Weimar 2000) Elisabeth Damen: Klassifikation als Ordnungssystem im elektronischen Pressearchiv (Köln 2001) Clemens Schlenkrich: Aspekte neuer Regelwerksarbeit - Multimediales Datenmodell für ARD und ZDF (Köln 2001) Josef Wandeler: Comprenez-vous only Bahnhof'? - Mehrsprachigkeit in der Mediendokumentation (Köln 200 1)
- RVK
- AP 11500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Bibliographien und Sammelschriften / Tagungs- und Kongreßberichte (CSN)
-
Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998)
0.07
0.07223387 = product of:
0.28893548 = sum of:
0.28893548 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
0.28893548 = score(doc=6134,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.62291753 = fieldWeight in 6134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6134)
0.25 = coord(1/4)
- Abstract
- Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
-
Schlüter, C.: Kaum Ruckeln : Träge plätschert das Meer ans menschenleere Ufer: Die Online-Dependence des Goethe-Instituts im Second Life (2008)
0.07
0.071746476 = product of:
0.14349295 = sum of:
0.043369263 = weight(_text_:und in 3177) [ClassicSimilarity], result of:
0.043369263 = score(doc=3177,freq=24.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.29710194 = fieldWeight in 3177, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3177)
0.10012369 = weight(_text_:handling in 3177) [ClassicSimilarity], result of:
0.10012369 = score(doc=3177,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.24254234 = fieldWeight in 3177, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.02734375 = fieldNorm(doc=3177)
0.5 = coord(2/4)
- Content
- "Eigentlich nicht viel los bei Goethe. Vor zwei Wochen eröffnete das weltweit tätige Kulturinstitut der Bundesrepublik Deutschland seine Dependance im Second Life. Vielleicht etwas spät, denn in dem virtuellen Paralleluniversum gibt es zwar immer noch einiges zu entdecken, aber der letzte Schrei ist es nicht mehr. Der große Hype um das 2003 von der kalifornischen Firma Linden Lab in Betrieb genommene Online-Portal liegt bereits einige Jahre zurück und fiel in die Zeit, als sich unter dem Stichwort Web 2.0 noch die Hoffnung auf eine ganz neue Dimension des Geldverdienens versammelte. Damit hat das Goethe-Institut selbstverständlich nichts zu tun. Vielmehr erwarten den Besucher in einem luftig-lockeren Ambiente etliche Bildungsangebote, kostenlos, versteht sich. Dazu gehört ein spartanisch eingerichtetes Klassenzimmer für Deutschkurse - einmal in der Woche und auf dem "Niveau A2", wie uns eine Hinweistafel erläutert. Eine Galerie zeigt die beiden Ausstellungen "Tropen" und "Junge deutsche Modefotografie" - um seinen Avatar, also den virtuellen Stellvertreter im Second Life, durch die engen Bildergassen zu lotsen, braucht es allerdings etwas Geschick. Auf Videoleinwänden lassen sich die Beiträge aus dem Kurzfilmwettbewerb "Die Macht der Sprache" anschauen - jedenfalls der Idee nach, denn das Handling der Videos erweist sich als schwierig. Das alles und noch einiges mehr: Wer zum Beispiel schon immer einmal wissen wollte, was die Goethe-Institute so treiben, kann auf einer begehbaren Weltkarte die Veranstaltungskalender vieler Zweigstellen einsehen. Doch die meiste Zeit herrscht auf dem virtuellen Goethe-Areal tote Hose. Nur ein leiser Wind ist hier und da zu vernehmen, schließlich befinden wir uns auf einer recht kleinen Insel im großen Meer, dem so genannten Grid, des Second Life. Doch das blaue Wasser plätschert träge. Selbst in das lichte Café, in dem von Montags bis Freitags ein "moderierter Deutsch-Chat" stattfinden soll, verirrt sich kaum eine Seele. Für jemanden, der nur wegen Goethe seinen Weg in dieses Geisterreich fand, eine kleine Enttäuschung.
Oder auch eine größere. Immerhin musste vor dem Eintritt die entsprechende Software heruntergeladen und installiert werden; dann gab es noch die Anmeldung und schließlich die zwangspädagogischen Maßnahmen in einem Auffanglager für Neuankömmlinge. Technisch gesehen ist die Menschenleere bei Goethe ein Segen: Da das Second Life zwar über elf Millionen registrierte "Einwohner" verfügen und bis zu 60.000 Nutzer gleichzeitig in das System eingeloggt sein sollen, aber innerhalb einer Inselregion nur 100 Avatare Platz haben, um die Server von Linden Lab nicht zu überlasten, gibt in der Online-Repräsentanz der deutschen Kultur kaum verwaschene Oberflächentexturen und nur wenig Ruckeln bei den Bewegungen. Anderswo, vor allem auf den überfüllten Lust- und Vergnügungsarealen, herrscht allzu häufig der spaßbremsende Stillstand. Aber macht der Online-Goethe denn Spaß? Wohl kaum, wenn niemand da ist! Ob sich daraus die "Nutzungskonzepte für die Zukunft" entwickeln lassen, die "genau auf die Bedürfnisse der Second-Life-Nutzer zugeschnitten sind", wie Klaus Brehm, der Leiter des Internet-Bereichs des Goethe-Instituts, erläutert? Schwer zu glauben. Denn im Second Life geht es um die großen und kleinen Fluchten - den schnellen Gewinn oder die leichte Befriedigung. Das kann zwar auch mühselig sein, aber Goethes "interkultureller Dialog und Spracherwerb" sind da wohl noch ein anders Kaliber. Immerhin ist das ganze Projekt deutlich billiger als die Eröffnung einer Zweigstelle im echten Leben: eine Sparmaßnahme mit Zukunft."
-
Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004)
0.07
0.07004129 = product of:
0.14008258 = sum of:
0.09029234 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
0.09029234 = score(doc=3183,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.19466174 = fieldWeight in 3183, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.049790237 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
0.049790237 = score(doc=3183,freq=62.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.34108895 = fieldWeight in 3183, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.5 = coord(2/4)
- Abstract
- Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
- Content
- "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
-
Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008)
0.07
0.07004129 = product of:
0.14008258 = sum of:
0.09029234 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
0.09029234 = score(doc=3331,freq=2.0), product of:
0.46384227 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0658165 = queryNorm
0.19466174 = fieldWeight in 3331, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.049790237 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
0.049790237 = score(doc=3331,freq=62.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.34108895 = fieldWeight in 3331, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.5 = coord(2/4)
- Abstract
- Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
- Footnote
- Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
-
Sandner, M.: Neues aus der Kommission für Sacherschließung (2010)
0.07
0.06575283 = product of:
0.13150565 = sum of:
0.059988726 = weight(_text_:und in 314) [ClassicSimilarity], result of:
0.059988726 = score(doc=314,freq=90.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.41095388 = fieldWeight in 314, product of:
9.486833 = tf(freq=90.0), with freq of:
90.0 = termFreq=90.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=314)
0.07151692 = weight(_text_:handling in 314) [ClassicSimilarity], result of:
0.07151692 = score(doc=314,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.17324454 = fieldWeight in 314, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.01953125 = fieldNorm(doc=314)
0.5 = coord(2/4)
- Content
- Dieses Jahr bot uns bereits zahlreiche interessante Themen: von der Sacherschließung ausgehend schnupperten wir auch in benachbarte Arbeitsund Forschungsfelder und regten andererseits interessierte Zuhörer/-innen aus diesen Nachbargebieten dazu an, die Aspekte der Inhaltserschließung aus einem für sie relevanten Blickwinkel heraus näher kennenzulernen. Die beiden öffentlichen Kommissionssitzungen des ersten Halbjahres 2010 und das SE-Panel im Rahmen der ODOK´10 in Leoben stießen daher nicht nur im engeren Kreis der Sacherschließer/-innen sondern auch bei Titelaufnehmern/-innen und IT-Experten/-innen auf verdientes Interesse. Sämtliche Vortragsfolien und begleitendes Material sind auf der KofSE- Seite chronologisch zugänglich. Am 29. April traf sich in Wien zunächst der am Grazer Bibliothekartag ins Leben gerufene Arbeitskreis K-KONKORD zum zweiten Mal: wir hörten kurze Berichte über laufende Projektarbeiten und Masterthesen zum Thema Klassifikationen-Konkordanzen und beschlossen, bis zum nächsten Treffen im Herbst unsere bis dahin gesammelten "Mosaiksteine" nach und nach in einem gesonderten Bereich auf der KofSE-Seite innerhalb der VÖB-Homepage abzulegen. Danach begann die KofSE-Sitzung mit einem Kurzbericht von Kurt SCHAEFER aus der UB Wien über seinen unmittelbar davor liegenden Besuch beim EDUG-Meeting 2010 in Alexandria. Nicht nur seine noch ganz vom ägyptischen Klima "aufgeheizten" und durch eine Bilderfolge lebendig dokumentierten Reiseeindrücke sondern v. a. die erste Zusammenfassung aktueller Trends innerhalb der wachsenden europäischen DDC- Community waren - spontan mitkommentiert von Karin Kleiber (Sekretärin der European Dewey Users Group, EDUG) und ebenso spontan ergänzt von Lars Svensson, der mit einer Telekonferenzschaltung von Deutschland aus an dem Meeting teilgenommen hatte - diesmal ein höchst aktueller Einstieg ins Thema Klassifikation. Darauf folgten zwei Gastvorträge:
Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main gab seinem spannenden Vortrag über ein laufendes praxisorientiertes DNB-Projekt den Titel Panta rei: Die Versionierung der DDC - Probleme, Anforderungen und mögliche Lösungen. Einen kurzen Abschlussbericht über das mit diesem praktischen Lösungsansatz zu erzielende, möglicherweise adäquate IT-Handling von laufenden inhaltlichen Anpassungen der Klassifikation selbst - das Editorial Policy Committee (EPC) der DDC reagiert auf neue Bedürfnisse, LoC und OCLC führen passende Benennungen ein und adaptieren Klassen - sowie von durch die Nutzung unterschiedlicher DDC-Fremddaten entstehenden inhomogenen Gemengelagen dürfen wir im kommenden Frühjahr für die VÖB-Mitteilungen erwarten. Naoka WERR von der UB Regensburg präsentierte unter dem Titel RVK 2010 authentisch den aktuellen Stand und die zukünftigen Entwicklungen im Dienstleistungsportfolio dieser so weit verbreiteten Aufstellungssystematik und stellte sich gleichzeitig auch der neuen und etwas heiklen Kostenfrage. Sie erläuterte die geplante neue Vorgehensweise des RVK-Teams in Regensburg gegenüber den RVK-Anwenderbibliotheken und zeigte sich für nötige Anpassungen der vermehrt auch aus Österreich hinzutretenden Anwender im Rahmen des bewährten und relativ unkomplizierten redaktionellen Procederes aufgeschlossen. Der kleinen RVK-Community stand sie am Nachmittag im Anschluss an die gemeinsame Roundtable-Diskussion noch geduldig für aktuelle Fragen zur Verfügung. Wolfram SEIDLER von der UB Wien moderierte den Runden Tisch am Nachmittag. Er geleitete die diskussionsfreudigen Teilnehmer/-innen souverän aber unaufdringlich durch das zukunftsträchtige Thema Klassifikationen und Semantic Web, und viele haben aus diesem - wörtlich gemeinten - Kreis Anregungen mitgenommen, die dazu verleiten werden, am Ball zu bleiben und auf die Entwicklungen im Semantic Web in Zukunft aufgeschlossener, also konstruktiv statt skeptisch, mit einem Wort sachkundiger zu reagieren. Gelegenheit dazu sollte sich schon im September, nämlich bei unserem Themenvormittag rund um Sacherschließung und Linked Data, einem neuen Forschungsfeld vor dem Hintergrund des Semantic Web, bieten.
Die zweite KofSE-Veranstaltung in diesem Jahr fand am 17. Juni in Wien statt und hatte den Charakter eines Tagesseminars, das aus vier Vorträgen von zwei überaus kompetenten Expertinnen sowie einem kleinen Workshop bestand. Heidrun WIESENMÜLLER von der Hochschule der Medien, Stuttgart (Stellvertretende Leiterin der Expertengruppe Sacherschließung, EGSE) machte uns zunächst mit den theoretischen Grundlagen der FRBR vertraut und bereitete am Nachmittag die RDA praktisch für uns auf. Esther SCHEVEN von der Deutschen Nationalbibliothek, Frankfurt am Main (Leiterin der EGSE) referierte am Vormittag über das theoretische Modell der FRSAD, das der schon bisher in der SWD praktizierten Terminologiearbeit nicht widerspricht, brachte uns nachmittags das bereits weit gediehene Konzept für die GND (Gemeinsame Normdatei) nahe und lud schließlich noch zu einigen praktischen Übungen mit Datensätzen im künftigen GND-Format ein. Besonders was die Zusammenführung von Körperschaftsansetzungen aus GKD und SWD betrifft, dürfte der Prozess noch recht spannend bleiben. Kein Wunder also, dass an diesem Tag auch zahlreiche Formalerschließer/-innen bei uns zu Gast waren, was nicht nur in den Fragerunden nach jedem Vortragsteil sondern auch in den Pausengesprächen die immer wichtiger werdenden Kontakte über die Grenzen bisheriger Arbeitsfelder hinweg durchaus förderte. "Grenzüberschreitendes" Interesse planten wir auch für das SE-Panel bei der ODOK´10 in Leoben am Donnerstagvormittag, 23. September mit ein. Dort gestalteten wir erstmals einen Themenvormittag mit jungen Informationswissenschaftlern rund um Linked Data und Sacherschließung und kombinierten die Auswirkungen dieses neuen Forschungsgebiets mit einem Ausblick auf bevorstehende Änderungen in der SE-Praxis der Deutschen Nationalbibliothek. Im Anschluss daran luden wir die zahlreichen Teil-nehmer/-innen zu einer regen Diskussion ein.
Zunächst führte Bernhard HASLHOFER vom Department of Distributed and Multimedia Systems, Universität Wien, behutsam in die Thematik Linked Data als Perspektive für die bibliothekarische Inhaltserschließung ein. Dann stellte Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main die uns vertrauten Normdateien SWD, GKD und PND als Linked Data vor und erläuterte deren bisher erreichten Stand und Perspektiven. Auch DDC-Deutsch und die Ergebnisse aus dem CrissCross-Projekt sind bereits jetzt "open linked" verfügbar. Steffen HENNICKE vom Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität Berlin stellte in seinem mit Gemälden als Beispiele sehr anschaulich gestalteten Vortrag "Linked Data und semantische Suchfunktionalitäten in Europeana besonders den Nutzen eines so genannten "Semantic Data Layer", also der semantischen Datenschicht, die heterogene Objektmetadaten kontextualisiert, dar und zeigte wie und warum Search & Retrieval in einer derartigen Informationsarchitektur funktionieren. Im ersten Vortrag nach der Pause mit dem Titel Freie Katalogdaten und Linked Data, rückte Adrian POHL vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz), Köln dann die wichtige Komponente Linked "Open" Data mit der lizenzrechtlichen Seite von im Web frei verfügbaren bibliographischen Daten in unseren Fokus. Außerdem berücksichtigte er, dass viele Aleph-Anwender/-innen im Auditorium saßen und erläuterte die praktischen Probleme beim regelmäßigen Export von Daten aus dem Verbundkatalog. Schließlich stellte er laufende und zukünftige Linked-Open-Data-Projekte des hbz vor, in denen - teilweise in Kooperation mit der DNB - eine Basisinfrastruktur für Bibliotheken im Semantic Web entwickelt werden soll. Ulrike JUNGER, Leiterin der Inhaltserschließung an beiden Standorten der Deutschen Nationalbibliothek, Leipzig und Frankfurt am Main, holte uns wieder in die Realität des Sacherschließungsalltags zurück und stellte in ihrem Vortrag Automatisierung in der Inhaltserschließung - neue Ansätze in der Deutschen Nationalbibliothek konkrete Planungen und Aktivitäten der DNB für automatische Erschließungsverfahren vor. Im Bereich der Netzpublikationen wurde die traditionelle, intellektuell durchgeführte verbale und klassifikatorische Inhalterschließung seit Anfang 2010 eingestellt und soll durch automatische Verfahren ersetzt werden. Derzeit wird insbesondere die Vergabe von DDC-Sachgruppen und Schlagwörtern erprobt. In die bisher vorliegenden Testergebnisse beider Verfahren erhielten wir kurz Einblick. Wenig überraschend schnitten dabei Fächer wie Medizin am günstigsten ab. Schon 2012 könnten solche Verfahren in DNB zur Anwendung kommen."
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.95-99
-
Wissenschaftskommunikation der Zukunft (WissKom 2007) : 4. Konferenz der Zentralbibliothek Forschungszentrum Jülich : 6. - 8. November 2007 ; Beiträge und Poster / [WissKom 2007]. Forschungszentrum Jülich GmbH, Zentralbibliothek. Rafael Ball (Hrsg.). [Mit einem Festvortrag von Ernst Pöppel] (2007)
0.06
0.06332138 = product of:
0.12664276 = sum of:
0.05512584 = weight(_text_:und in 64) [ClassicSimilarity], result of:
0.05512584 = score(doc=64,freq=76.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.37764058 = fieldWeight in 64, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=64)
0.07151692 = weight(_text_:handling in 64) [ClassicSimilarity], result of:
0.07151692 = score(doc=64,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.17324454 = fieldWeight in 64, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.01953125 = fieldNorm(doc=64)
0.5 = coord(2/4)
- BK
- 02.16 / Wissenschaftliche und kulturelle Zusammenarbeit
- Classification
- AK 28400 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftspraxis / Informationen, Kontakte, Austausch, Technologietransfer
02.16 / Wissenschaftliche und kulturelle Zusammenarbeit
- Content
- Enthält die Beiträge: Ernst Pöppel: Wissen - und wie es kommuniziert werden kann. - Anne-Katharina Weilenmann: Von Cyberscience zu e-Science. - Katrin Weller, Indra Mainz, Ingo Paulsen, Dominic Mainz: Semantisches und vernetztes Wissensmanagement für Forschung und Wissenschaft. - Ute Rusnak, Matthias Razum, Leni Helmes: Wissensvernetzung im Forschungsprozess. - Elena Semenova, Martin Stricker: Eine Ontologie der Wissenschaftsdisziplinen. Entwicklung eines Instrumentariums für die Wissenskommunikation. - Peter Haber, Jan Hodel: Historische Fachkommunikation im Wandel. Analysen und Trends. - Lydia Bauer, Nadja Böller, Josef Herget, Sonja Hierl: Konzepte zur Förderung der Wissenschaftskommunikation: Der Churer Ansatz zur Vermittlung von kollaborativen Kompetenzen. - Susanne von liter: Wissenschaftskommunikation in der Entwicklungsforschung/Entwicklungszusammenarbeit Web2.0 und Communities of Practice - ein Beitrag aus der Praxis. - Steffen Leich-Nienhaus: Wissenschaftliche Informationsversorgung am modernen digitalen Arbeitsplatz. - Christian Hänger, Christine Krätzsch: Collaborative Tagging als neuer Service von Hochschulbibliotheken. - Christoph Bläsi: Mobile IT in kleinen und mittleren Medienunternehmen zur Prozess- und Serviceverbesserung. - Michael Diepenbroek, Hannes Grobe: PANGAEA® als vernetztes Verlags- und Bibliothekssystem für wissenschaftliche Daten. - Jan Brase, Jens Klump: Zitierfähige Datensätze: Primärdaten-Management durch DOls. - Harald Krottmaier: Die Systemarchitektur von PROBADO: Der allgemeine Zugriff auf Repositorien mit nicht-textuellen Inhalten. - Annette Holtkamp: Open Access Publishing in der Hochenergiephysik: Das SCOAP3 Projekt. - Wiebke Oeltjen: Metadaten-Management mit MyCoRe. - Karin Weishaupt: Open-Access-Zeitschriften als neue Form wissenschaftlicher Kommunikation: Vorbehalte und Vorschläge für Maßnahmen zur Akzeptanzsteigerung. - Wolfgang Glänzel, Koenraad Debackere: Bibliometrie zwischen Forschung und Dienstleistung. - Patrick Vanouplines, Ronald Beullens: Merging information sources to obtain the impact factor of open access journals. - Dirk Tunger: Bibliometrie als Teil eines Trenderkennungs-Systems in der Naturwissenschaft. - Milos Jovanovic: Indicators for Footprints through science - Designing the Journal Application Level (JAL). - James Pringle: The ISl Web of Knowledge as a Management Tool. - Show-Ling Lee-Müller, Gerd Schumacher: Einsatz bibliometrischer Analysen im EU-Projekt zur Technologiefrüherkennung SMART. - Henning Möller: Messen, Steuern, Regeln - zum Controlling der Helmhoitz-Forschung
- Footnote
- Rez. in: BuB 60(2008) H.6, S.501-502 (J. Plieninger): "Kommunikation war schon immer eine Voraussetzung von Wissenschaft, eine Kommunikation, die sich innerhalb von akademischen Institutionen, in Gremien oder in einer Fachöffentlichkeit vollzog. Sie ist daher nichts neues, neu sind aber die wachsenden Möglichkeiten, sich aufgrund der elektronischen Datenverarbeitung, des Internet und dem damit einhergehenden Zugriff auf Online-Kataloge, -Datenbanken und -Texte sowie Web 2.0-Anwendungen - kurz: der »neuen Medien« - effektiver zu informieren und zu kommunizieren (»vernetzen«), als es früher mithilfe von Zettelkasten, Korrespondenz, papiergestützter Literatur sowie durch Konferenzen der Fall war. Für die Auslotung dieses Wechsels, für die Herausforderungen von Wissensmanagement, Vermittlung von Informationskompetenz, Aufarbeitung von Digitalisaten und der Evaluation wissenschaftlicher Leistungen unter den neuen Rahmenbedingungen geben die Beiträge dieses Bandes eine gute Hilfe. Die Zentralbibliothek des Forschungszentrums Jülich, deren Leiter Rafael Ball den Band herausgibt, veranstaltet seit Jahren eine Reihe kleinerer und größerer Tagungen. Die 23 Beiträge der »Wissenschaftskommunikation der Zukunft« sind nach den Themenschwerpunkten »Neue Formen wissenschaftlicher Zusammenarbeit«, »Wissenschaftliche Kommunikation in Forschung und Lehre«, »Praxisbeispiele Web 2.0» »Primärdatenmanagement«, »Neue Aspekte von Wissenschaftsindikatoren« und »Wissenschaftsindikatoren als Managementtool« geordnet. Zwei Beiträge sind in Englisch verfasst, der Rest in Deutsch. Bei der Lektüre der Aufsätze beeindruckt der Brückenschlag zwischen Natur- und Geisteswissenschaften sowie zwischen Theorie und Praxis. Es ist somit für jedem etwas dabei, ganz gleich, um welches Interesse es sich handelt: Theoretische beziehungsweise auf Grundlagen ausgerichtete Abhandlungen wechseln sich mit praktischen Modellen und Umsetzungsbeispielen ab. Natürlich sind wie in jedem Konferenzband theoretische Abhandlungen mit Worthülsen und praktische Darstellungen, die sich lediglich auf ein bestimmtes Projekt beziehen und somit für eine Übertragung auf eigene Gegebenheiten schlecht eignen, zu finden.
Dennoch enthält der Band viele Beiträge, die für jene, die auf dem Feld der Wissenschaftskommunikation tätig sind, als fruchtbare Denkvorlage oder brauchbares praktisches Beispiel nützlich sind. Kommunikation in »Communities« Im Teil eScience (wobei das »e« für »enhanced« gleich »erweitert, verbessert« steht) werden in mehreren Beiträgen Projekte und Programme vorgestellt, welche die Bildung von und Kommunikation in »Communities« unterstützen und die kontrolliertes Vokabular (sogenannte »Ontologien«) für die Erschließung der unterschiedlichsten Medien bieten. Im Teil zur wissenschaftlichen Kommunikation hat dem Rezensenten besonders der Beitrag zu wandelnden Anforderungen von Historikern an einen virtuellen Arbeitsplatz und eine sich wandelnde Fachkommunikation gefallen, der darauf folgende Artikel aus Chur, der ein integriertes Modell von Maßnahmen zur Informations-, Medien- und Methodenkompetenz vorschlägt, ist für jeden hilfreich, die/der InformationskompetenzVeranstaltungen plant und durchführt. Bei den Praxisbeispielen zu Web 2.0 gefielen sowohl die Schilderung der Kommunikation innerhalb verschiedener Institutionen der Entwicklungsforschung, was die Bedeutung von RSS als Technik der kollektiven Information hervorhob, als auch der eher auf die Informationsversorgung abgestellte Bericht aus einem Unternehmen. Aber auch der Artikel zum »Collaborative Tagging» als einem neuen Dienst von Hochschulbibliotheken gibt Anhaltspunkte, dass das Verschlagworten nicht nur den Online-Foren vorbehalten bleibt, sondern zunehmend systematisch in den Hochschulen eingeführt wird. Beim Teil zum Primärdatenmanagement behandeln mehrere Beiträge die Praxis von Repositorien und der Erschließung der dort gelagerten Mediendateien, ebenso wird in zwei Beiträgen näher auf Open Access eingegangen, unter anderem auf die Nachweismittel von Open Access Journals wie zum Beispiel das »Directory of Open Access Journals« (DOAJ, www.doaj.org).
Die letzten beiden Teile des Kongressbandes behandeln die Möglichkeiten der Bibliometrie zum Handling des sich explosionsartig vermehrenden Wissens sowie der Einsatz solcher Technologien als Trenderkennungssystem. Zuletzt behandelt ein Artikel die Evaluation der Helmholtz-Einrichtungen. Am Schluss befindet sich noch ein sechsseitiges Register, das sehr hilfreich und für einen Kongressband keineswegs selbstverständlich ist. Vielleicht sollte noch auf den als Einleitung abgedruckten, überaus lesenswerten Festvortrag von Ernst Pöppel, Professor für medizinische Psychologie aus München, hingewiesen werden, der die verschiedenen Formen des Wissens allgemeinverständlich aus Sicht der Hirnforschung darstellt. Hervorzuheben ist noch, dass die Publikation kostenlos über den Publikationsserver des FZ Jülich bezogen werden kann, eine Tatsache, die sich offensichtlich nicht herumgesprochen hat, da bei einer Suche über den Karlsruher Virtuellen Katalog (Stand: 22. April 2008) dieses »Exemplar« nicht gefunden wurde. Als höchstes der Gefühle bietet der Südwestverbund bei »elektronische Referenz« einen Link auf das Inhaltsverzeichnis. Vielleicht erbarmt sich pro Verbund jemand und nimmt die elektronische Version auf."
Weitere Rez. in: Mitt VÖB 61(2008) H.2, S79-84 (E. Pipp): " ... Der Tagungsband bietet einen guten Einblick in die behandelten Themenschwerpunkte. Da sich alle Autor/inn/en bemühten, Fragestellungen, Probleme und Ziele vorzustellen, auf weiterführende Literatur und zukunftsweisende Lösungsansätze hinzuweisen, wird dieser Tagungsband sicherlich auch noch in einigen Jahren mit Gewinn gelesen werden können." - IWP 59(2008) H.4, S.267-268 (A. Oßwald)
- RVK
- AK 28400 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftspraxis / Informationen, Kontakte, Austausch, Technologietransfer
-
Hindersmann, J.: ¬Der zentrale CD-ROM-/DVD-Service der Verbundzentrale des GBV (VZG) : Ein Erfahrungsbericht einer Anwenderbibliothek (2005)
0.06
0.06298622 = product of:
0.12597243 = sum of:
0.040152133 = weight(_text_:und in 4213) [ClassicSimilarity], result of:
0.040152133 = score(doc=4213,freq=28.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.27506292 = fieldWeight in 4213, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4213)
0.0858203 = weight(_text_:handling in 4213) [ClassicSimilarity], result of:
0.0858203 = score(doc=4213,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.20789343 = fieldWeight in 4213, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0234375 = fieldNorm(doc=4213)
0.5 = coord(2/4)
- Abstract
- Bei den Datenbanken geht die Entwicklung eindeutig in Richtung Online-Datenbanken. Immer mehr Anbieter stellen ihre Datenbanken von einer CD-ROM-Version auf Online um. Für die Bibliotheken ist diese Entwicklung zu begrüßen. Der Aufwand für das Einspielen und Handling der Datenbanken wird von der Bibliothek auf den Anbieter verlagert. Im günstigsten Fall muss die Bibliothek lediglich einen Link auf ihrer Homepage bzw. in DBIS einpflegen. Dennoch müssen sich die Bibliotheken nach wie vor mit den silbernen Scheiben abgeben. Gerade im geisteswissenschaftlichen Bereich erscheinen einige Fachbibliographien nur auf CD-ROM, beispielsweise der Index Theologicus oder Germanistik. Außerdem wurden in den letzten Jahren verstärkt CD-ROM-Versionen von bekannten Lexika und Nachschlagewerken veröffentlicht. Als Beispiel sei hier nur auf die Reihe "Digitale Bibliothek" mit ihren Digitalisierungen der Literaturlexika von Walther Killy, Gero von Wilpert und vielen weiteren Bänden verwiesen. Auch die großen nationalbibliographischen Verzeichnisse des Saur-Verlages liegen nur als CD-ROM vor. Bei CD-ROM-Datenbanken hat jede Bibliothek grundsätzlich die Entscheidung zu treffen, ob sie sie als Einzelplatzlizenz oder im Netzwerk anbietet. Eine Netzlizenz ist eindeutig die attraktivere Variante, denn so können Studierende und Dozenten von ihrem Arbeitsplatz aus in der Datenbank recherchieren - ein Komfort, den sie von E-Journals und Online-Datenbanken gewohnt sind. Um eine CD-ROM in einem Netzwerk anbieten zu können, muss die Bibliothek nicht nur eine Netzlizenz der Datenbank erwerben, sondern auch einen CD-ROM-Server betreiben, was nicht unbeträchtliche Kosten für die Hardwarebeschaffung sowie Personalkosten für Wartung und Betrieb des Servers bedeutet. Da vielfach dieselben Datenbanken in den Bibliotheken genutzt werden, liegt die Idee nahe, diese Datenbanken auf einem zentralen Server einzuspielen und so den Aufwand für die beteiligten Bibliotheken zu minimieren. Die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (GBV) setzte diese Idee schon 1998 in die Tat um und bot einen zentralen Service für CD-ROMDatenbanken an, allerdings zunächst nur beschränkt auf CD-ROMs der Firmen SilverPlatter und DIALOG. Der Wunsch der Bibliotheken war aber, CDROMs aller Anbieter einspielen zu können. Der neue Service der Verbundzentrale erfüllt diese Wünsche. Außer CD-ROMs verschiedener Anbieter können auch DVDs eingespielt werden. Nach einem mehrmonatigen Testbetrieb begann der Produktivbetrieb im August 2003. Derzeit gibt es für den Service drei Kunden: die Hochschulbibliothek Vechta, die Fachhochschulbibliothek Jena sowie die Universitätsbibliothek Osnabrück.
Der CD-ROM-/DVD-Service ist eine Kooperation der Verbundzentrale (VZG) und der Firma H+H Software GmbH. Der Zugriff auf den Server erfolgt über das Wissenschaftsnetz, sodass eine schnelle Anbindung gewährleistet ist. Der Server wurde von der VZG gekauft, die Betreuung des Servers sowie das Einspielen der Datenbanken erfolgt durch die Firma H+H. Der Service war zuerst nur darauf ausgerichtet, Rechner mit Betriebsystem Windows 2000 oder höher zu unterstützen. Da in der Universität Osnabrück aber noch Rechner mit älteren Windows-Versionen sowie Linux oder Mac verbreitet sind, war diese Einschränkung inakzeptabel. Auf dem Verhandlungswege wurde für das Problem eine Lösung gefunden. Der Zugriff ist jetzt von Rechnern mit allen Betriebssystemen möglich, Rechner mit älteren Windows-Versionen sowie Linux oder Mac benötigen aber eine Terminalserverlizenz (TS-CAL), die von der zugreifenden Institution bereitgestellt werden sollte. Auf allen Rechnern, die auf den zentralen Server zugreifen, muss zuvor einmalig ein Plug-In installiert werden, das von einer Webseite von H+H heruntergeladen werden kann. Hinsichtlich der Anzahl der CD-ROMs und DVDs, die eingespielt werden können, hat H+H eine Obergrenze von 20 Titeln pro Kunde festgelegt. Für den Erwerb der Netzlizenzen ist die jeweilige Bibliothek selbst verantwortlich. Bei Titeln, die für mehrere Bibliotheken eingespielt werden, müssen die Bibliotheken untereinander klären, wer die Scheiben zu H+H schickt. Monatliche Nutzungsstatistiken sowie eine Jahresstatistik erlauben es den Bibliotheken, die Akzeptanz des Angebotes zu überprüfen und gegebenenfalls Änderungen im Portfolio vorzunehmen. H+H hat für den CD-ROM-/DVD-Service ein gestaffeltes Preissystem zu Grunde gelegt. Um diesen Service nutzen zu können, muss jede Bibliothek eine einmalige Grundgebühr zahlen. Für jede Datenbank ist dann eine Einspielgebühr und gegebenenfalls eine Updategebühr zu zahlen. Die genauen Preise kann man auf der Homepage der VZG erfahren. Eine Jahresgebühr wird nicht erhoben. Spielt eine Bibliothek nur CD-ROMs oder DVDs ein, die nicht upgedatet werden, so kann der Service in den Folgejahren praktisch ohne Folgekosten genutzt werden. Vereinbarungen über die Laufzeit waren Verhandlungsgegenstand zwischen der Firma H+H und der UB Osnabrück. Die vertragliche Regelung, die erzielt wurde, sieht eine garantierte Mindestlaufzeit vor.
-
Kübler, H.-D.: Aufwachsen mit dem Web : Surfen eher selten: zwei Studien zur Internetnutzung von Kindern (2005)
0.06
0.060400166 = product of:
0.12080033 = sum of:
0.063586794 = weight(_text_:und in 4341) [ClassicSimilarity], result of:
0.063586794 = score(doc=4341,freq=158.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.4356025 = fieldWeight in 4341, product of:
12.569805 = tf(freq=158.0), with freq of:
158.0 = termFreq=158.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4341)
0.057213537 = weight(_text_:handling in 4341) [ClassicSimilarity], result of:
0.057213537 = score(doc=4341,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.13859563 = fieldWeight in 4341, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.015625 = fieldNorm(doc=4341)
0.5 = coord(2/4)
- Content
- "Als Generation @ werden Kinder und Jugendliche in der Öffentlichkeit bereits gefeiert, insbesondere Marketing und Werbung schwärmen vom geschickten, unermüdlichen Surfen im WWW, von kinderleichter Handhabung des Equipments, spielerischem Edutainment und spannenden Verlockungen des digitalen Lernens, und zwar schon für die Kleinsten ab dem Kindergartenalter. Mehrheit noch offline Imposant sind auch die quantitativen Daten zur Haushaltsausstattung und PC- beziehungsweise Internetnutzung, vor allem ihre Wachstumsraten, die die Studie von Christine Feil und Co-Autoren referiert und miteinander abgleicht. Susanne Richter (S. 18) hingegen weiß nichts von ihrer Existenz, zumal Angaben aus kommerziellen Kontexten meist zu Obertreibungen neigen. Seriöser sind die Angaben des so genannten Medienpädagogischen Forschungsverbundes Südwest, der seit 1999 die Studie »Kinder und Medien« (»KIM-Studie«) durchführt, 2003 zum vierten Mal. Danach hatten 57 Prozent der bundesdeutschen Haushalte mit 6- bis 13-jährigen Kinder Internet zu Hause (Feil S. 15),42 Prozent der 6-bis 13-Jährigen besuchen hin und wieder das Internet, nur etwa gut zwölf Prozent sind täglich oder mehrmals in der Woche nach Schätzungen durchschnittlich zwischen einer halben und einer Stunde im Netz, werden aber von kommerzieller Seite bereits als »Heavy User« apostrophiert (Feil S. 18). Etwa bei zehn, elf Jahren lag 2003/2004 das Einstiegsalter für das Internet, bei Mädchen und bei Kindern aus niedrigeren Einkommens- und Sozialschichten etwas später. Offenbar haben die inzwischen - auch schon im Primarbereich - gut ausgestatten Schulen noch »kaum kompensatorische Wirkung im Sinne gleicher Zugangschancen für alle Kinder« entfaltet, »sondern allenfalls den Anteil der Kinder mit Sowohl-als-auch-Zugang« erhöht (Feil S. 21). So zeichnen sich tendenziell zwar jeweils steigende Beteiligungen ab, aber »die Mehrheit der Kinder« ist noch »offline«. Und der Zugang der Kinder zum Netz allein »gibt weder Aufschluss über ihre Nutzungskompetenzen noch über die Bedeutung der Kommunikationsund Informationsfunktion des Internets für Kinder« (Feil S. 30), so die sicherlich stimmige Ausgangsthese.
Beobachtungen und Befragungen Da kommen die beiden vorliegenden Studien gerade recht, untersuchen sie doch mit qualitativen Methoden, mit Befragungen und teilnehmenden Beobachtungen, wie Kinder das Internet entdecken beziehungsweise nutzen, welche Kompetenzen sie haben und entwickeln, welche Erwartungen, Interessen und Präferenzen sie für das Netz haben, wie und welche Orientierungen und Suchstrategien sie entfalten und schließlich wodurch und wie sie sich von den Web-Sites ansprechen lassen. Das wird jeweils an einzelnen Beispielen und Szenen anschaulich beschrieben, teils wörtlich dokumentiert, sodass man plastische Eindrücke bekommt, wie Kinder an das Web herangehen, wie sie sich zurechtfinden und was sie darüber denken und wissen. Die eine Studie (Christine Feil et al. 2004) wurde zwischen 2001 und 2003 am Deutschen Jugendinstitut (DJI) München mit Unterstützung des Bundesministeriums für Bildung und Forschung durchgeführt; an ihr sind mehrere ForscherInnen beteiligt gewesen. Entsprechend komplexer und differenzierter sind ihre Erhebungsmethoden, entsprechend aufwendiger ist ihr Forschungsdesign, und entsprechend umfassender und dichter sind ihre Ergebnisse. Teilgenommen an der Studie haben elf Mädchen und sieben Jungen zwischen fünf und elf Jahren; sie wurden in zwei bis drei mindestens einstündigen Beobachtungsphasen in ihrem Umgang mit PC und Internet per Video beobachtet, zweimal befragt wurden die Eltern und die Erzieherinnen der Horte, in die die Kinder gehen. Die andere (Susanne Richter 2004) ist eine literaturdidaktische Dissertation an der Universität Lüneburg, deren empirischer Teil schon 1999, also drei Jahre früher als die DJI-Studie, durchgeführt wurde. Beteiligt waren 25 Schüler, darunter nur sechs Mädchen, zwischen zehn und 13 Jahren, die von der Autorin nach ihrer PC-Nutzung befragt und während einer halbstündigen »Surfphase« über vier ausgewählte Web-Sites beobachtet wurden. Mithin sind die Populationen allenfalls für die neun 10- bis 11-Jährigen der DJI-Studie vergleichbar, die andere Hälfte ist jünger.
Tipps von Freunden Beide Studien beschränken sich nicht nur auf die Darstellung der empirischen Befunde: Außer der Aufbereitung der quantitativen Nutzungsdaten findet sich in der DJI-Studie noch ein informativer Abriss über »neuere Entwicklungen im deutschen Kinderweh«. Darin werden die neuen Kinder- und Jugendschutzregelungen abgehandelt sowie jüngste formale und inhaltliche Entwicklungen der Internetseiten für Kinder skizziert. Damit setzt das DJI seine Bestandsaufnahmen und Sichtungen von Kindersoftware und -selten, die es seit 1999 vornimmt, fort.* In einer Datenbank (unter www. kinderseiten.de) sind sie jeweils aktuell abzurufen. Insgesamt wachse die »Ökonomisierung des Kinderweh«; gerade die für Kindermedien symptomatischen Medienverbundstrategien werden durch das Web enorm verstärkt, wie es umgekehrt von ihnen profitiert, sodass sich Werbung und Inhalt immer intensiver vermischen (und kaum das gesetzliche Gebot nach Trennung einhalten). Nicht-kommerzielle Angebote, die es gleichwohl in Fülle im Netz gibt, haben es gegenüber solch geballter Marktmacht zunehmend schwerer, überhaupt die Aufmerksamkeit der Kinder zu finden, das heißt, überhaupt von ihnen entdeckt zu werden. Denn Kinder diesen Alters, darin stimmen beide Studien überein, surfen im eigentlichen Sinne kaum; sie merken sich die Adressen (URLs) aus Zeitschriften, von Fernsehsendungen oder bekommen sie von Freunden. Nur selten suchen sie welche gezielt mittels Suchmaschinen oder Katalogen; und auch spezielle Kindersuchmaschinen wie die viel gelobte Blinde Kuh (www.blindekuh.de) kommen nur selten in ihr Gesichtsfeld. Auch Richter beginnt - wohl typisch Dissertation - recht allgemein, mit der Darstellung (kontroverser) Medienbegriffe, von Web-Geschichte und -funktionalitäten und gängigen Gestaltungskriterien, was für das eigentliche Thema nicht unbedingt erforderlich ist. Aufschlussreich für den bibliothekarischen Kontext sind hingegen ihre Ausführungen zur Lesekompetenz und ihre Relationen zu speziellen Internetkompetenzen, die die Autorin auch empirisch erhärten kann: Denn Kinder, die flüssig, gut und sicher lesen können, erfassen natürlich nicht nur die Web-Inhalte besser, sie finden sich auch schneller auf den Web-Seiten zurecht und erkennen deren Strukturen (Linkpfade, Navigationsleisten, Buttons und so weiter) leichter und genauer als die Leseschwächeren. Ob man solchen Umgang sogleich als kompetentes Informationsverhalten und Surf-Aktivität werten will oder nicht, ist wohl Definitionssache. Denn auch Richter räumt ein, dass die meisten Kinder vornehmlich über das Internet spielen oder aber ihnen schon bekannte Seiten für ihre Hobbys, über Stars, Musik und Chat aufrufen. Dabei ist ihnen vor allem das Design der Seiten wichtig: Bunt, mit Bildern und Fotos sollen sie gestaltet sein, aber nicht überladen und durch Animationen in ihrer Ladezeit zu langwierig. Fachliches Computerwissen haben die Kinder gemeinhin nicht, nur wenige Freaks brillieren mit nicht immer ganz begriffenem Vokabular; und sie brauchen es auch kaum, denn sie lernen den Internetumgang durch Zugucken und kurze Handling-Tipps von Eltern und älteren Kindern. Eine systematische Internetdidaktik, wie sie Richter fordert, wurde vor vier Jahren offenbar noch kaum praktiziert.
Trial and Error Aber auch die DJI-Studie konstatiert drei Jahre später, dass gezieltes Anleiten der Kinder noch die ganz seltene Ausnahme ist. Das informelle Lernen, das allmähliche Hinweinwachsen in die erforderlichen Nutzungsweisen überwiegt. Nur wenige Erzieherinnen beschäftigen sich explizit damit, Lehrerinnen wurden aus Zeitgründen nicht befragt. Und für die Eltern wären attraktive Bildungsangebote mit der Intention zu empfehlen, die Medien- und Internetkompetenz ihrer Kinder zu fördern. Bislang sind die meisten Kinder weithin Autodidakten, die durch Trial and Errordas eine oder andere entdecken oder aber sich mit einmal eingeübten Routinen - etwa auf der Ebene der Computerspiele - begnügen. Denn so einfach und kinderleicht, wie auch Richter (S. 155) behauptet, sind die Bedienung der WebSoftware (Browser) und die Nutzung des Netzes nach Ansicht der DJI-ForscherInnen längst noch nicht: Da bedarf es neben technisch-instrumenteller auch noch kognitiv-analytischer Fähigkeiten, um sich zu orientieren, durch die Masse von Informationen, die vielfach belanglos oder irreführend und nur selten erschöpfend sind, sich durchzubeißen und endlich Verlässliches und Brauchbares in ansprechender Weise zu finden. Spätestens, wenn etwas nicht oder schief geht, sind die meisten Kinder- aberwohl nicht nur sie - ratlos und bedürfen der kompetenten Hilfe anderer. Und mit den vielen Tricks, Täuschungen und Manipulationsstrategien kommerzieller Websites-Werbung, Pop-Ups und Dialers - kommen Kinder kaum zurecht. Schon die vielen Anglizismen, vermeintlichen Jugendjargons und Fachtermini überfordern sie ebenso wie die zahlreichen Anmelde- und Registrierungsprozeduren, wo vielfach - wenn nicht gar datenschutzrechtliche - so doch Nützlichkeitsmaximen überschritten werden. Dafür bedürfte es nicht nur mehr und gründlicher pädagogischer Aufklärung; vielmehr könnten verantwortliche Website-Anbieter - gegen die Masse der Kommerzseiten - transparente, interaktive Hilfen, die selbsterklärend oder sogar -steuernd sind, implementieren. So könnten sich Qualitäts- und Kontrollmaßstäbe entwickeln, die die jugendlichen User dann auch an andere Seiten stellen. Denn Verbreitung, Nutzung und Bedeutung des Internet werden im Alltag und in der Kultur der Kinder gewiss wachsen. Bis es so selbstverständlich, vielseitig und problemlos genutzt werden kann, wie heute die nun schon »alten« Medien, ist es nach Einschätzung der DJI-AutorInnen noch ein gehöriges Stück Weges, den man pädagogisch besser und konstruktiver gestalten könnte. In solcher Aufgabenstellung stimmen beide Studien erneut überein."
- Footnote
- Rezensionen zu: Christine Feil, Regine Decker, Christoph Gieger: Wie entdecken Kinder das Internet? Beobachtungen bei 5- bis 12-jährigen Kindern. Wiesbaden: VS Verlag für Sozialwissenschaften, 2004 (Schriften des Deutschen Jugendinstituts: Kinder). 254 Seiten: Illustrationen, grafische Darstellungen. Susanne Richter: Die Nutzung des Internets durch Kinder. Eine qualitative Studie zu internetspezifischen Nutzungsstrategien, Kompetenzen und Präferenzen von Kindern im Alter zwischen 11 und 13 Jahren. Frankfurt (Main) [u.a.]: Lang, 2004 (Kinder- und Jugendkultur, -literatur und -medien; 27). 299 Seiten: Illustrationen, grafische Darstellungen.
-
Patalong, F.: Life after Google : II. Hilfreiche Geister (2002)
0.06
0.058991995 = product of:
0.11798399 = sum of:
0.046467066 = weight(_text_:und in 2163) [ClassicSimilarity], result of:
0.046467066 = score(doc=2163,freq=54.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.3183235 = fieldWeight in 2163, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2163)
0.07151692 = weight(_text_:handling in 2163) [ClassicSimilarity], result of:
0.07151692 = score(doc=2163,freq=2.0), product of:
0.4128091 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0658165 = queryNorm
0.17324454 = fieldWeight in 2163, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.01953125 = fieldNorm(doc=2163)
0.5 = coord(2/4)
- Content
- "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
-
Bühler, A.: Antirealismus und Verifikationismus (1992)
0.03
0.027994739 = product of:
0.111978956 = sum of:
0.111978956 = weight(_text_:und in 615) [ClassicSimilarity], result of:
0.111978956 = score(doc=615,freq=10.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.7671139 = fieldWeight in 615, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=615)
0.25 = coord(1/4)
- Series
- Philosophie und Geschichte der Wissenschaften; Bd.18
- Source
- Wirklichkeit und Wissen: Realismus, Antirealismus und Wirklichkeits-Konzeptionen in Philosophie und Wissenschaften. Hrsg.: H.J. Sandkühler
-
Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996)
0.03
0.02756292 = product of:
0.11025168 = sum of:
0.11025168 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
0.11025168 = score(doc=1190,freq=76.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.75528115 = fieldWeight in 1190, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1190)
0.25 = coord(1/4)
- BK
- 18.00 Einzelne Sprachen und Literaturen allgemein
- Classification
- ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
18.00 Einzelne Sprachen und Literaturen allgemein
- RVK
- ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
- Series
- Sprache und Information ; 33
-
Schnelle, H.: ¬Die Natur der Sprache : die Dynamik der Prozesse des Sprechens und Verstehens (1991)
0.03
0.025794378 = product of:
0.10317751 = sum of:
0.10317751 = weight(_text_:und in 2578) [ClassicSimilarity], result of:
0.10317751 = score(doc=2578,freq=104.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.7068194 = fieldWeight in 2578, product of:
10.198039 = tf(freq=104.0), with freq of:
104.0 = termFreq=104.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2578)
0.25 = coord(1/4)
- BK
- 17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
18.00 / Einzelne Sprachen und Literaturen allgemein
- Classification
- ER 720 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Einzelne Richtungen der Sprachtheorie
ER 610 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachphilosophie (Primärliteratur der Sprachphilosophie; Sekundärliteratur s.o. bei Geschichte der Sprachwissenschaft) / Wesen und Bedeutung der Sprache
ES 160 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Sprachphänomenologie / Allgemeines
ER 710 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Funktion der Sprache
ER 765 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Methodologie der Spachwissenschaft / Einzelmethoden, z.B. Informationsbefragung, Feldarbeit
ER 900 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachpsychologie. Psycholinguistik / Allgemeines
17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
18.00 / Einzelne Sprachen und Literaturen allgemein
- RVK
- ER 720 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Einzelne Richtungen der Sprachtheorie
ER 610 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachphilosophie (Primärliteratur der Sprachphilosophie; Sekundärliteratur s.o. bei Geschichte der Sprachwissenschaft) / Wesen und Bedeutung der Sprache
ES 160 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Sprachphänomenologie / Allgemeines
ER 710 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Funktion der Sprache
ER 765 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Methodologie der Spachwissenschaft / Einzelmethoden, z.B. Informationsbefragung, Feldarbeit
ER 900 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachpsychologie. Psycholinguistik / Allgemeines
- Series
- Grundlagen der Kommunikation und Kognition
-
Stauf, B.: Schlagwortkataloge, Deskriptorenverzeichnisse und Thesauri : Unterschiede und Gemeinsamkeiten im Vergleich (1978)
0.03
0.025293468 = product of:
0.10117387 = sum of:
0.10117387 = weight(_text_:und in 1374) [ClassicSimilarity], result of:
0.10117387 = score(doc=1374,freq=4.0), product of:
0.14597435 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0658165 = queryNorm
0.6930935 = fieldWeight in 1374, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.15625 = fieldNorm(doc=1374)
0.25 = coord(1/4)