-
Burkart, M.: PROTERM : Ein Softwarepaket für Aufbau, Pflege, Handling von Thesauri und anderen Wortgutsammlungen (1988)
0.23
0.23404041 = product of:
0.46808082 = sum of:
0.05202437 = weight(_text_:und in 204) [ClassicSimilarity], result of:
0.05202437 = score(doc=204,freq=2.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.39207286 = fieldWeight in 204, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.125 = fieldNorm(doc=204)
0.41605645 = weight(_text_:handling in 204) [ClassicSimilarity], result of:
0.41605645 = score(doc=204,freq=2.0), product of:
0.37524313 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.05982714 = queryNorm
1.108765 = fieldWeight in 204, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.125 = fieldNorm(doc=204)
0.5 = coord(2/4)
-
Jolley, J.L.: Information handling : Einführung in die Praxis der Datenverarbeitung (1974)
0.21
0.21421313 = product of:
0.42842627 = sum of:
0.064376876 = weight(_text_:und in 3805) [ClassicSimilarity], result of:
0.064376876 = score(doc=3805,freq=4.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.48516542 = fieldWeight in 3805, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=3805)
0.36404938 = weight(_text_:handling in 3805) [ClassicSimilarity], result of:
0.36404938 = score(doc=3805,freq=2.0), product of:
0.37524313 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.05982714 = queryNorm
0.97016937 = fieldWeight in 3805, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.109375 = fieldNorm(doc=3805)
0.5 = coord(2/4)
- Abstract
- Anhand zahlreicher Beispiele und Abbildungen werden die Möglichkeiten moderner Informationsverarbeitungs- und Klassifikationssysteme dargestellt
-
Schulz, U.: "Wie der Schnabel gewachsen ist" : Über die Qualität von OPACs - Anforderungen, Realität, Perspektiven (1998)
0.13
0.12654133 = product of:
0.25308266 = sum of:
0.04505443 = weight(_text_:und in 2559) [ClassicSimilarity], result of:
0.04505443 = score(doc=2559,freq=6.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.33954507 = fieldWeight in 2559, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2559)
0.20802823 = weight(_text_:handling in 2559) [ClassicSimilarity], result of:
0.20802823 = score(doc=2559,freq=2.0), product of:
0.37524313 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.05982714 = queryNorm
0.5543825 = fieldWeight in 2559, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0625 = fieldNorm(doc=2559)
0.5 = coord(2/4)
- Abstract
- Ob Erwachsene oder Kinder die Bibliothek besuchen, Schwierigkeiten mit dem Handling von OPACs sind fast die Regel und gleichen sich überall auf der Welt. Durch Forschungen und Projekte ist seit langem bekannt, woraus diese Schwierigkeiten resultieren und wie ihnen abgeholfen werden könnte - bisher aber waren Bibliothekare auf diesem Gebiet keine guten Anwälte ihrer Kunden
-
Lackes, R.; Tillmanns, C.: Data Mining für die Unternehmenspraxis : Entscheidungshilfen und Fallstudien mit führenden Softwarelösungen (2006)
0.11
0.11036283 = product of:
0.22072566 = sum of:
0.06470449 = weight(_text_:und in 2383) [ClassicSimilarity], result of:
0.06470449 = score(doc=2383,freq=22.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.48763448 = fieldWeight in 2383, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2383)
0.15602116 = weight(_text_:handling in 2383) [ClassicSimilarity], result of:
0.15602116 = score(doc=2383,freq=2.0), product of:
0.37524313 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.05982714 = queryNorm
0.41578686 = fieldWeight in 2383, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.046875 = fieldNorm(doc=2383)
0.5 = coord(2/4)
- Abstract
- Das Buch richtet sich an Praktiker in Unternehmen, die sich mit der Analyse von großen Datenbeständen beschäftigen. Nach einem kurzen Theorieteil werden vier Fallstudien aus dem Customer Relationship Management eines Versandhändlers bearbeitet. Dabei wurden acht führende Softwarelösungen verwendet: der Intelligent Miner von IBM, der Enterprise Miner von SAS, Clementine von SPSS, Knowledge Studio von Angoss, der Delta Miner von Bissantz, der Business Miner von Business Object und die Data Engine von MIT. Im Rahmen der Fallstudien werden die Stärken und Schwächen der einzelnen Lösungen deutlich, und die methodisch-korrekte Vorgehensweise beim Data Mining wird aufgezeigt. Beides liefert wertvolle Entscheidungshilfen für die Auswahl von Standardsoftware zum Data Mining und für die praktische Datenanalyse.
- Content
- Modelle, Methoden und Werkzeuge: Ziele und Aufbau der Untersuchung.- Grundlagen.- Planung und Entscheidung mit Data-Mining-Unterstützung.- Methoden.- Funktionalität und Handling der Softwarelösungen. Fallstudien: Ausgangssituation und Datenbestand im Versandhandel.- Kundensegmentierung.- Erklärung regionaler Marketingerfolge zur Neukundengewinnung.Prognose des Customer Lifetime Values.- Selektion von Kunden für eine Direktmarketingaktion.- Welche Softwarelösung für welche Entscheidung?- Fazit und Marktentwicklungen.
-
Kliemt, A.: Vom VÖBB zum WorldCat : DER WWW-OPAC des VÖBB im funktionalen Vergleich mit anderen Web-OPACs (2002)
0.09
0.09431765 = product of:
0.1886353 = sum of:
0.05861767 = weight(_text_:und in 2174) [ClassicSimilarity], result of:
0.05861767 = score(doc=2174,freq=26.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.44176215 = fieldWeight in 2174, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2174)
0.13001764 = weight(_text_:handling in 2174) [ClassicSimilarity], result of:
0.13001764 = score(doc=2174,freq=2.0), product of:
0.37524313 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.05982714 = queryNorm
0.34648907 = fieldWeight in 2174, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0390625 = fieldNorm(doc=2174)
0.5 = coord(2/4)
- Abstract
- Recherche in Bibliothekskatalogen war, zumindest in deutschen Bibliotheken, bis zur Mitte des 20. Jahrhunderts in der Regel Sache des Personals, eine wirklich erfolgreiche Recherche meist Spezialisten vorbehalten. Nur diese waren in der Lage, häufig unter Einbeziehung diverser Hilfsmittel, Titelwünsche der Leser nach den jeweiligen Katalog- und Bibliotheksregeln in entsprechende Kataloganfragen umzusetzen. Als dann den Bibliothekskunden selbst nach und nach der Zugang zu diesen Zettelkatalogen in den Bibliotheken eröffnet wurde, war für eine erfolgreiche Suche meist "guter Rat teuer". Hilfestellung und "guter Rat", oft schon bei einer simplen Titelsuche wie "Schuld und Sühne" nötig, konnte vom uneingeweihten Leser direkt vor Ort in der Bibliothek eingeholt werden. Elektronische Formen der Kataloge in Bibliotheken, kurz "OPACs" genannt, eröffneten neue, den alten Zettel- und Mikrofichekatalogen völlig unbekannte Suchmöglichkeiten. Sie zogen aber auch neue Fragestellungen nach sich, besonders zum Handling und zur Suchstrategie. Zumindest dem "fragemutigen" Nutzer konnte und kann dabei vor Ort in den Bibliotheken immer noch direkt geholfen werden. Diese Hilfestellung entfällt jedoch bei allen Bibliotheks- und Verbundkatalogen, die im Internet als so genannte "Web-OPACs" angeboten werden. Sie erreichen einen viel größeren, dafür aber anonym bleibenden Interessentenkreis, vom absoluten Bibliothekslaien bis zum kundigen Bibliotheksnutzer. Diese aktiven und potentiellen Nutzer treten mit den unterschiedlichsten Anforderungen und Fragestellungen an solche Web-OPACs heran. Ein Web-OPAC muss demnach so gestaltet sein, dass er für Laien und Profis gleichermaßen nutzbar ist und dabei möglichst wenige Fragen überhaupt erst aufkommen lässt, im Idealfall also über eine selbsterklärende Oberfläche verfügt. Hilfetexte müssen die nicht vorhandene persönliche Hilfestellung kompensieren helfen. Sie sind also übersichtlich, verständlich und zielgerichtet einsetzbar zu gestalten.
-
Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003)
0.07
0.066595376 = product of:
0.13319075 = sum of:
0.055180177 = weight(_text_:und in 2833) [ClassicSimilarity], result of:
0.055180177 = score(doc=2833,freq=64.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.41585606 = fieldWeight in 2833, product of:
8.0 = tf(freq=64.0), with freq of:
64.0 = termFreq=64.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2833)
0.07801058 = weight(_text_:handling in 2833) [ClassicSimilarity], result of:
0.07801058 = score(doc=2833,freq=2.0), product of:
0.37524313 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.05982714 = queryNorm
0.20789343 = fieldWeight in 2833, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0234375 = fieldNorm(doc=2833)
0.5 = coord(2/4)
- Abstract
- Als in den siebziger Jahren des vergangenen Jahrhunderts immer häufiger die Bezeichnung Informationsmanager für Leute propagiert wurde, die bis dahin als Dokumentare firmierten, wurde dies in den etablierten Kreisen der Archivare und Bibliothekare gelegentlich belächelt und als Zeichen einer Identitätskrise oder jedenfalls einer Verunsicherung des damit überschriebenen Berufsbilds gewertet. Für den Berufsstand der Medienarchivare/Mediendokumentare, die sich seit 1960 in der Fachgruppe 7 des Vereins, später Verbands deutscher Archivare (VdA) organisieren, gehörte diese Verortung im Zeichen neuer inhaltlicher Herausforderungen (Informationsflut) und Technologien (EDV) allerdings schon früh zu den Selbstverständlichkeiten des Berufsalltags. "Halt, ohne uns geht es nicht!" lautete die Überschrift eines Artikels im Verbandsorgan "Info 7", der sich mit der Einrichtung von immer mächtigeren Leitungsnetzen und immer schnelleren Datenautobahnen beschäftigte. Information, Informationsgesellschaft: diese Begriffe wurden damals fast nur im technischen Sinne verstanden. Die informatisierte, nicht die informierte Gesellschaft stand im Vordergrund - was wiederum Kritiker auf den Plan rief, von Joseph Weizenbaum in den USA bis hin zu den Informations-Ökologen in Bremen. Bei den nationalen, manchmal auch nur regionalen Projekten und Modellversuchen mit Datenautobahnen - auch beim frühen Btx - war nie so recht deutlich geworden, welche Inhalte in welcher Gestalt durch diese Netze und Straßen gejagt werden sollten und wer diese Inhalte eigentlich selektieren, portionieren, positionieren, kurz: managen sollte. Spätestens mit dem World Wide Web sind diese Projekte denn auch obsolet geworden, jedenfalls was die Hardware und Software anging. Geblieben ist das Thema Inhalte (neudeutsch: Content). Und - immer drängender im nicht nur technischen Verständnis - das Thema Informationsmanagement. MedienInformationsManagement war die Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar überschrieben, und auch die Folgetagung 2001 in Köln, die der multimedialen Produktion einen dokumentarischen Pragmatismus gegenüber stellte, handelte vom Geschäftsfeld Content und von Content-Management-Systemen. Die in diesem 6. Band der Reihe Beiträge zur Mediendokumentation versammelten Vorträge und Diskussionsbeiträge auf diesen beiden Tagungen beleuchten das Titel-Thema aus den verschiedensten Blickwinkeln: archivarischen, dokumentarischen, kaufmännischen, berufsständischen und juristischen. Deutlich wird dabei, daß die Berufsbezeichnung Medienarchivarln/Mediendokumentarln ziemlich genau für all das steht, was heute mit sog. alten wie neuen Medien im organisatorischen, d.h. ordnenden und vermittelnden Sinne geschieht. Im besonderen Maße trifft dies auf das Internet und die aus ihm geborenen Intranets zu. Beide bedürfen genauso der ordnenden Hand, die sich an den alten Medien, an Buch, Zeitung, Tonträger, Film etc. geschult hat, denn sie leben zu großen Teilen davon. Daß das Internet gleichwohl ein Medium sui generis ist und die alten Informationsberufe vor ganz neue Herausforderungen stellt - auch das durchzieht die Beiträge von Weimar und Köln.
Vorliegender Band umgreift den gegenwärtigen Stand der Diskussion um das Handling von Informationen in und mit Hilfe von neuen und alten Medien und liefert außerdem dem Verein Fortbildung für Medienarchivare/ Mediendokumentare (VFM), der seit dem 5. Band die Reihe herausgibt, eine weitere Handreichung für die zusammen mit dem Deutschen Institut, für publizistische Bildungsarbeit in Hagen veranstalteten Seminare. Im Anhang sind außer den vollständigen Programmen der beiden Frühjahrstagungen die Namen und institutionellen Anbindungen der Referenten nachzulesen. Allen Autoren des Bandes sei für ihre Bereitschaft, an dieser Publikation mitzuwirken, gedankt, insbesondere denen, die sich auch noch der Mühe unterziehen mußten, das Transkript ihres in freier Rede gehaltenen Vortrags in eine lesbare Fassung zu bringen. Manche Eigentümlichkeiten des Stils sind dieser freien Rede geschuldet - oder vielleicht auch gedankt, denn sie geben damit umso lebendiger die Atmosphäre jener Frühlingstage in Weimar und Köln wieder.
- Classification
- AP 11500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Bibliographien und Sammelschriften / Tagungs- und Kongreßberichte (CSN)
- Content
- Enthält u.a. die Beiträge (Dokumentarische Aspekte): Günter Perers/Volker Gaese: Das DocCat-System in der Textdokumentation von Gr+J (Weimar 2000) Thomas Gerick: Finden statt suchen. Knowledge Retrieval in Wissensbanken. Mit organisiertem Wissen zu mehr Erfolg (Weimar 2000) Winfried Gödert: Aufbereitung und Rezeption von Information (Weimar 2000) Elisabeth Damen: Klassifikation als Ordnungssystem im elektronischen Pressearchiv (Köln 2001) Clemens Schlenkrich: Aspekte neuer Regelwerksarbeit - Multimediales Datenmodell für ARD und ZDF (Köln 2001) Josef Wandeler: Comprenez-vous only Bahnhof'? - Mehrsprachigkeit in der Mediendokumentation (Köln 200 1)
- RVK
- AP 11500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Bibliographien und Sammelschriften / Tagungs- und Kongreßberichte (CSN)
-
Schlüter, C.: Kaum Ruckeln : Träge plätschert das Meer ans menschenleere Ufer: Die Online-Dependence des Goethe-Instituts im Second Life (2008)
0.07
0.06521748 = product of:
0.13043496 = sum of:
0.039422624 = weight(_text_:und in 3177) [ClassicSimilarity], result of:
0.039422624 = score(doc=3177,freq=24.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.29710194 = fieldWeight in 3177, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3177)
0.091012344 = weight(_text_:handling in 3177) [ClassicSimilarity], result of:
0.091012344 = score(doc=3177,freq=2.0), product of:
0.37524313 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.05982714 = queryNorm
0.24254234 = fieldWeight in 3177, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.02734375 = fieldNorm(doc=3177)
0.5 = coord(2/4)
- Content
- "Eigentlich nicht viel los bei Goethe. Vor zwei Wochen eröffnete das weltweit tätige Kulturinstitut der Bundesrepublik Deutschland seine Dependance im Second Life. Vielleicht etwas spät, denn in dem virtuellen Paralleluniversum gibt es zwar immer noch einiges zu entdecken, aber der letzte Schrei ist es nicht mehr. Der große Hype um das 2003 von der kalifornischen Firma Linden Lab in Betrieb genommene Online-Portal liegt bereits einige Jahre zurück und fiel in die Zeit, als sich unter dem Stichwort Web 2.0 noch die Hoffnung auf eine ganz neue Dimension des Geldverdienens versammelte. Damit hat das Goethe-Institut selbstverständlich nichts zu tun. Vielmehr erwarten den Besucher in einem luftig-lockeren Ambiente etliche Bildungsangebote, kostenlos, versteht sich. Dazu gehört ein spartanisch eingerichtetes Klassenzimmer für Deutschkurse - einmal in der Woche und auf dem "Niveau A2", wie uns eine Hinweistafel erläutert. Eine Galerie zeigt die beiden Ausstellungen "Tropen" und "Junge deutsche Modefotografie" - um seinen Avatar, also den virtuellen Stellvertreter im Second Life, durch die engen Bildergassen zu lotsen, braucht es allerdings etwas Geschick. Auf Videoleinwänden lassen sich die Beiträge aus dem Kurzfilmwettbewerb "Die Macht der Sprache" anschauen - jedenfalls der Idee nach, denn das Handling der Videos erweist sich als schwierig. Das alles und noch einiges mehr: Wer zum Beispiel schon immer einmal wissen wollte, was die Goethe-Institute so treiben, kann auf einer begehbaren Weltkarte die Veranstaltungskalender vieler Zweigstellen einsehen. Doch die meiste Zeit herrscht auf dem virtuellen Goethe-Areal tote Hose. Nur ein leiser Wind ist hier und da zu vernehmen, schließlich befinden wir uns auf einer recht kleinen Insel im großen Meer, dem so genannten Grid, des Second Life. Doch das blaue Wasser plätschert träge. Selbst in das lichte Café, in dem von Montags bis Freitags ein "moderierter Deutsch-Chat" stattfinden soll, verirrt sich kaum eine Seele. Für jemanden, der nur wegen Goethe seinen Weg in dieses Geisterreich fand, eine kleine Enttäuschung.
Oder auch eine größere. Immerhin musste vor dem Eintritt die entsprechende Software heruntergeladen und installiert werden; dann gab es noch die Anmeldung und schließlich die zwangspädagogischen Maßnahmen in einem Auffanglager für Neuankömmlinge. Technisch gesehen ist die Menschenleere bei Goethe ein Segen: Da das Second Life zwar über elf Millionen registrierte "Einwohner" verfügen und bis zu 60.000 Nutzer gleichzeitig in das System eingeloggt sein sollen, aber innerhalb einer Inselregion nur 100 Avatare Platz haben, um die Server von Linden Lab nicht zu überlasten, gibt in der Online-Repräsentanz der deutschen Kultur kaum verwaschene Oberflächentexturen und nur wenig Ruckeln bei den Bewegungen. Anderswo, vor allem auf den überfüllten Lust- und Vergnügungsarealen, herrscht allzu häufig der spaßbremsende Stillstand. Aber macht der Online-Goethe denn Spaß? Wohl kaum, wenn niemand da ist! Ob sich daraus die "Nutzungskonzepte für die Zukunft" entwickeln lassen, die "genau auf die Bedürfnisse der Second-Life-Nutzer zugeschnitten sind", wie Klaus Brehm, der Leiter des Internet-Bereichs des Goethe-Instituts, erläutert? Schwer zu glauben. Denn im Second Life geht es um die großen und kleinen Fluchten - den schnellen Gewinn oder die leichte Befriedigung. Das kann zwar auch mühselig sein, aber Goethes "interkultureller Dialog und Spracherwerb" sind da wohl noch ein anders Kaliber. Immerhin ist das ganze Projekt deutlich billiger als die Eröffnung einer Zweigstelle im echten Leben: eine Sparmaßnahme mit Zukunft."
-
Sandner, M.: Neues aus der Kommission für Sacherschließung (2010)
0.06
0.059769258 = product of:
0.119538516 = sum of:
0.0545297 = weight(_text_:und in 314) [ClassicSimilarity], result of:
0.0545297 = score(doc=314,freq=90.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.41095388 = fieldWeight in 314, product of:
9.486833 = tf(freq=90.0), with freq of:
90.0 = termFreq=90.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=314)
0.06500882 = weight(_text_:handling in 314) [ClassicSimilarity], result of:
0.06500882 = score(doc=314,freq=2.0), product of:
0.37524313 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.05982714 = queryNorm
0.17324454 = fieldWeight in 314, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.01953125 = fieldNorm(doc=314)
0.5 = coord(2/4)
- Content
- Dieses Jahr bot uns bereits zahlreiche interessante Themen: von der Sacherschließung ausgehend schnupperten wir auch in benachbarte Arbeitsund Forschungsfelder und regten andererseits interessierte Zuhörer/-innen aus diesen Nachbargebieten dazu an, die Aspekte der Inhaltserschließung aus einem für sie relevanten Blickwinkel heraus näher kennenzulernen. Die beiden öffentlichen Kommissionssitzungen des ersten Halbjahres 2010 und das SE-Panel im Rahmen der ODOK´10 in Leoben stießen daher nicht nur im engeren Kreis der Sacherschließer/-innen sondern auch bei Titelaufnehmern/-innen und IT-Experten/-innen auf verdientes Interesse. Sämtliche Vortragsfolien und begleitendes Material sind auf der KofSE- Seite chronologisch zugänglich. Am 29. April traf sich in Wien zunächst der am Grazer Bibliothekartag ins Leben gerufene Arbeitskreis K-KONKORD zum zweiten Mal: wir hörten kurze Berichte über laufende Projektarbeiten und Masterthesen zum Thema Klassifikationen-Konkordanzen und beschlossen, bis zum nächsten Treffen im Herbst unsere bis dahin gesammelten "Mosaiksteine" nach und nach in einem gesonderten Bereich auf der KofSE-Seite innerhalb der VÖB-Homepage abzulegen. Danach begann die KofSE-Sitzung mit einem Kurzbericht von Kurt SCHAEFER aus der UB Wien über seinen unmittelbar davor liegenden Besuch beim EDUG-Meeting 2010 in Alexandria. Nicht nur seine noch ganz vom ägyptischen Klima "aufgeheizten" und durch eine Bilderfolge lebendig dokumentierten Reiseeindrücke sondern v. a. die erste Zusammenfassung aktueller Trends innerhalb der wachsenden europäischen DDC- Community waren - spontan mitkommentiert von Karin Kleiber (Sekretärin der European Dewey Users Group, EDUG) und ebenso spontan ergänzt von Lars Svensson, der mit einer Telekonferenzschaltung von Deutschland aus an dem Meeting teilgenommen hatte - diesmal ein höchst aktueller Einstieg ins Thema Klassifikation. Darauf folgten zwei Gastvorträge:
Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main gab seinem spannenden Vortrag über ein laufendes praxisorientiertes DNB-Projekt den Titel Panta rei: Die Versionierung der DDC - Probleme, Anforderungen und mögliche Lösungen. Einen kurzen Abschlussbericht über das mit diesem praktischen Lösungsansatz zu erzielende, möglicherweise adäquate IT-Handling von laufenden inhaltlichen Anpassungen der Klassifikation selbst - das Editorial Policy Committee (EPC) der DDC reagiert auf neue Bedürfnisse, LoC und OCLC führen passende Benennungen ein und adaptieren Klassen - sowie von durch die Nutzung unterschiedlicher DDC-Fremddaten entstehenden inhomogenen Gemengelagen dürfen wir im kommenden Frühjahr für die VÖB-Mitteilungen erwarten. Naoka WERR von der UB Regensburg präsentierte unter dem Titel RVK 2010 authentisch den aktuellen Stand und die zukünftigen Entwicklungen im Dienstleistungsportfolio dieser so weit verbreiteten Aufstellungssystematik und stellte sich gleichzeitig auch der neuen und etwas heiklen Kostenfrage. Sie erläuterte die geplante neue Vorgehensweise des RVK-Teams in Regensburg gegenüber den RVK-Anwenderbibliotheken und zeigte sich für nötige Anpassungen der vermehrt auch aus Österreich hinzutretenden Anwender im Rahmen des bewährten und relativ unkomplizierten redaktionellen Procederes aufgeschlossen. Der kleinen RVK-Community stand sie am Nachmittag im Anschluss an die gemeinsame Roundtable-Diskussion noch geduldig für aktuelle Fragen zur Verfügung. Wolfram SEIDLER von der UB Wien moderierte den Runden Tisch am Nachmittag. Er geleitete die diskussionsfreudigen Teilnehmer/-innen souverän aber unaufdringlich durch das zukunftsträchtige Thema Klassifikationen und Semantic Web, und viele haben aus diesem - wörtlich gemeinten - Kreis Anregungen mitgenommen, die dazu verleiten werden, am Ball zu bleiben und auf die Entwicklungen im Semantic Web in Zukunft aufgeschlossener, also konstruktiv statt skeptisch, mit einem Wort sachkundiger zu reagieren. Gelegenheit dazu sollte sich schon im September, nämlich bei unserem Themenvormittag rund um Sacherschließung und Linked Data, einem neuen Forschungsfeld vor dem Hintergrund des Semantic Web, bieten.
Die zweite KofSE-Veranstaltung in diesem Jahr fand am 17. Juni in Wien statt und hatte den Charakter eines Tagesseminars, das aus vier Vorträgen von zwei überaus kompetenten Expertinnen sowie einem kleinen Workshop bestand. Heidrun WIESENMÜLLER von der Hochschule der Medien, Stuttgart (Stellvertretende Leiterin der Expertengruppe Sacherschließung, EGSE) machte uns zunächst mit den theoretischen Grundlagen der FRBR vertraut und bereitete am Nachmittag die RDA praktisch für uns auf. Esther SCHEVEN von der Deutschen Nationalbibliothek, Frankfurt am Main (Leiterin der EGSE) referierte am Vormittag über das theoretische Modell der FRSAD, das der schon bisher in der SWD praktizierten Terminologiearbeit nicht widerspricht, brachte uns nachmittags das bereits weit gediehene Konzept für die GND (Gemeinsame Normdatei) nahe und lud schließlich noch zu einigen praktischen Übungen mit Datensätzen im künftigen GND-Format ein. Besonders was die Zusammenführung von Körperschaftsansetzungen aus GKD und SWD betrifft, dürfte der Prozess noch recht spannend bleiben. Kein Wunder also, dass an diesem Tag auch zahlreiche Formalerschließer/-innen bei uns zu Gast waren, was nicht nur in den Fragerunden nach jedem Vortragsteil sondern auch in den Pausengesprächen die immer wichtiger werdenden Kontakte über die Grenzen bisheriger Arbeitsfelder hinweg durchaus förderte. "Grenzüberschreitendes" Interesse planten wir auch für das SE-Panel bei der ODOK´10 in Leoben am Donnerstagvormittag, 23. September mit ein. Dort gestalteten wir erstmals einen Themenvormittag mit jungen Informationswissenschaftlern rund um Linked Data und Sacherschließung und kombinierten die Auswirkungen dieses neuen Forschungsgebiets mit einem Ausblick auf bevorstehende Änderungen in der SE-Praxis der Deutschen Nationalbibliothek. Im Anschluss daran luden wir die zahlreichen Teil-nehmer/-innen zu einer regen Diskussion ein.
Zunächst führte Bernhard HASLHOFER vom Department of Distributed and Multimedia Systems, Universität Wien, behutsam in die Thematik Linked Data als Perspektive für die bibliothekarische Inhaltserschließung ein. Dann stellte Lars SVENSSON von der Deutschen Nationalbibliothek, Frankfurt am Main die uns vertrauten Normdateien SWD, GKD und PND als Linked Data vor und erläuterte deren bisher erreichten Stand und Perspektiven. Auch DDC-Deutsch und die Ergebnisse aus dem CrissCross-Projekt sind bereits jetzt "open linked" verfügbar. Steffen HENNICKE vom Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität Berlin stellte in seinem mit Gemälden als Beispiele sehr anschaulich gestalteten Vortrag "Linked Data und semantische Suchfunktionalitäten in Europeana besonders den Nutzen eines so genannten "Semantic Data Layer", also der semantischen Datenschicht, die heterogene Objektmetadaten kontextualisiert, dar und zeigte wie und warum Search & Retrieval in einer derartigen Informationsarchitektur funktionieren. Im ersten Vortrag nach der Pause mit dem Titel Freie Katalogdaten und Linked Data, rückte Adrian POHL vom Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz), Köln dann die wichtige Komponente Linked "Open" Data mit der lizenzrechtlichen Seite von im Web frei verfügbaren bibliographischen Daten in unseren Fokus. Außerdem berücksichtigte er, dass viele Aleph-Anwender/-innen im Auditorium saßen und erläuterte die praktischen Probleme beim regelmäßigen Export von Daten aus dem Verbundkatalog. Schließlich stellte er laufende und zukünftige Linked-Open-Data-Projekte des hbz vor, in denen - teilweise in Kooperation mit der DNB - eine Basisinfrastruktur für Bibliotheken im Semantic Web entwickelt werden soll. Ulrike JUNGER, Leiterin der Inhaltserschließung an beiden Standorten der Deutschen Nationalbibliothek, Leipzig und Frankfurt am Main, holte uns wieder in die Realität des Sacherschließungsalltags zurück und stellte in ihrem Vortrag Automatisierung in der Inhaltserschließung - neue Ansätze in der Deutschen Nationalbibliothek konkrete Planungen und Aktivitäten der DNB für automatische Erschließungsverfahren vor. Im Bereich der Netzpublikationen wurde die traditionelle, intellektuell durchgeführte verbale und klassifikatorische Inhalterschließung seit Anfang 2010 eingestellt und soll durch automatische Verfahren ersetzt werden. Derzeit wird insbesondere die Vergabe von DDC-Sachgruppen und Schlagwörtern erprobt. In die bisher vorliegenden Testergebnisse beider Verfahren erhielten wir kurz Einblick. Wenig überraschend schnitten dabei Fächer wie Medizin am günstigsten ab. Schon 2012 könnten solche Verfahren in DNB zur Anwendung kommen."
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 63(2010) H.3/4, S.95-99
-
Wissenschaftskommunikation der Zukunft (WissKom 2007) : 4. Konferenz der Zentralbibliothek Forschungszentrum Jülich : 6. - 8. November 2007 ; Beiträge und Poster / [WissKom 2007]. Forschungszentrum Jülich GmbH, Zentralbibliothek. Rafael Ball (Hrsg.). [Mit einem Festvortrag von Ernst Pöppel] (2007)
0.06
0.05755908 = product of:
0.11511816 = sum of:
0.05010934 = weight(_text_:und in 64) [ClassicSimilarity], result of:
0.05010934 = score(doc=64,freq=76.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.37764058 = fieldWeight in 64, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=64)
0.06500882 = weight(_text_:handling in 64) [ClassicSimilarity], result of:
0.06500882 = score(doc=64,freq=2.0), product of:
0.37524313 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.05982714 = queryNorm
0.17324454 = fieldWeight in 64, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.01953125 = fieldNorm(doc=64)
0.5 = coord(2/4)
- BK
- 02.16 / Wissenschaftliche und kulturelle Zusammenarbeit
- Classification
- AK 28400 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftspraxis / Informationen, Kontakte, Austausch, Technologietransfer
02.16 / Wissenschaftliche und kulturelle Zusammenarbeit
- Content
- Enthält die Beiträge: Ernst Pöppel: Wissen - und wie es kommuniziert werden kann. - Anne-Katharina Weilenmann: Von Cyberscience zu e-Science. - Katrin Weller, Indra Mainz, Ingo Paulsen, Dominic Mainz: Semantisches und vernetztes Wissensmanagement für Forschung und Wissenschaft. - Ute Rusnak, Matthias Razum, Leni Helmes: Wissensvernetzung im Forschungsprozess. - Elena Semenova, Martin Stricker: Eine Ontologie der Wissenschaftsdisziplinen. Entwicklung eines Instrumentariums für die Wissenskommunikation. - Peter Haber, Jan Hodel: Historische Fachkommunikation im Wandel. Analysen und Trends. - Lydia Bauer, Nadja Böller, Josef Herget, Sonja Hierl: Konzepte zur Förderung der Wissenschaftskommunikation: Der Churer Ansatz zur Vermittlung von kollaborativen Kompetenzen. - Susanne von liter: Wissenschaftskommunikation in der Entwicklungsforschung/Entwicklungszusammenarbeit Web2.0 und Communities of Practice - ein Beitrag aus der Praxis. - Steffen Leich-Nienhaus: Wissenschaftliche Informationsversorgung am modernen digitalen Arbeitsplatz. - Christian Hänger, Christine Krätzsch: Collaborative Tagging als neuer Service von Hochschulbibliotheken. - Christoph Bläsi: Mobile IT in kleinen und mittleren Medienunternehmen zur Prozess- und Serviceverbesserung. - Michael Diepenbroek, Hannes Grobe: PANGAEA® als vernetztes Verlags- und Bibliothekssystem für wissenschaftliche Daten. - Jan Brase, Jens Klump: Zitierfähige Datensätze: Primärdaten-Management durch DOls. - Harald Krottmaier: Die Systemarchitektur von PROBADO: Der allgemeine Zugriff auf Repositorien mit nicht-textuellen Inhalten. - Annette Holtkamp: Open Access Publishing in der Hochenergiephysik: Das SCOAP3 Projekt. - Wiebke Oeltjen: Metadaten-Management mit MyCoRe. - Karin Weishaupt: Open-Access-Zeitschriften als neue Form wissenschaftlicher Kommunikation: Vorbehalte und Vorschläge für Maßnahmen zur Akzeptanzsteigerung. - Wolfgang Glänzel, Koenraad Debackere: Bibliometrie zwischen Forschung und Dienstleistung. - Patrick Vanouplines, Ronald Beullens: Merging information sources to obtain the impact factor of open access journals. - Dirk Tunger: Bibliometrie als Teil eines Trenderkennungs-Systems in der Naturwissenschaft. - Milos Jovanovic: Indicators for Footprints through science - Designing the Journal Application Level (JAL). - James Pringle: The ISl Web of Knowledge as a Management Tool. - Show-Ling Lee-Müller, Gerd Schumacher: Einsatz bibliometrischer Analysen im EU-Projekt zur Technologiefrüherkennung SMART. - Henning Möller: Messen, Steuern, Regeln - zum Controlling der Helmhoitz-Forschung
- Footnote
- Rez. in: BuB 60(2008) H.6, S.501-502 (J. Plieninger): "Kommunikation war schon immer eine Voraussetzung von Wissenschaft, eine Kommunikation, die sich innerhalb von akademischen Institutionen, in Gremien oder in einer Fachöffentlichkeit vollzog. Sie ist daher nichts neues, neu sind aber die wachsenden Möglichkeiten, sich aufgrund der elektronischen Datenverarbeitung, des Internet und dem damit einhergehenden Zugriff auf Online-Kataloge, -Datenbanken und -Texte sowie Web 2.0-Anwendungen - kurz: der »neuen Medien« - effektiver zu informieren und zu kommunizieren (»vernetzen«), als es früher mithilfe von Zettelkasten, Korrespondenz, papiergestützter Literatur sowie durch Konferenzen der Fall war. Für die Auslotung dieses Wechsels, für die Herausforderungen von Wissensmanagement, Vermittlung von Informationskompetenz, Aufarbeitung von Digitalisaten und der Evaluation wissenschaftlicher Leistungen unter den neuen Rahmenbedingungen geben die Beiträge dieses Bandes eine gute Hilfe. Die Zentralbibliothek des Forschungszentrums Jülich, deren Leiter Rafael Ball den Band herausgibt, veranstaltet seit Jahren eine Reihe kleinerer und größerer Tagungen. Die 23 Beiträge der »Wissenschaftskommunikation der Zukunft« sind nach den Themenschwerpunkten »Neue Formen wissenschaftlicher Zusammenarbeit«, »Wissenschaftliche Kommunikation in Forschung und Lehre«, »Praxisbeispiele Web 2.0» »Primärdatenmanagement«, »Neue Aspekte von Wissenschaftsindikatoren« und »Wissenschaftsindikatoren als Managementtool« geordnet. Zwei Beiträge sind in Englisch verfasst, der Rest in Deutsch. Bei der Lektüre der Aufsätze beeindruckt der Brückenschlag zwischen Natur- und Geisteswissenschaften sowie zwischen Theorie und Praxis. Es ist somit für jedem etwas dabei, ganz gleich, um welches Interesse es sich handelt: Theoretische beziehungsweise auf Grundlagen ausgerichtete Abhandlungen wechseln sich mit praktischen Modellen und Umsetzungsbeispielen ab. Natürlich sind wie in jedem Konferenzband theoretische Abhandlungen mit Worthülsen und praktische Darstellungen, die sich lediglich auf ein bestimmtes Projekt beziehen und somit für eine Übertragung auf eigene Gegebenheiten schlecht eignen, zu finden.
Dennoch enthält der Band viele Beiträge, die für jene, die auf dem Feld der Wissenschaftskommunikation tätig sind, als fruchtbare Denkvorlage oder brauchbares praktisches Beispiel nützlich sind. Kommunikation in »Communities« Im Teil eScience (wobei das »e« für »enhanced« gleich »erweitert, verbessert« steht) werden in mehreren Beiträgen Projekte und Programme vorgestellt, welche die Bildung von und Kommunikation in »Communities« unterstützen und die kontrolliertes Vokabular (sogenannte »Ontologien«) für die Erschließung der unterschiedlichsten Medien bieten. Im Teil zur wissenschaftlichen Kommunikation hat dem Rezensenten besonders der Beitrag zu wandelnden Anforderungen von Historikern an einen virtuellen Arbeitsplatz und eine sich wandelnde Fachkommunikation gefallen, der darauf folgende Artikel aus Chur, der ein integriertes Modell von Maßnahmen zur Informations-, Medien- und Methodenkompetenz vorschlägt, ist für jeden hilfreich, die/der InformationskompetenzVeranstaltungen plant und durchführt. Bei den Praxisbeispielen zu Web 2.0 gefielen sowohl die Schilderung der Kommunikation innerhalb verschiedener Institutionen der Entwicklungsforschung, was die Bedeutung von RSS als Technik der kollektiven Information hervorhob, als auch der eher auf die Informationsversorgung abgestellte Bericht aus einem Unternehmen. Aber auch der Artikel zum »Collaborative Tagging» als einem neuen Dienst von Hochschulbibliotheken gibt Anhaltspunkte, dass das Verschlagworten nicht nur den Online-Foren vorbehalten bleibt, sondern zunehmend systematisch in den Hochschulen eingeführt wird. Beim Teil zum Primärdatenmanagement behandeln mehrere Beiträge die Praxis von Repositorien und der Erschließung der dort gelagerten Mediendateien, ebenso wird in zwei Beiträgen näher auf Open Access eingegangen, unter anderem auf die Nachweismittel von Open Access Journals wie zum Beispiel das »Directory of Open Access Journals« (DOAJ, www.doaj.org).
Die letzten beiden Teile des Kongressbandes behandeln die Möglichkeiten der Bibliometrie zum Handling des sich explosionsartig vermehrenden Wissens sowie der Einsatz solcher Technologien als Trenderkennungssystem. Zuletzt behandelt ein Artikel die Evaluation der Helmholtz-Einrichtungen. Am Schluss befindet sich noch ein sechsseitiges Register, das sehr hilfreich und für einen Kongressband keineswegs selbstverständlich ist. Vielleicht sollte noch auf den als Einleitung abgedruckten, überaus lesenswerten Festvortrag von Ernst Pöppel, Professor für medizinische Psychologie aus München, hingewiesen werden, der die verschiedenen Formen des Wissens allgemeinverständlich aus Sicht der Hirnforschung darstellt. Hervorzuheben ist noch, dass die Publikation kostenlos über den Publikationsserver des FZ Jülich bezogen werden kann, eine Tatsache, die sich offensichtlich nicht herumgesprochen hat, da bei einer Suche über den Karlsruher Virtuellen Katalog (Stand: 22. April 2008) dieses »Exemplar« nicht gefunden wurde. Als höchstes der Gefühle bietet der Südwestverbund bei »elektronische Referenz« einen Link auf das Inhaltsverzeichnis. Vielleicht erbarmt sich pro Verbund jemand und nimmt die elektronische Version auf."
Weitere Rez. in: Mitt VÖB 61(2008) H.2, S79-84 (E. Pipp): " ... Der Tagungsband bietet einen guten Einblick in die behandelten Themenschwerpunkte. Da sich alle Autor/inn/en bemühten, Fragestellungen, Probleme und Ziele vorzustellen, auf weiterführende Literatur und zukunftsweisende Lösungsansätze hinzuweisen, wird dieser Tagungsband sicherlich auch noch in einigen Jahren mit Gewinn gelesen werden können." - IWP 59(2008) H.4, S.267-268 (A. Oßwald)
- RVK
- AK 28400 Allgemeines / Wissenschaftskunde und Wissenschaftsorganisation / Wissenschaftspraxis / Informationen, Kontakte, Austausch, Technologietransfer
-
Hindersmann, J.: ¬Der zentrale CD-ROM-/DVD-Service der Verbundzentrale des GBV (VZG) : Ein Erfahrungsbericht einer Anwenderbibliothek (2005)
0.06
0.05725442 = product of:
0.11450884 = sum of:
0.036498252 = weight(_text_:und in 4213) [ClassicSimilarity], result of:
0.036498252 = score(doc=4213,freq=28.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.27506292 = fieldWeight in 4213, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4213)
0.07801058 = weight(_text_:handling in 4213) [ClassicSimilarity], result of:
0.07801058 = score(doc=4213,freq=2.0), product of:
0.37524313 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.05982714 = queryNorm
0.20789343 = fieldWeight in 4213, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.0234375 = fieldNorm(doc=4213)
0.5 = coord(2/4)
- Abstract
- Bei den Datenbanken geht die Entwicklung eindeutig in Richtung Online-Datenbanken. Immer mehr Anbieter stellen ihre Datenbanken von einer CD-ROM-Version auf Online um. Für die Bibliotheken ist diese Entwicklung zu begrüßen. Der Aufwand für das Einspielen und Handling der Datenbanken wird von der Bibliothek auf den Anbieter verlagert. Im günstigsten Fall muss die Bibliothek lediglich einen Link auf ihrer Homepage bzw. in DBIS einpflegen. Dennoch müssen sich die Bibliotheken nach wie vor mit den silbernen Scheiben abgeben. Gerade im geisteswissenschaftlichen Bereich erscheinen einige Fachbibliographien nur auf CD-ROM, beispielsweise der Index Theologicus oder Germanistik. Außerdem wurden in den letzten Jahren verstärkt CD-ROM-Versionen von bekannten Lexika und Nachschlagewerken veröffentlicht. Als Beispiel sei hier nur auf die Reihe "Digitale Bibliothek" mit ihren Digitalisierungen der Literaturlexika von Walther Killy, Gero von Wilpert und vielen weiteren Bänden verwiesen. Auch die großen nationalbibliographischen Verzeichnisse des Saur-Verlages liegen nur als CD-ROM vor. Bei CD-ROM-Datenbanken hat jede Bibliothek grundsätzlich die Entscheidung zu treffen, ob sie sie als Einzelplatzlizenz oder im Netzwerk anbietet. Eine Netzlizenz ist eindeutig die attraktivere Variante, denn so können Studierende und Dozenten von ihrem Arbeitsplatz aus in der Datenbank recherchieren - ein Komfort, den sie von E-Journals und Online-Datenbanken gewohnt sind. Um eine CD-ROM in einem Netzwerk anbieten zu können, muss die Bibliothek nicht nur eine Netzlizenz der Datenbank erwerben, sondern auch einen CD-ROM-Server betreiben, was nicht unbeträchtliche Kosten für die Hardwarebeschaffung sowie Personalkosten für Wartung und Betrieb des Servers bedeutet. Da vielfach dieselben Datenbanken in den Bibliotheken genutzt werden, liegt die Idee nahe, diese Datenbanken auf einem zentralen Server einzuspielen und so den Aufwand für die beteiligten Bibliotheken zu minimieren. Die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (GBV) setzte diese Idee schon 1998 in die Tat um und bot einen zentralen Service für CD-ROMDatenbanken an, allerdings zunächst nur beschränkt auf CD-ROMs der Firmen SilverPlatter und DIALOG. Der Wunsch der Bibliotheken war aber, CDROMs aller Anbieter einspielen zu können. Der neue Service der Verbundzentrale erfüllt diese Wünsche. Außer CD-ROMs verschiedener Anbieter können auch DVDs eingespielt werden. Nach einem mehrmonatigen Testbetrieb begann der Produktivbetrieb im August 2003. Derzeit gibt es für den Service drei Kunden: die Hochschulbibliothek Vechta, die Fachhochschulbibliothek Jena sowie die Universitätsbibliothek Osnabrück.
Der CD-ROM-/DVD-Service ist eine Kooperation der Verbundzentrale (VZG) und der Firma H+H Software GmbH. Der Zugriff auf den Server erfolgt über das Wissenschaftsnetz, sodass eine schnelle Anbindung gewährleistet ist. Der Server wurde von der VZG gekauft, die Betreuung des Servers sowie das Einspielen der Datenbanken erfolgt durch die Firma H+H. Der Service war zuerst nur darauf ausgerichtet, Rechner mit Betriebsystem Windows 2000 oder höher zu unterstützen. Da in der Universität Osnabrück aber noch Rechner mit älteren Windows-Versionen sowie Linux oder Mac verbreitet sind, war diese Einschränkung inakzeptabel. Auf dem Verhandlungswege wurde für das Problem eine Lösung gefunden. Der Zugriff ist jetzt von Rechnern mit allen Betriebssystemen möglich, Rechner mit älteren Windows-Versionen sowie Linux oder Mac benötigen aber eine Terminalserverlizenz (TS-CAL), die von der zugreifenden Institution bereitgestellt werden sollte. Auf allen Rechnern, die auf den zentralen Server zugreifen, muss zuvor einmalig ein Plug-In installiert werden, das von einer Webseite von H+H heruntergeladen werden kann. Hinsichtlich der Anzahl der CD-ROMs und DVDs, die eingespielt werden können, hat H+H eine Obergrenze von 20 Titeln pro Kunde festgelegt. Für den Erwerb der Netzlizenzen ist die jeweilige Bibliothek selbst verantwortlich. Bei Titeln, die für mehrere Bibliotheken eingespielt werden, müssen die Bibliotheken untereinander klären, wer die Scheiben zu H+H schickt. Monatliche Nutzungsstatistiken sowie eine Jahresstatistik erlauben es den Bibliotheken, die Akzeptanz des Angebotes zu überprüfen und gegebenenfalls Änderungen im Portfolio vorzunehmen. H+H hat für den CD-ROM-/DVD-Service ein gestaffeltes Preissystem zu Grunde gelegt. Um diesen Service nutzen zu können, muss jede Bibliothek eine einmalige Grundgebühr zahlen. Für jede Datenbank ist dann eine Einspielgebühr und gegebenenfalls eine Updategebühr zu zahlen. Die genauen Preise kann man auf der Homepage der VZG erfahren. Eine Jahresgebühr wird nicht erhoben. Spielt eine Bibliothek nur CD-ROMs oder DVDs ein, die nicht upgedatet werden, so kann der Service in den Folgejahren praktisch ohne Folgekosten genutzt werden. Vereinbarungen über die Laufzeit waren Verhandlungsgegenstand zwischen der Firma H+H und der UB Osnabrück. Die vertragliche Regelung, die erzielt wurde, sieht eine garantierte Mindestlaufzeit vor.
-
Kübler, H.-D.: Aufwachsen mit dem Web : Surfen eher selten: zwei Studien zur Internetnutzung von Kindern (2005)
0.05
0.054903697 = product of:
0.109807394 = sum of:
0.057800338 = weight(_text_:und in 4341) [ClassicSimilarity], result of:
0.057800338 = score(doc=4341,freq=158.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.4356025 = fieldWeight in 4341, product of:
12.569805 = tf(freq=158.0), with freq of:
158.0 = termFreq=158.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4341)
0.052007057 = weight(_text_:handling in 4341) [ClassicSimilarity], result of:
0.052007057 = score(doc=4341,freq=2.0), product of:
0.37524313 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.05982714 = queryNorm
0.13859563 = fieldWeight in 4341, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.015625 = fieldNorm(doc=4341)
0.5 = coord(2/4)
- Content
- "Als Generation @ werden Kinder und Jugendliche in der Öffentlichkeit bereits gefeiert, insbesondere Marketing und Werbung schwärmen vom geschickten, unermüdlichen Surfen im WWW, von kinderleichter Handhabung des Equipments, spielerischem Edutainment und spannenden Verlockungen des digitalen Lernens, und zwar schon für die Kleinsten ab dem Kindergartenalter. Mehrheit noch offline Imposant sind auch die quantitativen Daten zur Haushaltsausstattung und PC- beziehungsweise Internetnutzung, vor allem ihre Wachstumsraten, die die Studie von Christine Feil und Co-Autoren referiert und miteinander abgleicht. Susanne Richter (S. 18) hingegen weiß nichts von ihrer Existenz, zumal Angaben aus kommerziellen Kontexten meist zu Obertreibungen neigen. Seriöser sind die Angaben des so genannten Medienpädagogischen Forschungsverbundes Südwest, der seit 1999 die Studie »Kinder und Medien« (»KIM-Studie«) durchführt, 2003 zum vierten Mal. Danach hatten 57 Prozent der bundesdeutschen Haushalte mit 6- bis 13-jährigen Kinder Internet zu Hause (Feil S. 15),42 Prozent der 6-bis 13-Jährigen besuchen hin und wieder das Internet, nur etwa gut zwölf Prozent sind täglich oder mehrmals in der Woche nach Schätzungen durchschnittlich zwischen einer halben und einer Stunde im Netz, werden aber von kommerzieller Seite bereits als »Heavy User« apostrophiert (Feil S. 18). Etwa bei zehn, elf Jahren lag 2003/2004 das Einstiegsalter für das Internet, bei Mädchen und bei Kindern aus niedrigeren Einkommens- und Sozialschichten etwas später. Offenbar haben die inzwischen - auch schon im Primarbereich - gut ausgestatten Schulen noch »kaum kompensatorische Wirkung im Sinne gleicher Zugangschancen für alle Kinder« entfaltet, »sondern allenfalls den Anteil der Kinder mit Sowohl-als-auch-Zugang« erhöht (Feil S. 21). So zeichnen sich tendenziell zwar jeweils steigende Beteiligungen ab, aber »die Mehrheit der Kinder« ist noch »offline«. Und der Zugang der Kinder zum Netz allein »gibt weder Aufschluss über ihre Nutzungskompetenzen noch über die Bedeutung der Kommunikationsund Informationsfunktion des Internets für Kinder« (Feil S. 30), so die sicherlich stimmige Ausgangsthese.
Beobachtungen und Befragungen Da kommen die beiden vorliegenden Studien gerade recht, untersuchen sie doch mit qualitativen Methoden, mit Befragungen und teilnehmenden Beobachtungen, wie Kinder das Internet entdecken beziehungsweise nutzen, welche Kompetenzen sie haben und entwickeln, welche Erwartungen, Interessen und Präferenzen sie für das Netz haben, wie und welche Orientierungen und Suchstrategien sie entfalten und schließlich wodurch und wie sie sich von den Web-Sites ansprechen lassen. Das wird jeweils an einzelnen Beispielen und Szenen anschaulich beschrieben, teils wörtlich dokumentiert, sodass man plastische Eindrücke bekommt, wie Kinder an das Web herangehen, wie sie sich zurechtfinden und was sie darüber denken und wissen. Die eine Studie (Christine Feil et al. 2004) wurde zwischen 2001 und 2003 am Deutschen Jugendinstitut (DJI) München mit Unterstützung des Bundesministeriums für Bildung und Forschung durchgeführt; an ihr sind mehrere ForscherInnen beteiligt gewesen. Entsprechend komplexer und differenzierter sind ihre Erhebungsmethoden, entsprechend aufwendiger ist ihr Forschungsdesign, und entsprechend umfassender und dichter sind ihre Ergebnisse. Teilgenommen an der Studie haben elf Mädchen und sieben Jungen zwischen fünf und elf Jahren; sie wurden in zwei bis drei mindestens einstündigen Beobachtungsphasen in ihrem Umgang mit PC und Internet per Video beobachtet, zweimal befragt wurden die Eltern und die Erzieherinnen der Horte, in die die Kinder gehen. Die andere (Susanne Richter 2004) ist eine literaturdidaktische Dissertation an der Universität Lüneburg, deren empirischer Teil schon 1999, also drei Jahre früher als die DJI-Studie, durchgeführt wurde. Beteiligt waren 25 Schüler, darunter nur sechs Mädchen, zwischen zehn und 13 Jahren, die von der Autorin nach ihrer PC-Nutzung befragt und während einer halbstündigen »Surfphase« über vier ausgewählte Web-Sites beobachtet wurden. Mithin sind die Populationen allenfalls für die neun 10- bis 11-Jährigen der DJI-Studie vergleichbar, die andere Hälfte ist jünger.
Tipps von Freunden Beide Studien beschränken sich nicht nur auf die Darstellung der empirischen Befunde: Außer der Aufbereitung der quantitativen Nutzungsdaten findet sich in der DJI-Studie noch ein informativer Abriss über »neuere Entwicklungen im deutschen Kinderweh«. Darin werden die neuen Kinder- und Jugendschutzregelungen abgehandelt sowie jüngste formale und inhaltliche Entwicklungen der Internetseiten für Kinder skizziert. Damit setzt das DJI seine Bestandsaufnahmen und Sichtungen von Kindersoftware und -selten, die es seit 1999 vornimmt, fort.* In einer Datenbank (unter www. kinderseiten.de) sind sie jeweils aktuell abzurufen. Insgesamt wachse die »Ökonomisierung des Kinderweh«; gerade die für Kindermedien symptomatischen Medienverbundstrategien werden durch das Web enorm verstärkt, wie es umgekehrt von ihnen profitiert, sodass sich Werbung und Inhalt immer intensiver vermischen (und kaum das gesetzliche Gebot nach Trennung einhalten). Nicht-kommerzielle Angebote, die es gleichwohl in Fülle im Netz gibt, haben es gegenüber solch geballter Marktmacht zunehmend schwerer, überhaupt die Aufmerksamkeit der Kinder zu finden, das heißt, überhaupt von ihnen entdeckt zu werden. Denn Kinder diesen Alters, darin stimmen beide Studien überein, surfen im eigentlichen Sinne kaum; sie merken sich die Adressen (URLs) aus Zeitschriften, von Fernsehsendungen oder bekommen sie von Freunden. Nur selten suchen sie welche gezielt mittels Suchmaschinen oder Katalogen; und auch spezielle Kindersuchmaschinen wie die viel gelobte Blinde Kuh (www.blindekuh.de) kommen nur selten in ihr Gesichtsfeld. Auch Richter beginnt - wohl typisch Dissertation - recht allgemein, mit der Darstellung (kontroverser) Medienbegriffe, von Web-Geschichte und -funktionalitäten und gängigen Gestaltungskriterien, was für das eigentliche Thema nicht unbedingt erforderlich ist. Aufschlussreich für den bibliothekarischen Kontext sind hingegen ihre Ausführungen zur Lesekompetenz und ihre Relationen zu speziellen Internetkompetenzen, die die Autorin auch empirisch erhärten kann: Denn Kinder, die flüssig, gut und sicher lesen können, erfassen natürlich nicht nur die Web-Inhalte besser, sie finden sich auch schneller auf den Web-Seiten zurecht und erkennen deren Strukturen (Linkpfade, Navigationsleisten, Buttons und so weiter) leichter und genauer als die Leseschwächeren. Ob man solchen Umgang sogleich als kompetentes Informationsverhalten und Surf-Aktivität werten will oder nicht, ist wohl Definitionssache. Denn auch Richter räumt ein, dass die meisten Kinder vornehmlich über das Internet spielen oder aber ihnen schon bekannte Seiten für ihre Hobbys, über Stars, Musik und Chat aufrufen. Dabei ist ihnen vor allem das Design der Seiten wichtig: Bunt, mit Bildern und Fotos sollen sie gestaltet sein, aber nicht überladen und durch Animationen in ihrer Ladezeit zu langwierig. Fachliches Computerwissen haben die Kinder gemeinhin nicht, nur wenige Freaks brillieren mit nicht immer ganz begriffenem Vokabular; und sie brauchen es auch kaum, denn sie lernen den Internetumgang durch Zugucken und kurze Handling-Tipps von Eltern und älteren Kindern. Eine systematische Internetdidaktik, wie sie Richter fordert, wurde vor vier Jahren offenbar noch kaum praktiziert.
Trial and Error Aber auch die DJI-Studie konstatiert drei Jahre später, dass gezieltes Anleiten der Kinder noch die ganz seltene Ausnahme ist. Das informelle Lernen, das allmähliche Hinweinwachsen in die erforderlichen Nutzungsweisen überwiegt. Nur wenige Erzieherinnen beschäftigen sich explizit damit, Lehrerinnen wurden aus Zeitgründen nicht befragt. Und für die Eltern wären attraktive Bildungsangebote mit der Intention zu empfehlen, die Medien- und Internetkompetenz ihrer Kinder zu fördern. Bislang sind die meisten Kinder weithin Autodidakten, die durch Trial and Errordas eine oder andere entdecken oder aber sich mit einmal eingeübten Routinen - etwa auf der Ebene der Computerspiele - begnügen. Denn so einfach und kinderleicht, wie auch Richter (S. 155) behauptet, sind die Bedienung der WebSoftware (Browser) und die Nutzung des Netzes nach Ansicht der DJI-ForscherInnen längst noch nicht: Da bedarf es neben technisch-instrumenteller auch noch kognitiv-analytischer Fähigkeiten, um sich zu orientieren, durch die Masse von Informationen, die vielfach belanglos oder irreführend und nur selten erschöpfend sind, sich durchzubeißen und endlich Verlässliches und Brauchbares in ansprechender Weise zu finden. Spätestens, wenn etwas nicht oder schief geht, sind die meisten Kinder- aberwohl nicht nur sie - ratlos und bedürfen der kompetenten Hilfe anderer. Und mit den vielen Tricks, Täuschungen und Manipulationsstrategien kommerzieller Websites-Werbung, Pop-Ups und Dialers - kommen Kinder kaum zurecht. Schon die vielen Anglizismen, vermeintlichen Jugendjargons und Fachtermini überfordern sie ebenso wie die zahlreichen Anmelde- und Registrierungsprozeduren, wo vielfach - wenn nicht gar datenschutzrechtliche - so doch Nützlichkeitsmaximen überschritten werden. Dafür bedürfte es nicht nur mehr und gründlicher pädagogischer Aufklärung; vielmehr könnten verantwortliche Website-Anbieter - gegen die Masse der Kommerzseiten - transparente, interaktive Hilfen, die selbsterklärend oder sogar -steuernd sind, implementieren. So könnten sich Qualitäts- und Kontrollmaßstäbe entwickeln, die die jugendlichen User dann auch an andere Seiten stellen. Denn Verbreitung, Nutzung und Bedeutung des Internet werden im Alltag und in der Kultur der Kinder gewiss wachsen. Bis es so selbstverständlich, vielseitig und problemlos genutzt werden kann, wie heute die nun schon »alten« Medien, ist es nach Einschätzung der DJI-AutorInnen noch ein gehöriges Stück Weges, den man pädagogisch besser und konstruktiver gestalten könnte. In solcher Aufgabenstellung stimmen beide Studien erneut überein."
- Footnote
- Rezensionen zu: Christine Feil, Regine Decker, Christoph Gieger: Wie entdecken Kinder das Internet? Beobachtungen bei 5- bis 12-jährigen Kindern. Wiesbaden: VS Verlag für Sozialwissenschaften, 2004 (Schriften des Deutschen Jugendinstituts: Kinder). 254 Seiten: Illustrationen, grafische Darstellungen. Susanne Richter: Die Nutzung des Internets durch Kinder. Eine qualitative Studie zu internetspezifischen Nutzungsstrategien, Kompetenzen und Präferenzen von Kindern im Alter zwischen 11 und 13 Jahren. Frankfurt (Main) [u.a.]: Lang, 2004 (Kinder- und Jugendkultur, -literatur und -medien; 27). 299 Seiten: Illustrationen, grafische Darstellungen.
-
Patalong, F.: Life after Google : II. Hilfreiche Geister (2002)
0.05
0.05362367 = product of:
0.10724734 = sum of:
0.042238522 = weight(_text_:und in 2163) [ClassicSimilarity], result of:
0.042238522 = score(doc=2163,freq=54.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.3183235 = fieldWeight in 2163, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2163)
0.06500882 = weight(_text_:handling in 2163) [ClassicSimilarity], result of:
0.06500882 = score(doc=2163,freq=2.0), product of:
0.37524313 = queryWeight, product of:
6.272122 = idf(docFreq=227, maxDocs=44421)
0.05982714 = queryNorm
0.17324454 = fieldWeight in 2163, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.272122 = idf(docFreq=227, maxDocs=44421)
0.01953125 = fieldNorm(doc=2163)
0.5 = coord(2/4)
- Content
- "Wie war zu Köln es doch vordem / Mit Heinzelmännchen so bequem! / Denn, war man faul, - man legte sich / hin auf die Bank und pflegte sich! / Heut' wühlt man sich im Web so bunt / Aug und Zeigefinger wund / Nur kluge Surfer sagen sich / Mein Roboter tut das für mich! August Kopisch (1799 bis 1853, hier leicht "upgedated") wusste, was Menschen sich wünschen: Mehr als alles andere die Befreiung von der lästigen Routine des Alltags. Für die sorgten dereinst zu Köln die Heinzelmännchen, heute muss im Web der Bot herhalten. Und siehe da. Auch der erleichtert das Surfer-Leben ganz ungemein. Da ist es eigentlich verwunderlich, dass dienstbare Geister, die Routine-Suchanfragen verkürzen oder verbessern, von so verhältnismäßig wenigen Surfern eingesetzt werden. Wozu soll ein Bot gut sein? Bots gibt es viele. Im Internet versteht man unter dem Kurzwort für Robot ganz allgemein ein Dienstprogramm, das dem Surfer Aufgaben abnimmt und für ihn erledigt. Das können Bots sein, die ständig für die Wahrnehmung einer Website bei Suchmaschinen sorgen, jeden Morgen ein vordefiniertes Sample von Schlagzeilen aus festgelegten Medien zusammentragen oder aber die Rechercheanfragen des Surfers gleich bei einer ganzen Reihe von Suchdiensten abliefern, die Ergebnisse einsammeln, auf einer Html-Seite darstellen und am Ende dann noch die wirklich guten unter ihnen archivieren. Das macht Sinn und schafft Ordnung: Viele Suchanfragen stellt man immer wieder; sei es, weil man beruflich in einem bestimmten Themenfeld unterwegs ist; sei es, weil man sich nach Monaten zwar an eine tolle Website, aber nicht an ihre Adresse erinnert. Dagegen helfen natürlich auch Bookmarks, aber deren sinnvolle Verwaltung will auch erst einmal gelernt sein. Das Tolle an Bots, die auch gleich die Recherche-Archivierung mit erledigen, ist, dass sie ihre Ergebnisse immer im Kontext einer Suchintention darstellen - und zwar nach Relevanz gewichtet. Das hat was. Praktisches Beispiel: Copernic Marktführer in diesem Bereich ist seit Jahren der Software-Client Copernic , dessen Schnupperversion "Basic" nach wie vor kostenlos zu haben ist, während die kostenpflichtige (und weit leistungsfähigere) Vollversion leider immer teurer wird. Vor zwei Jahren war das Programm für rund 20 Dollar zu haben, heute kostet es schon 60 Dollar, die Erhöhung auf 80 Dollar ist bereits angekündigt: Wenn der Satz "Was nichts kostet, taugt nichts" einen Umkehrschluss erlaubt, dann muss sich Copernic seinen heutigen Wert wohl irgendwie verdient haben. Was also bietet so ein Bot? Selbst in der kostenlosen Version schon eine ganze Menge. Da funktioniert Copernic zunächst einmal wie eine Metasuchmaschine: Das Programm leitet eine Suchanfrage an eine Reihe von Suchmaschinen weiter, sammelt Ergebnisse und gewichtet sie. Doppler löscht das Programm, ebenso "zerschossene" Links, denn die prüft das Programm gleich mit, und am Ende steht da eine als Web-Seite aufbereitete Ergebnisliste, die unter dem Stichwort der Suchanfrage auch gleich archiviert bleibt. Und mehr: Copernic fügt in die Darstellung der gefundenen Webseiten "Textmarker" ein, um die Fundorte der Such-Stichworte zu kennzeichnen. Eine Verfeinerung der Suche ist auch über die weitergehende Einengung der Suchbegriffe bei gleichzeitiger Begrenzung der Suche auf die bereits gefundenen Webseiten möglich: Das ist eine Art teilmanuelle, aber hochgradig individuelle Relevanz-Abwägung, ohne gleich alle Texte querlesen zu müssen. In der kostenpflichtigen Vollversion sucht Copernic in einer Unzahl von Datenbanken, Searchengines, bei Shops und auf Unternehmenswebsites, in Archiven und Newsangeboten. Viele der mit einem solchen Bot möglichen Recherchen wären unter Einsatz von Searchengines nur sehr schwer zu leisten.
Ordnung ist die halbe Suche. Gut, wenn man sie selbst nicht halten muss Doch damit ist das Heinzelmännchen noch lang nicht fertig. Das kostenpflichtige "Pro"-Programm verfügt auch über Sammel- und Monitoringfunktionen: Man kann den Bot beauftragen, regelmäßig bestimmte Inhalte zusammenzusuchen. Man kann ihn anweisen, bestimmte Webseiten zu beobachten und immer dann Laut zu geben, wenn sich dort etwas Neues tut: Ein ideales Tool beispielsweise zur Konkurrenzbeobachtung. Wer will, kann sich neben zahlreichen Standard-Suchportfolios auch eigene Suchprofile aus verschiedenen Quellen zusammenstellen. Im Auftrag des Users würde Copernic dann beispielsweise jeden Tag um 12.00 Uhr die Technik-News von Heise, Chip und SPIEGEL ONLINE auf einer Übersichtsseite zusammentragen. Alternativen: Bingooo, BullsEye und Co. Das kostenlose Programm Bingooo kann es zumindest mit der Schnupperversion von Copernic aufnehmen. Die deutsche Entwicklung gewann im Laufe des letzten Jahres einen wachsenden Fankreis: Faktisch kann Bingooo leicht mehr als die kostenlose Copernic-Version, arbeitet die Resultate aber nicht ganz so gut auf. Auch das Handling der Software wirkt im Vergleich mit der inzwischen im Windows-XP-ähnlichen Bonbon-Design daherkommenden, sehr klar strukturierten Copernic-Oberfläche kompliziert. Bingooo gilt selbst Fans darum als Chaos-Client mit viel Kraft. Als Trumpf kann Bingooo aber mit einem Pfund wuchern, das die Konkurrenz nicht zu bieten hat: Der Bot vermag auch auf Festplatten und in Firmennetzen zu suchen. Als viel versprechender Newcomer gilt auch BullsEye , das sich anschickt, Copernic echte Konkurrenz zu machen. Das Programm, zumal in seiner Profi-Version, lässt keine Wünsche übrig, kostet dann aber auch satte 199 Dollar. Schnuppern und probieren ist erlaubt, die Nutzung aber nur für 15 Tage kostenfrei. Wo gibt es Bots? Dabei gibt es teils Gutes, teils Bewährtes für Null bis wenig Dollar im Web: WebFerret etwa gehörte einmal zur Top-Klasse. Der Metasucher mit dem niedlichen Logo bietet solide Technik und das Standardprogramm, das man auch von Metaengines erwartet. Dafür ist er bequem und einfach zu handhaben: der Rest wird dann zur Geschmackssache. Für alltägliche, nicht sonderlich spezialisierte Suchen immer noch eine brauchbare Möglichkeit. Neben solchen allgemeinen Suchwerkzeugen gibt es auch einige ganz spezielle Entwicklungen. LexiBot etwa verspricht, gezielt das so genannte "Deep Web" inklusive der schwer zugänglichen Datenbanken zu erschließen. Das kostet dann allerdings auch schon wieder 289 Dollar für eine Lizenz. Einen ganzen Strauß kostenfreier wie kostenpflichtiger "Search Tools" verzeichnet wieder Searchenginewatch , das sich einmal mehr als nützliche und aktuell informierte Seite erweist. Die meisten der Entwicklerfirmen bieten über ihre Websites Downloadmöglichkeiten, schneller geht es oft über Download.com: Einfach den Namen der entsprechenden Software eingeben, schon ist man da.
Fazit Searchbots sind hochgradig nützliche Werkzeuge für Menschen, die entweder oft und viel, oder einfach gern systematisch im Internet suchen. Ihre besondere Stärke liegt in den Archivfunktionen der Bots: Es ist überraschend, wie oft man auf "alte" Recherchen zurückgreift. Anders als bei Bookmarks überprüfen die wirklich guten Bots zudem ständig die Validität der Links. "Verschwindet" etwas aus dem Web, warnen sie das an - und löschen den entsprechenden Vermerk. Grundsätzlich lässt sich sagen, dass solche Bots all das können, was gute Metasearcher zu bieten haben - plus einiger unterschiedlicher Bonbons für den Nutzer. Wer sich den Umgang mit Bots einmal angewöhnt, will in der Regel auch nicht mehr darauf verzichten. Ansonsten gilt wie immer: Probieren geht über studieren. "Jeder Jeck", sagt man in Köln, "ist anders", und das gilt auch für Surfer: Den richtigen Bot für alle gibt es nicht. Aber für jeden gibt es einen richtigen. Im dritten Teil des Web-Wanderführers "Life after Google" : Suchen und finden kann man auch ganz anders. In aller Welt arbeiten die Entwickler an neuen Suchmethoden, vieles ist "in Beta" schon zu sehen. Ein Ausblick: Wie könnten sie aussehen, die Suchmaschinen der nächsten Generation - und was lässt sich schon nutzen?"
-
Bühler, A.: Antirealismus und Verifikationismus (1992)
0.03
0.025447195 = product of:
0.10178878 = sum of:
0.10178878 = weight(_text_:und in 615) [ClassicSimilarity], result of:
0.10178878 = score(doc=615,freq=10.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.7671139 = fieldWeight in 615, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=615)
0.25 = coord(1/4)
- Series
- Philosophie und Geschichte der Wissenschaften; Bd.18
- Source
- Wirklichkeit und Wissen: Realismus, Antirealismus und Wirklichkeits-Konzeptionen in Philosophie und Wissenschaften. Hrsg.: H.J. Sandkühler
-
Semantik, Lexikographie und Computeranwendungen : Workshop ... (Bonn) : 1995.01.27-28 (1996)
0.03
0.02505467 = product of:
0.10021868 = sum of:
0.10021868 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
0.10021868 = score(doc=1190,freq=76.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.75528115 = fieldWeight in 1190, product of:
8.717798 = tf(freq=76.0), with freq of:
76.0 = termFreq=76.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1190)
0.25 = coord(1/4)
- BK
- 18.00 Einzelne Sprachen und Literaturen allgemein
- Classification
- ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
18.00 Einzelne Sprachen und Literaturen allgemein
- RVK
- ES 940 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Maschinelle Sprachanalyse
ET 400 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Allgemeines
ES 945 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Datenverarbeitung und Sprachwissenschaft. Computerlinguistik / Spracherkennung
ET 580 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Einzelgebiete der Sprachwissenschaft, Sprachbeschreibung / Semantik und Lexikologie / Lexikologie (diachrone und synchrone) / Lexikographie
- Series
- Sprache und Information ; 33
-
Schnelle, H.: ¬Die Natur der Sprache : die Dynamik der Prozesse des Sprechens und Verstehens (1991)
0.02
0.023447067 = product of:
0.093788266 = sum of:
0.093788266 = weight(_text_:und in 2578) [ClassicSimilarity], result of:
0.093788266 = score(doc=2578,freq=104.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.7068194 = fieldWeight in 2578, product of:
10.198039 = tf(freq=104.0), with freq of:
104.0 = termFreq=104.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2578)
0.25 = coord(1/4)
- BK
- 17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
18.00 / Einzelne Sprachen und Literaturen allgemein
- Classification
- ER 720 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Einzelne Richtungen der Sprachtheorie
ER 610 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachphilosophie (Primärliteratur der Sprachphilosophie; Sekundärliteratur s.o. bei Geschichte der Sprachwissenschaft) / Wesen und Bedeutung der Sprache
ES 160 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Sprachphänomenologie / Allgemeines
ER 710 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Funktion der Sprache
ER 765 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Methodologie der Spachwissenschaft / Einzelmethoden, z.B. Informationsbefragung, Feldarbeit
ER 900 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachpsychologie. Psycholinguistik / Allgemeines
17.03 / Theorie und Methoden der Sprach- und Literaturwissenschaft
18.00 / Einzelne Sprachen und Literaturen allgemein
- RVK
- ER 720 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Einzelne Richtungen der Sprachtheorie
ER 610 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachphilosophie (Primärliteratur der Sprachphilosophie; Sekundärliteratur s.o. bei Geschichte der Sprachwissenschaft) / Wesen und Bedeutung der Sprache
ES 160 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Spezialbereiche der allgemeinen Sprachwissenschaft / Sprachphänomenologie / Allgemeines
ER 710 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Funktion der Sprache
ER 765 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachtheorie. Theorien und Methoden der Sprachwissenschaft / Methodologie der Spachwissenschaft / Einzelmethoden, z.B. Informationsbefragung, Feldarbeit
ER 900 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachpsychologie. Psycholinguistik / Allgemeines
- Series
- Grundlagen der Kommunikation und Kognition
-
Stauf, B.: Schlagwortkataloge, Deskriptorenverzeichnisse und Thesauri : Unterschiede und Gemeinsamkeiten im Vergleich (1978)
0.02
0.022991741 = product of:
0.091966964 = sum of:
0.091966964 = weight(_text_:und in 1374) [ClassicSimilarity], result of:
0.091966964 = score(doc=1374,freq=4.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.6930935 = fieldWeight in 1374, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.15625 = fieldNorm(doc=1374)
0.25 = coord(1/4)
-
Diesch, K.: Katalogprobleme und Dezimalklassifikation : eine bibliothekswissenschaftliche Untersuchung und Abwehr (1929)
0.02
0.022991741 = product of:
0.091966964 = sum of:
0.091966964 = weight(_text_:und in 1932) [ClassicSimilarity], result of:
0.091966964 = score(doc=1932,freq=4.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.6930935 = fieldWeight in 1932, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.15625 = fieldNorm(doc=1932)
0.25 = coord(1/4)
-
Orbe, S.: Schlagwortkataloge, Deskriptorenverzeichnisse und Thesauri : Unterschiede und Gemeinsamkeiten im Vergleich (1978)
0.02
0.022991741 = product of:
0.091966964 = sum of:
0.091966964 = weight(_text_:und in 3720) [ClassicSimilarity], result of:
0.091966964 = score(doc=3720,freq=4.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.6930935 = fieldWeight in 3720, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.15625 = fieldNorm(doc=3720)
0.25 = coord(1/4)
-
Niehues, M.: Schlagwortkataloge, Deskriptorenverzeichnisse und Thesauri : Unterschiede und Gemeinsamkeiten im Vergleich (1978)
0.02
0.022991741 = product of:
0.091966964 = sum of:
0.091966964 = weight(_text_:und in 4652) [ClassicSimilarity], result of:
0.091966964 = score(doc=4652,freq=4.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.6930935 = fieldWeight in 4652, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.15625 = fieldNorm(doc=4652)
0.25 = coord(1/4)
-
Mussenbrock, M.: Schlagwortkataloge, Deskriptorenverzeichnisse und Thesauri : Unterschiede und Gemeinsamkeiten im Vergleich (1978)
0.02
0.022991741 = product of:
0.091966964 = sum of:
0.091966964 = weight(_text_:und in 6623) [ClassicSimilarity], result of:
0.091966964 = score(doc=6623,freq=4.0), product of:
0.13269056 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.05982714 = queryNorm
0.6930935 = fieldWeight in 6623, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.15625 = fieldNorm(doc=6623)
0.25 = coord(1/4)