-
Meyer, T.: Academic LinkShare : Kooperative Erschließung von elektronischen Ressourcen (2009)
0.11
0.11224575 = product of:
0.2244915 = sum of:
0.052659642 = weight(_text_:und in 3785) [ClassicSimilarity], result of:
0.052659642 = score(doc=3785,freq=18.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.36756828 = fieldWeight in 3785, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3785)
0.17183186 = weight(_text_:hohen in 3785) [ClassicSimilarity], result of:
0.17183186 = score(doc=3785,freq=2.0), product of:
0.44824284 = queryWeight, product of:
6.939294 = idf(docFreq=116, maxDocs=44421)
0.06459488 = queryNorm
0.38334545 = fieldWeight in 3785, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.939294 = idf(docFreq=116, maxDocs=44421)
0.0390625 = fieldNorm(doc=3785)
0.5 = coord(2/4)
- Abstract
- Erschließung und Nachweis von Internetquellen sind ein zentraler Bestandteil der Virtuellen Fachbibliotheken (ViFa), die seit ca. 8 Jahren von den Sondersammelgebietsbibliotheken aufgebaut und von der Deutschen Forschungsgemeinschaft (DFG) gefördert werden. Mittlerweile wird deutlich, dass allein stehende Lösungen für eine ViFa in der Regel nicht nachhaltig aufrechterhalten werden können. Zu groß ist der Aufwand für die Erschließung und Pflege von Internetquellen. Auch die Förderung durch die DFG wird stärker von kooperativen Lösungen abhängig gemacht. Academic LinkShare ist ein Netzwerk von Bibliotheken, das eine kooperative technische und organisatorische Infrastruktur zur Erfassung und zum Nachweis von Internetquellen entwickelt hat. Im Zentrum steht dabei ein gemeinsamer Datenpool, der von Bibliotheken im Fachcluster Wirtschafts-, Sozial-, Geistes- und Regionalwissenschaften aufgebaut wird. Durch den kooperativen Nachweis der Internetquellen werden Ressourcen bei der Katalogisierung eingespart. Andererseits ist nach dem Motto "Metadata Sharing: Zentrale Erschließung - Dezentrale Präsentation" jede Institution frei in der Gestaltung der Präsentationsebene ihrer Internetquellen. Vor dem Hintergrund eines vergleichsweise hohen Überschneidungsgrads fachlich relevanter Quellen in benachbarten Disziplinen - er liegt bei den institutionellen Quellen im Verbund bei ca. 30 % - ermöglicht die kooperative Erschließung mit dem Modell des "Metadata Sharing" den effizienten Einsatz von Ressourcen. Durch die Verantwortlichkeit der Verbundpartner für ihre Präsentationen kann das jeweils eigene Profil gestärkt werden. Darüber hinaus nutzen die Verbundpartner Academic LinkShare für den Wissens- und Erfahrungsaustausch. Auch hier ergeben sich Synergieeffekte durch den Austausch von Ideen und die Nachnutzung von Modulen.
- Source
- Kooperation versus Eigenprofil? 31. Arbeits- und Fortbildungstagung der ASpB e.V., Sektion 5 im Deutschen Bibliotheksverband, 25.-28.9.2007 in der Technischen Universität Berlin. Hrsg.: Ursula Flitner u.a
-
Förderung von Informationsinfrastrukturen für die Wissenschaft : Ein Positionspapier der Deutschen Forschungsgemeinschaft (2018)
0.11
0.11224575 = product of:
0.2244915 = sum of:
0.052659642 = weight(_text_:und in 178) [ClassicSimilarity], result of:
0.052659642 = score(doc=178,freq=18.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.36756828 = fieldWeight in 178, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=178)
0.17183186 = weight(_text_:hohen in 178) [ClassicSimilarity], result of:
0.17183186 = score(doc=178,freq=2.0), product of:
0.44824284 = queryWeight, product of:
6.939294 = idf(docFreq=116, maxDocs=44421)
0.06459488 = queryNorm
0.38334545 = fieldWeight in 178, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.939294 = idf(docFreq=116, maxDocs=44421)
0.0390625 = fieldNorm(doc=178)
0.5 = coord(2/4)
- Abstract
- Das vorliegende Positionspapier befasst sich mit dem Förderhandeln der Deutschen Forschungsgemeinschaft (DFG) im Bereich der wissenschaftlichen Informationsinfrastrukturen. Es hat zwei Funktionen: Erstens reflektiert es - sowohl auf einer übergeordneten Ebene als auch für drei ausgewählte Themen - die strukturellen Rahmenbedingungen des DFG-Förderhandelns im Bereich der wissenschaftlichen Informationsinfrastrukturen und setzt sich mit den Anpassungsbedarfen auseinander, die sich aus der gegenwärtigen Ausgangslage ergeben. Darüber hinaus benennt es konkrete Maßnahmen als Reaktion auf die analysierten Herausforderungen und Handlungsbedarfe und bildet damit zweitens eine Leitschnur für das Förderhandeln im Bereich Wissenschaftliche Literaturversorgungs- und Informationssysteme (LIS).
Als Selbstverwaltungsorganisation und Interessenvertretung der Wissenschaft sieht die DFG es als ihre Aufgabe an, den digitalen Wandel in den Wissenschaften aktiv mitzugestalten. Die Förderung im Bereich der Informationsinfrastrukturen erfolgt mit dem Anspruch, sich an einem von der Wissenschaft formulierten Bedarf zu orientieren, der anhaltend hohen Veränderungsdynamik gerecht zu werden, für unkonventionelle Projektideen sowie Projekte in einem explorativen Stadium offen zu sein und impulsgebend sowie struktur- und standardbildend zu wirken. Mit diesem Positionspapier reflektiert die DFG - nach 2006 und 2012 - zum dritten Mal die Folgen des digitalen Wandels für ihr Förderhandeln im Bereich der wissenschaftlichen Informationsinfrastrukturen. Erarbeitet wurde das Papier vom Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme, dem für die Förderung wissenschaftlicher Informationsinfrastrukturen fachlich zuständigen Gremium. Der AWBI ist im Rahmen seiner Zuständigkeit als Gremium des Hauptausschusses verantwortlich für die Ausgestaltung des Förderportfolios sowie einzelner Förderinitiativen im Bereich der wissenschaftlichen Informationsinfrastrukturen.
-
Bauer+Kirch GmbH: Integriertes Bibliothekssystem NOS.4 (2008)
0.11
0.110739924 = product of:
0.22147985 = sum of:
0.04964799 = weight(_text_:und in 2828) [ClassicSimilarity], result of:
0.04964799 = score(doc=2828,freq=16.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.34654674 = fieldWeight in 2828, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2828)
0.17183186 = weight(_text_:hohen in 2828) [ClassicSimilarity], result of:
0.17183186 = score(doc=2828,freq=2.0), product of:
0.44824284 = queryWeight, product of:
6.939294 = idf(docFreq=116, maxDocs=44421)
0.06459488 = queryNorm
0.38334545 = fieldWeight in 2828, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.939294 = idf(docFreq=116, maxDocs=44421)
0.0390625 = fieldNorm(doc=2828)
0.5 = coord(2/4)
- Content
- "Optimal aufeinander abgestimmte Funktionalitäten erfüllen die hohen Standards der Monografienkatalogisierung und die spezifischen Erfordernisse der Periodikaverwaltung gleichermaßen. Als integriertes Bibliothekssystem offeriert das neue NOS.4 den Betreibern von wissenschaftlichen Bibliotheken eine zukunftsweisende Lösung für die Probleme, die vielfach aus dem Nebeneinander von allgemeiner Bibliotheks- und spezieller Periodikasoftware resultieren. Seit genau 20 Jahren entwickelt die Bauer + Kirch GmbH Softwarelösungen für wissenschaftliche Bibliotheken in Firmen, Behörden und Institutionen. Mit dem 1988 vorgestellten N.O.S. gehörte das junge Unternehmen nach eigenen Angaben zu den Pionieren im Bereich der softwaregestützten Zeitschriftenverwaltung. Seither behauptet sich die NOS-Software als eine führende Speziallösung im Bereich der Zeitschriften- und Abonnementverwaltung erfolgreich am Markt. In den letzten Jahren hat Bauer + Kirch die Weiterentwicklung der Spezialsoftware zu einem integrierten Bibliothekssystem forciert, das den höchst unterschiedlichen Anforderungen an die Katalogisierung von Monografien und die Erfassung von Periodika in gleicher Weise und Qualität gerecht werden soll. Mit dem individuell anpassbaren Bibliothekssystem NOS .4 ist es Bauer + Kirch gelungen, das gesteckte Ziel zu erreichen. Denn NOS.4 unterstützt die RAK konforme Katalogisierung von Monografien und ermöglicht dank des leistungsstärksten Periodika-Moduls aller marktgängigen Bibliothekssysteme eine deutliche Zeitersparnis bei der arbeitsintensiven Periodikaverwaltung. Die Systemintegration gewährleistet darüber hinaus, dass die Synergien, die sich zum Beispiel in den Bereichen Opac, Leser- und Sachkostenmanagement bieten, optimal ausgenutzt werden."
-
¬Die digitale Bibliothek der Philosophie (2001)
0.11
0.10913665 = product of:
0.2182733 = sum of:
0.04644144 = weight(_text_:und in 1187) [ClassicSimilarity], result of:
0.04644144 = score(doc=1187,freq=14.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.32416478 = fieldWeight in 1187, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1187)
0.17183186 = weight(_text_:hohen in 1187) [ClassicSimilarity], result of:
0.17183186 = score(doc=1187,freq=2.0), product of:
0.44824284 = queryWeight, product of:
6.939294 = idf(docFreq=116, maxDocs=44421)
0.06459488 = queryNorm
0.38334545 = fieldWeight in 1187, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.939294 = idf(docFreq=116, maxDocs=44421)
0.0390625 = fieldNorm(doc=1187)
0.5 = coord(2/4)
- Content
- Bei den auf der vorliegenden CD-ROM wiedergegebenen Texte handelt es sich um eine Auswahl aus dem Textbestand der 1998 erschienenen CD-ROM »Philosophie von Platon bis Nietzsche« (ISBN 3-89853-102-3). Diese CD-ROM bietet auf fast 70.000 Bildschirmseiten zentrale philosophische Werke aus 2.500 Jahren europäischer Geistesgeschichte im Volltext und ist damit die mit weitem Abstand umfangreichste digitale Sammlung philosophischer Texte im deutschen Sprachraum. Die philosophischen Texte werden durch ein Handbuch und zwei klassische Nachschlagewerke ergänzt, die aus dem reichen Arsenal philosophiegeschichtlicher Standardwerke der CD-ROM »Geschichte der Philosophie« (ISBN 3-89853-103-1) übernommen wurden. Die vorliegende Auswahl enthält für das Studium der Philosophie grundlegende Texte der praktischen und theoretischen Philosophie. Studienpläne von Universitäten wurden bei der Zusammenstellung ebenso zu Rate gezogen wie die Lektürevorschläge verschiedener klassischer und moderner Lehr- und Handbücher. Man wird möglicherweise den einen oder anderen Text vermissen. In diesem Fall ist zweierlei zu bedenken: zum einen, daß aus Kostengründen nur Werke berücksichtigt werden konnten, die bereits gemeinfrei, also nicht mehr urheberrechtlich geschützt sind, und zum anderen, daß diese CD-ROM nicht weniger, aber auch nicht mehr als eine Basisbibliothek philosophischer Werke bieten will. Um den Verkaufspreis und damit die Herstellungskosten in einem angemessenen Rahmen zu halten, wurde vorzugsweise auf Textausgaben zurückgegriffen, die in einer Antiquaschrift gesetzt sind; nur wo es unumgänglich war, wurden die hohen Kosten für die Digitalisierung von Frakturschrift in Kauf genommen. Schließlich galt es bei Werken, die in Griechisch, Latein oder in neueren Fremdsprachen verfaßt wurden, gemeinfreie Übersetzungen zu verwenden, denn auch die Benutzung neuerer Übersetzungen hätte den Preis der CD-ROM leicht vervielfacht. Man wird möglicherweise den einen oder anderen Text vermissen.
-
Christof, J.; Fingerle, B.; Heyke, K.: Verbundkatalogisierung von Internetquellen (2004)
0.11
0.10913665 = product of:
0.2182733 = sum of:
0.04644144 = weight(_text_:und in 3600) [ClassicSimilarity], result of:
0.04644144 = score(doc=3600,freq=14.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.32416478 = fieldWeight in 3600, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3600)
0.17183186 = weight(_text_:hohen in 3600) [ClassicSimilarity], result of:
0.17183186 = score(doc=3600,freq=2.0), product of:
0.44824284 = queryWeight, product of:
6.939294 = idf(docFreq=116, maxDocs=44421)
0.06459488 = queryNorm
0.38334545 = fieldWeight in 3600, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.939294 = idf(docFreq=116, maxDocs=44421)
0.0390625 = fieldNorm(doc=3600)
0.5 = coord(2/4)
- Abstract
- Die intellektuelle Auswahl und Erschließung von - oftmals dynamischen - Informationsobjekten, auf die über das Rechnernetz Internet zugegriffen werden kann, ist eine ressourcenintensive Aufgabe, deren Notwendigkeit jedoch mangels Alternativen weitgehend unbestritten ist. In fachlich benachbarten Disziplinen weisen dabei Segmente wissenschaftlich relevanter Internetquellen einen hohen Überschneidungsgrad auf. Um eine personalintensive Doppelerschließung durch verschiedene Akteure zu vermeiden, ist die Verbundkatalogisierung von Internetquellen ein vielversprechender Ansatz. Denn kooperative Quellenerschließung und -pflege reduziert den Aufwand der Beteiligten bei gleichzeitiger Ausweitung des zur Verfügung stehenden Materialfundus. Die Präsentation von Teilmengen der erstellten Metadaten gegenüber dem Publikum erfolgt fachspezifisch in der Gestalt von speziellen Fachinformationsführern (»Metadata Sharing«). In der Theorie führt dieser Ansatz somit zu Kooperationsgewinnen und einem optimierten Ressourceneinsatz. Dass dieser Ansatz auch in der Praxis effizient umgesetzt werden kann, soll anhand des Praxisbeispiels der »Verbunddatenbank Internetquellen - VI« im Detail dargelegt werden. INTERNETQUELLEN ALS WISSENSCHAFTLICHE INFORMATIONSRESSOURCE Die Zahl wissenschaftlich relevanter Internetquellen nimmt in allen Disziplinen dramatisch zu. Folglich wächst auch die Bedeutung des Netzes für erfolgreiches wissenschaftliches Arbeiten. Publikationen sowie forschungsrelevante Informationen aller Art finden sich immer häufiger zunächst - oder ausschließlich - im Netz. So verwundert es nicht, dass das Internet unter den Beschaffungsquellen wissenschaftlicher Informationen einen immer größeren Stellenwert einnimmt. Eine Befragung von Wissenschaftlerinnen und Wissenschaftlern für eine Nutzungsanalyse im System der überregionalen Literatur- und Informationsversorgung ergab beispielsweise, dass den am häufigsten genutzten Informationsbeschaffungsweg mit 58% das Internet darstellt, gefolgt von gedruckten Beständen der örtlichen Bibliotheken und lokal verfügbaren Datenbanken oder elektronischen Zeitschriften mitjeweils je 40% (Mehrfachnennungen möglich). Suchmaschinen spielen für die Informationssuche eine herausragende Rolle. So gaben 55% der Befragten an, dass sie mehrmals pro Woche Suchmaschinen für Recherchen im Internet nutzen, obwohl ihnen die im folgenden Abschnitt dargelegten Defizite durchaus bekannt sein dürften.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.3, S.152-158
-
Content Management Handbuch : Strategien, Theorien und Systeme für erfolgreiches Content Management (2003)
0.11
0.10913665 = product of:
0.2182733 = sum of:
0.04644144 = weight(_text_:und in 2554) [ClassicSimilarity], result of:
0.04644144 = score(doc=2554,freq=14.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.32416478 = fieldWeight in 2554, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2554)
0.17183186 = weight(_text_:hohen in 2554) [ClassicSimilarity], result of:
0.17183186 = score(doc=2554,freq=2.0), product of:
0.44824284 = queryWeight, product of:
6.939294 = idf(docFreq=116, maxDocs=44421)
0.06459488 = queryNorm
0.38334545 = fieldWeight in 2554, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.939294 = idf(docFreq=116, maxDocs=44421)
0.0390625 = fieldNorm(doc=2554)
0.5 = coord(2/4)
- Abstract
- Content und Content Management hat innerhalb des Informations- und Wissensmanagements einen hohen Stellenwert. In diesem Buch werden Theorien, Strategien und Systeme, somit die Grundlagen für erfolgreiches Content Management, vorgestellt. Das Buch gliedert sich dabei in zwei Teile: Der erste Teil bietet in 10 Fachartikeln einen Überblick zu verschiedenen Aspekten des Content Managements, verfasst von 12 der bekanntesten Content Management Experten im deutschsprachigen Raum. Der zweite Teil des Buches enthält die Ergebnisse einer der weltweit grössten Studien über Content Management Systeme, in der mehr als 60 Systeme in einem speziell für diese Systeme entwickelten Verfahren evaluiert wurden. Diese am =mcminstitute der Universität St. Gallen durchgeführte Studie schafft Transparenz über Content Management Systeme, von kleinen Web-Redaktionssystemen bis hin zu umfangreichen Enterprise Content Management Systemen. Dabei werden funktionale Aspekte der Systeme, ihre Technologie, ihre Anpassbarkeit an Unternehmensbedürfnisse und ihre Zukunftssicherheit sowie die Bewertung dieser Systeme seitens Referenzkunden vorgestellt.
- BK
- 85.20 / Betriebliche Information und Kommunikation
- Classification
- 85.20 / Betriebliche Information und Kommunikation
-
Vogl, A.: Wer hat das bessere Bild? : der Wettbewerb um mediale Aufmerksamkeit in der Astronomie (2018)
0.11
0.10913665 = product of:
0.2182733 = sum of:
0.04644144 = weight(_text_:und in 238) [ClassicSimilarity], result of:
0.04644144 = score(doc=238,freq=14.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.32416478 = fieldWeight in 238, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=238)
0.17183186 = weight(_text_:hohen in 238) [ClassicSimilarity], result of:
0.17183186 = score(doc=238,freq=2.0), product of:
0.44824284 = queryWeight, product of:
6.939294 = idf(docFreq=116, maxDocs=44421)
0.06459488 = queryNorm
0.38334545 = fieldWeight in 238, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.939294 = idf(docFreq=116, maxDocs=44421)
0.0390625 = fieldNorm(doc=238)
0.5 = coord(2/4)
- Abstract
- Big Data in der Astronomie ist die Folge systematischen Sammelns von Informationen, die durch neue Möglichkeiten digitaler Bilderfassung gewonnen werden. Durch aufwendige Bildverarbeitungsprozesse entstehen so imposante astronomische Bilder mit hoher Informationsdichte. Mit der Zeit haben diese Bilder das Feld der Wissenschaftscommunity in zunehmendem Maße verlassen und Einzug in populäre Massenmedien gehalten. Neben ihrer ursprünglich rein epistemischen Funktion wird offenbar, welch hohen Authentizitätsanspruch und Faszinationsgehalt diese bisweilen aufsehenerregenden Bilder bei einem breiten Laienpublikum auslösen können. Zeigen sich in Originalaufnahmen noch komplexe visuelle Informationen wissenschaftlicher Relevanz, so werden diese nicht selten mit dem Argument der "besseren Verständlichkeit" in den PR-Abteilungen der Forschungszentren stark vereinfacht und modifiziert, um den kulturellen Sehgewohnheiten einer wissenschaftsaffinen Öffentlichkeit zu entsprechen. In Zeiten knapper Forschungsbudgets werden wiederholt diese digital aufgeputzten Bilder einem staunenden Laien-Publikum präsentiert, um so die eigene Forschungsarbeit besser legitimieren zu können. Bei der Analyse dieser Bildmedien wird ein überstrapazierter Einsatz von Falschfarbendarstellungen, Kontrastverstärkungen und fragwürdigen Kontextualisierungen offenkundig, der das ungeschulte Auge in die Irre führt. Um medienethischen Anforderungen gerecht zu werden, ist es daher angebracht, in Publikationen diese verborgenen Bildentstehungsprozesse deutlicher als bisher zu kommunizieren und von rein illustrativen und unwissenschaftlichen Darstellungsformen mit fotorealistischem Anmutungscharakter Abstand zu nehmen.
- Source
- Information - Wissenschaft und Praxis. 69(2018) H.2/3, S.95-114
-
Gatzemeier, M.: Philosophie als Theorie der Rationalität : Analysen und Rekonstruktionen (2005)
0.11
0.10803977 = product of:
0.21607953 = sum of:
0.04597468 = weight(_text_:und in 5021) [ClassicSimilarity], result of:
0.04597468 = score(doc=5021,freq=28.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.32090676 = fieldWeight in 5021, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5021)
0.17010486 = weight(_text_:hohen in 5021) [ClassicSimilarity], result of:
0.17010486 = score(doc=5021,freq=4.0), product of:
0.44824284 = queryWeight, product of:
6.939294 = idf(docFreq=116, maxDocs=44421)
0.06459488 = queryNorm
0.37949264 = fieldWeight in 5021, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.939294 = idf(docFreq=116, maxDocs=44421)
0.02734375 = fieldNorm(doc=5021)
0.5 = coord(2/4)
- Footnote
- Rez. in: Wechselwirkung 27(2005) Nr.132, S.93-94 (J.G. Schneider): "Es ist kein Geheimnis, dass Matthias Gatzemeier ein Vertreter des Erlanger Konstruktivismus ist, einer philosophischen Strömung, die besonderen Wert auf methodische Sorgfalt und Transparenz legt, die metaphysisches Systemdenken lange hinter sich gelassen hat, ohne sich deshalb von der philosophischen Wahrheitsorientierung zu verabschieden. Für die 'Erlanger' ist 'Konstruktivismus' ein Synonym für 'konstruktive Wissenschaftstheorie'. Ihre philosophischen Untersuchungen sind von der Überzeugung geleitet, dass die Wissenschaft weder wahre Aussagen über eine vorgefundene Welt formuliert, noch ihre Gegenstände im Sinne reiner Fiktionen selbst erschafft, sondern dass sie "nur das erkennen kann, was sie selbst handelnd erzeugt hat" (S. XVI). Diese philosophische Grundüberzeugung, die dem dogmatischen Universalismus ebenso entgeht wie dem radikalen Relativismus' ist mit dem Postulat einer pragmatischen Verankerung des Philosophierens in der Lebenswelt verbunden. Mangels einer diese Lebenswelt transzendierenden "absoluten Wahrheit" ergibt sich, will man den Wahrheitsanspruch dennoch aufrechterhalten, die Notwendigkeit hoher methodischer Standards. Beide Postulate, sowohl die lebenspraktische Orientierung als auch die methodische Genauigkeit' vereinen sich in den Schriften Matthias Gatzemeiers, die hier im ersten Band seiner gesammelten Aufsätze und Vorträge unter dem Titel "Zur Philosophie der wissenschaftlichen Welt" vorliegen. Das ca. 700 Seiten starke Opus umfasst zu etwa gleichen Teilen systematische und historische Arbeiten aus den Siebzigerjahren bis heute, die eine reiches Themenspektrum abdecken und dennoch eine erstaunliche Kohärenz aufweisen, die ihre Ursache nicht zuletzt in der durchgängigen methodischen Stringenz der Untersuchungen hat. Einige der Arbeiten beschäftigen sich mit Fragen der Wissenschaftstheorie, andere mit der gesellschaftlichen Rolle von Wissenschaft - wobei sich gerade in diesem Themenbereich zeigt, wie aktuell viele politische Debatten, die bereits in den siebziger und achtziger Jahren geführt wurden - gerade was die 'Nützlichkeit' von Geisteswissenschaften angeht - bis heute geblieben sind. Hierzu finden sich in den persönlichen Vorbemerkungen des Autors einige resümierende Überlegungen. Weitere systematische Arbeiten sind der Argumentationstheorie sowie der Hermeneutik und Interpretationstheorie gewidmet.
Die historischen Rekonstruktionen haben ihren Schwerpunkt in der Antike, reichen aber ebenfalls bis in die Gegenwart hinein. Die Schriften zur Antike umfassen u. a. Arbeiten zum traditionellen Mythenverständnis, zur antiken Philosophie im allgemeinen, zu den Anfängen sprachphilosophischen Denkens, Platons Theorie der politischen Entscheidung, zur Platonischen Liebe sowie zu Wissenschafts- und RhetorikKonzeption des Aristoteles. Desweiteren enthält der Band Rekonstruktionen zu Kants Begriff des Apriori, zu Bolzanos Kunsttheorie und zum Mythos der Europa-Idee. Besonders interessant, weil selten behandelt, sind auch Gatzemeiers Schriften zur Anthropologie der Frau, die das Buch abschließen und zum zweiten Band überleiten, der noch in diesem Jahr erscheinen soll. Im Anhang findet sich ein umfangreiches, hierarchisch strukturiertes Sachregister, mit dessen Hilfe man mühelos einzelne Probleme und Analysen ansteuern kann. Auffallend, dass sich viele der Beiträge trotz ihres hohen philosophischen Standards nicht nur an Fachphilosophen richten, sondern ebenso für "interessierte Laien" verständlich sind. Auch Lehrer können insbesondere aus Gatzemeiers Überlegungen zu Theorie und Praxis des Argumentierens im Hinblick auf ihre Unterrichtsgestaltung hohen Nutzen ziehen: Dies ist keine Elfenbeinturmphilosophie, sondern grundsolides philosophisches Handwerk, mit dem man, auch in heutigen bildungspolitischen Debatten, keinerlei Legitimationsprobleme hat. Insgesamt also ein sehr lesenswertes Buch, das in Anbetracht seines Umfangs und seiner Qualität der maschinellen Herstellung (Hardcover, hochwertige Bindung) zudem als äußerst preiswert bezeichnet werden kann."
- Imprint
- Würzburg : Königshausen und Neumann
-
Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996)
0.11
0.10744171 = product of:
0.42976683 = sum of:
0.42976683 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
0.42976683 = score(doc=6014,freq=6.0), product of:
0.4552329 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06459488 = queryNorm
0.94405925 = fieldWeight in 6014, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6014)
0.25 = coord(1/4)
- Abstract
- Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
- Object
- JAVA
-
Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998)
0.11
0.10744171 = product of:
0.42976683 = sum of:
0.42976683 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
0.42976683 = score(doc=4612,freq=6.0), product of:
0.4552329 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06459488 = queryNorm
0.94405925 = fieldWeight in 4612, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4612)
0.25 = coord(1/4)
- Abstract
- Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
- Object
- Java
-
Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001)
0.11
0.10744171 = product of:
0.42976683 = sum of:
0.42976683 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
0.42976683 = score(doc=6896,freq=6.0), product of:
0.4552329 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06459488 = queryNorm
0.94405925 = fieldWeight in 6896, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6896)
0.25 = coord(1/4)
- Abstract
- This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
-
Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999)
0.11
0.10633971 = product of:
0.42535883 = sum of:
0.42535883 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
0.42535883 = score(doc=1743,freq=2.0), product of:
0.4552329 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06459488 = queryNorm
0.9343763 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Abstract
- Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
-
Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996)
0.11
0.10633971 = product of:
0.42535883 = sum of:
0.42535883 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
0.42535883 = score(doc=2137,freq=2.0), product of:
0.4552329 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06459488 = queryNorm
0.9343763 = fieldWeight in 2137, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2137)
0.25 = coord(1/4)
-
Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001)
0.11
0.10633971 = product of:
0.42535883 = sum of:
0.42535883 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
0.42535883 = score(doc=2035,freq=2.0), product of:
0.4552329 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06459488 = queryNorm
0.9343763 = fieldWeight in 2035, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2035)
0.25 = coord(1/4)
-
Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001)
0.11
0.10633971 = product of:
0.42535883 = sum of:
0.42535883 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
0.42535883 = score(doc=2050,freq=2.0), product of:
0.4552329 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06459488 = queryNorm
0.9343763 = fieldWeight in 2050, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2050)
0.25 = coord(1/4)
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.11
0.10616964 = product of:
0.21233928 = sum of:
0.17723285 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.17723285 = score(doc=729,freq=2.0), product of:
0.4552329 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06459488 = queryNorm
0.38932347 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.03510643 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.03510643 = score(doc=729,freq=8.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
-
Albrecht, R.; Körfer, N.: Online-Ressourcen in HeBIS : Neue Medien - neue Herausforderungen (2002)
0.11
0.10554102 = product of:
0.21108204 = sum of:
0.03925018 = weight(_text_:und in 2094) [ClassicSimilarity], result of:
0.03925018 = score(doc=2094,freq=10.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.27396923 = fieldWeight in 2094, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2094)
0.17183186 = weight(_text_:hohen in 2094) [ClassicSimilarity], result of:
0.17183186 = score(doc=2094,freq=2.0), product of:
0.44824284 = queryWeight, product of:
6.939294 = idf(docFreq=116, maxDocs=44421)
0.06459488 = queryNorm
0.38334545 = fieldWeight in 2094, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.939294 = idf(docFreq=116, maxDocs=44421)
0.0390625 = fieldNorm(doc=2094)
0.5 = coord(2/4)
- Abstract
- Seit der Gründung des HeBIS-Konsortiums (http://www.hebis.de/hebis-konsortium/) und seiner Institutionalisierung sowie der Bereitstellung von zentralen Erwerbungsmitteln durch das Land Hessen wurde für die hessischen Hochschul- und Fachhochschulbibliotheken eine beträchtliche Anzahl von Zeitschriftenpaketen und Datenbanken erworben. Die ebenfalls dem Hessischen BibliothekslnformationsSystem (HeBIS) angeschlossene UB Mainz profitiert in ähnlicher Weise von Aktivitäten in Rheinland-Pfalz. So erfreulich die zunehmende konsortiale Erwerbung von Online-Ressourcen mit Volltextzugriff auch ist - sie stellte die HeBIS-Bibliotheken vor folgende Probleme, für die dringend Lösungen eingefordert wurden: (1) Wer erstellt die Titelaufnahme? Innerhalb des HeBIS-Konsortiums wurden mittlerweile ca. 3500 Zeitschriften mit Volltextzugriff, ca. 400 Zeitschriften mit Zugriff auf Abstracts und Inhaltsverzeichnisse und ca. 100 Datenbanken erworben. Um den Arbeitsaufwand für die an den Konsortialverträgen beteiligten Bibliotheken möglichst gering zu halten, wurde eine zentrale Titelerfassung für die Verbunddatenbank sowie für die überregionale Zeitschriftendatenbank gefordert. Diese erfolgt nach Meldung neuer Verträge durch das HeBIS-Konsortium in der HeBIS-Verbundzentrale, die diese Aufgabe neu übernommen hat, ohne dafür jedoch zusätzliche Personalressourcen zu erhalten. (2) Wer erfasst die Lokaldaten? HeBIS betreibt eine Pica-basierte Verbunddatenbank. Im Pica-System werden die lokalen Bibliotheks-OPACs durch einen speziellen Mechanismus aus der zentralen Datenbank heraus automatisch beliefert. Ausgelöst wird dieser Mechanismus durch die Erstellung eines Lokaldatensatzes an einem Titeldatensatz. Jede Bibliothek muss ihre Lokaldaten normalerweise individuell erfassen, was einen hohen personellen Aufwand bedeutet.
-
Kämper, U.: Chemie-Information (2004)
0.11
0.10554102 = product of:
0.21108204 = sum of:
0.03925018 = weight(_text_:und in 3947) [ClassicSimilarity], result of:
0.03925018 = score(doc=3947,freq=10.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.27396923 = fieldWeight in 3947, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3947)
0.17183186 = weight(_text_:hohen in 3947) [ClassicSimilarity], result of:
0.17183186 = score(doc=3947,freq=2.0), product of:
0.44824284 = queryWeight, product of:
6.939294 = idf(docFreq=116, maxDocs=44421)
0.06459488 = queryNorm
0.38334545 = fieldWeight in 3947, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.939294 = idf(docFreq=116, maxDocs=44421)
0.0390625 = fieldNorm(doc=3947)
0.5 = coord(2/4)
- Abstract
- Die Chemie-Information weist eine Reihe von Besonderheiten auf, die aus dem sehr aktiven Publikationsverhalten der beteiligten Wissenschaftler, aus dem hohen Anteil an praxisbezogenem Wissen und der weltweit einheitlichen Strukturformel-Taxonomie resultieren. Das Publikationsverhalten der Chemiker ist gekennzeichnet durch zahlreiche kurze und prägnante Artikel, die oft nur einen bestimmten Teilbereich einer Entwicklung beschreiben. So wird in der Regel für einen neuen Stoff die Synthese in der einen und die Strukturaufklärung mittels Spektroskopie oder Röntgenanalyse in einer anderen Zeitschrift publiziert. Im Patentbereich kommen noch die anwendungstechnischen Aspekte, wie z.B. die Verwendung eines neuen Polymers in der Kunststofftechnik oder die therapeutische Indikation bei einem pharmazeutisch aktiven Wirkstoff hinzu. Die Suche im Bereich der Chemie-Information findet in der Regel in einem der folgenden Bereiche statt: - Suche nach Sachverhalten - Suche nach Verbindungen - Suche nach Reaktionen - Suche nach Eigenschaften. Vor der Recherche in kostenpflichtigen Datenbanken steht in der Regel ein Blick in Fachlexika wie etwa Ullman's Encyclopaedia of Industrial Chemistry oder Römpp's Chemie-Lexikon. Zusätzlich bieten sich die einschlägigen Chemie-Informationen im Internet an.
- Source
- Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
-
Koch, O.: Pyrrhus lässt grüßen (2005)
0.11
0.10554102 = product of:
0.21108204 = sum of:
0.03925018 = weight(_text_:und in 4218) [ClassicSimilarity], result of:
0.03925018 = score(doc=4218,freq=40.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.27396923 = fieldWeight in 4218, product of:
6.3245554 = tf(freq=40.0), with freq of:
40.0 = termFreq=40.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=4218)
0.17183186 = weight(_text_:hohen in 4218) [ClassicSimilarity], result of:
0.17183186 = score(doc=4218,freq=8.0), product of:
0.44824284 = queryWeight, product of:
6.939294 = idf(docFreq=116, maxDocs=44421)
0.06459488 = queryNorm
0.38334545 = fieldWeight in 4218, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
6.939294 = idf(docFreq=116, maxDocs=44421)
0.01953125 = fieldNorm(doc=4218)
0.5 = coord(2/4)
- Content
- "»Das ist der Teufel!«, polterte vor nicht allzu langer Zeit Harold Varmus, Mitbegründer der Public Library of Science (PLoS), als in einem Interview der Name von Derk Haank fiel. Der war damals Chef der Wissenschaftssparte Elsevier innerhalb der britisch-niederländischen Fachverlagsgruppe Reed Elsevier, die mit rund 1700 Magazinen Marktführer im Fachzeitschriftengeschäft ist. Der verbale Ausfall des Medizin-Nobelpreisträgers ist nur ein Indikator dafür, wie heftig der Konflikt in diesem Bereich inzwischen tobt - PLoS und Elsevier sind dabei bloß Stellvertreter zweier Gruppierungen, die sich unversöhnlich gegenüberstehen. Die Fachverlage, angeführt von einigen Großen wie Elsevier, Thomson oder Springer Science+Business Media, wollen am klassischen »Leser-zahlt«-Modell wissenschaftlicher Informationsverbreitung festhalten. Auf der anderen Seite stehen Non-Profit-Initiativen mit ihrem Gegenentwurf des Open-Access-Modells, allen voran PLoS, DOAJ oder Biomed Central. Sie gewähren freien Zugang zu ihren im Internet publizierten Journalen - inzwischen sind es einige tausend. Zahlen müssen in diesem Modell die Wissenschaftler, die ihre Arbeiten veröffentlichen wollen. Die Idee des Open Access ist an sich nichts Neues, stellte doch schon Anfang der 1990er Jahre der amerikanische Physiker Paul Ginsparg mit dem Internetserver Arxiv.org eine Plattform für frei zugängliche Vorabveröffentlichungen bereit. Der jetzt einsetzende Boom von OpenAccess-Journalen hat seine Ursache in der so genannten »Krise der wissenschaftlichen Informationsversorgung« - der seit Jahren wachsenden Kluft zwischen Bibliotheken-Budgets und den Preisen wissenschaftlicher Zeitschriften. Diese sind dem »Library Journal« zufolge innerhalb der letzten 15 Jahre um durchschnittlich 215 Prozent gestiegen. Einzelne Journale kosten die Büchereien inzwischen mehrere tausend Euro im Jahr. Das Geld fließt in die Kassen der hoch profitablen Verlage: So wies etwa Elsevier im Geschäftsbericht 2003 eine Umsatzrendite von 33,8 Prozent aus.
Problematisch ist dabei, dass die wissenschaftlichen Arbeiten, die in den Fachmagazinen veröffentlicht werden, meist im Rahmen staatlich geförderter Forschungsprojekte entstanden sind. Zugespitzt ausgedrückt: Die Fachverlage profitieren von Forschungsergebnissen, für die sie selbst keinen Cent bezahlt haben, und verkaufen sie anschließend für viel Geld wieder an die Universitäten und Forschungseinrichtungen zurück - zu Lasten des Steuerzahlers. Die Bibliotheken reagieren angesichts dieser Situation mit dem Rotstift und bestellen reihenweise Zeitschriften ab - die Leid Tragenden sind Studenten und Wissenschaftler. Die hohen Kosten, die auch beim Online-Bezug der Journale anfallen, rechtfertigen die Verleger mit dem Aufwand für das Layout und dem so genannten Peer-Review-Verfahren. Hier wacht ein Gremium von Wissenschaftlern, das Editorial Board, darüber, dass nur solche Artikel Eingang in das Magazin finden, die hohen wissenschaftlichen Ansprüchen genügen. Die Argumente wirken jedoch vorgeschoben: Meist sind die Board-Mitglieder Wissenschaftler, die ihre Funktion ehrenamtlich ausüben. Und die hohen Anforderungen, die von den klassischen Journalen hinsichtlich Artikel und Grafiken an die Autoren gestellt werden, lassen den großen Layout-Aufwand der Verlage zumindest fraglich erscheinen. Es sei ungerecht, den Autor zur Kasse zu bitten, die Kosten also vom Konsumenten auf den Produzenten zu verlagern, lautet ein weiteres Standardargument gegen Open Access. In der Regel trägt aber nicht der Wissenschaftler selbst diese Kosten, sondern die Institution, für die er forscht. Diese spart im Gegenzug die Abonnements der herkömmlichen Zeitschriften ein. Das klingt nach rechter Tasche, linker Tasche. Doch nach einer Studie der Bank BNP Paribas soll es die Universitäten unterm Strich tatsächlich billiger kommen. Funktionieren wird es allerdings nur, wenn sich Open Access schnell durchsetzt und viele Journale auf das neue Geschäftsmodell umstellen. Sonst zahlen die Bibliotheken doppelt - und damit drauf. Auch in den traditionellen Fachzeitschriften können die Autoren im Übrigen keineswegs immer kostenfrei publizieren. Für »Extras« wie Fotos oder Grafiken werden oft hohe Zuzahlungen fällig. Zum Beispiel verlangt das renommierte Fachblatt »Cell« 1000 US-Dollar für die erste Abbildung und 250 Dollar für jede weitere - bei PLoS dagegen sind es einmalig 1500 Dollar pro Artikel.
Wie steht es mit der Qualitätssicherung in Open-Access-Journalen? Dem »Autor-zahlt«-Modell von vornherein Gefälligkeitsveröffentlichungen zu unterstellen, wäre unfair. Dennoch besteht diese Gefahr, wenn diejenigen, die Artikel in einer Zeitschrift veröffentlichen wollen, gleichzeitig die Geldgeber sind. Dagegen spricht jedoch, dass sich Open-Access-Magazine ebenfalls unabhängiger Experten für das Peer Review bedienen. Außerdem streben auch sie nach einem möglichst hohen Renommee, das sich danach bemisst, wie oft und wo ein Journal zitiert wird - und das erreicht man nicht durch minderwertige Beiträge. Vor denen sind übrigens auch klassische Fachzeitschriften nicht gefeit - so muss immer wieder einmal ein zweifelhafter Artikel zurückgezogen werden. Dagegen bewies »PLoS Biology« schon in seiner ersten Ausgabe, dass sich auch in einem Open-Access-Magazin Hochkarätiges findet: Der Artikel einer Forschergruppe um Miguel Nicolelis über ein Gehirn-Maschine-Interface wurde am ersten Tag so oft abgerufen, dass die Server in die Knie gingen. Bleibt abzuwarten, wann die Verlagsriesen auf den Open-Access-Boom von PLoS & Co. reagieren werden. Zwar stellten sich die Chefs von Reed-Elsevier, Morris Tabaksblat und Chrispin Davis, im Geschäftsbericht 2003 noch demonstrativ hinter das klassische Geschäftsmodell. Sie kündigten aber auch an, das »Autor-zahlt«-Modell zu beobachten und zu investieren, »wo Neuerungen nachweisbaren und nachhaltigen Erfolg« für die Wissenschaft brächten. Übernehmen die Großverlage tatsächlich das Open-Access-Geschäftsmodell, hätte Varmus sein Ziel erreicht. Doch Zweifel bleiben. Im Unterschied zu Non-Profit-Organisationen wie PLoS wollen die Großverlage Gewinn machen und haben zudem in den letzten Jahren Millionen in Onlineplattformen und in die Digitalisierung ihrer riesigen Archive investiert. Diese Summen gilt es wieder hereinzuholen - notfalls durch überhöhte Abdruckgebühren für die Autoren. Das wäre dann ein Pyrrhussieg, und Varmus hätte abermals Grund, verbal den Teufel zu bemühen."
-
Bekavac, B.: Metainformationsdienste des Internet (2004)
0.11
0.10542853 = product of:
0.21085706 = sum of:
0.040752202 = weight(_text_:und in 3936) [ClassicSimilarity], result of:
0.040752202 = score(doc=3936,freq=22.0), product of:
0.14326492 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06459488 = queryNorm
0.28445345 = fieldWeight in 3936, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3936)
0.17010486 = weight(_text_:hohen in 3936) [ClassicSimilarity], result of:
0.17010486 = score(doc=3936,freq=4.0), product of:
0.44824284 = queryWeight, product of:
6.939294 = idf(docFreq=116, maxDocs=44421)
0.06459488 = queryNorm
0.37949264 = fieldWeight in 3936, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.939294 = idf(docFreq=116, maxDocs=44421)
0.02734375 = fieldNorm(doc=3936)
0.5 = coord(2/4)
- Abstract
- Diverse Metainformationsdienste, allen voran natürlich die Suchmaschinen, ermöglichen das Auffinden von Informationen im Internet. Diese Aufgabe ist nicht leicht, denn die Problematik liegt nicht nur darin, dass inzwischen Milliarden von Dokumenten über das Internet zugreifbar sind, sondern auch in der hohen Dynamik bezüglich neuer oder geänderter Inhalte, den heterogenen Datenformaten und medialen Formen und uneinheitlich strukturierten Inhalten, einer großen Vielfalt an unterschiedlichen natürlichen Sprachen zur Bildung der textuellen Daten sowie einer hohen Anzahl von Dokument-Dubletten, die u.a. durch das Kopieren (Spiegeln bzw. Mirroring) von Inhalten zu Stande kommen. Die Web-Seiten der zahlreichen Anbieter sind nicht nur inhaltlich umfangreich, sondern auch vom Aufbau her komplex. Oft kommt der Text aus Deutschland, die Grafiken z.B. aus den USA. Die angegebenen Links führen dann nach England oder Japan. Die Quellen der publizierten Informationen spielen dabei nur eine untergeordnete Rolle. Kann man sich bei kommerziellen Online-Datenbanken noch weitgehend sicher sein, dass hinter den Informationsbeständen seriöse und kompetente Produzenten und Anbieter stehen, so ist die Einspeisung von Informationen in das WWW prinzipiell von jeder Person möglich, der Speicherplatz auf einem Web-Server (i.d.R. Provider oder Arbeitgeber) zur Verfügung steht. Beim Betrachten der multimedialen WWW-Dokumente ist die inhaltliche Kompetenz der dahinterstehenden Autoren daher nur schwer abzuschätzen, oft können diese nicht einmal eindeutig bestimmt werden. Von einer Konsistenz im Sinne von Wiederauffindbarkeit, Aktualität oder gar Qualität der Informationsbestände im WWW kann nicht die Rede sein. Inhalte einzelner WWW Seiten oder deren URLs werden laufend verändert bzw. gelöscht. Die zentralen Technologien des WWW, das Übertragungsprotokoll HTTP und die Seitenbeschreibungssprache HTML bieten weder die Möglichkeit einer automatischen Aktualisierung der auf diese Seiten verweisenden Hyperlinks noch kann ein tatsächliches Erstellungs- bzw. Änderungsdatum für die Inhalte der einzelnen Dokumente identifiziert werden. Nützliche formal-inhaltliche Dokumentattribute wie Titel, Autor, Erscheinungsjahr usw. sind im WWW häufig nicht vorhanden oder unzutreffend und sind, wenn überhaupt, nur über die Inhalte der WWW Dokumente selbst ausfindig zu machen. Alle diese Eigenschaften erschweren zusätzlich zu der immensen im Web verfügbaren Dokumentenmenge die Suche und Lokalisierung von Informationen.
Auf der anderen Seite stehen Benutzer, die nach Eingabe weniger Suchbegriffe von den Suchmaschinen wahre Wunder in Form von relevanten Dokumenten erwarten. Jedoch ist die Dokumentmenge, die zu den eingegebenen Suchbegriffen passt, nicht selten so groß, dass es für die Benutzer zu aufwändig wäre sich alles anzuschauen. Die von den Suchmaschinen angewandten Sortierverfahren (Ranking), welche versuchen die relevantesten Dokumente unter den ersten Plätzen der Ergebnisseiten zu platzieren, scheitern zu oft an der großen "Ähnlichkeit" der Dokumente. Alternativ zu den Suchmaschinen können auch Web-Kataloge bzw. -Verzeichnisse verwendet werden, über die ganz bestimmte Interessensgebiete gezielt angesteuert werden können. Der größte Vorteil hierbei ist sicherlich der Kontext der gefundenen Informationen, der sich durch die ausgewählten Rubriken und Sachgebiete während der Navigation widerspiegelt. Nachteilig ist die sehr geringe Abdeckung des weltweiten Informationsraumes, da Kataloge im Gegensatz zu den Suchmaschinen die Quell-Informationen nicht automatisiert beziehen. Ganz anders hingegen Meta-Suchdienste, die selbst weder einen eigenen Index besitzen noch sich Gedanken über eine inhaltliche Strukturierung des Internet machen. Sie befragen ganz einfach andere Metainformationsdienste verschiedenster Art und sehen ihre Leistung in der benutzergerechten Zusammenführung der erhaltenen Treffermengen. Auch wenn die Suchoberflächen der im Internet befindlichen Suchdienste in der Regel mehrere der hier genannten Suchmöglichkeiten anbieten, die dahinter verborgenen Suchverfahren, vor allem die Gewinnung von Metainformationen, sind recht unterschiedlich.
- Source
- Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis