-
Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996)
0.10
0.09995948 = product of:
0.3998379 = sum of:
0.3998379 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
0.3998379 = score(doc=2137,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.9343763 = fieldWeight in 2137, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2137)
0.25 = coord(1/4)
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.10
0.09979961 = product of:
0.19959922 = sum of:
0.16659912 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.16659912 = score(doc=729,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.38932347 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.033000093 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.033000093 = score(doc=729,freq=8.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
-
Oeser, E.: Geschichte der Hirnforschung : Von der Antike bis zur Gegenwart (2002)
0.10
0.099397615 = product of:
0.19879523 = sum of:
0.038342647 = weight(_text_:und in 2402) [ClassicSimilarity], result of:
0.038342647 = score(doc=2402,freq=30.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.2847172 = fieldWeight in 2402, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2402)
0.16045259 = weight(_text_:herren in 2402) [ClassicSimilarity], result of:
0.16045259 = score(doc=2402,freq=2.0), product of:
0.5421551 = queryWeight, product of:
8.928879 = idf(docFreq=15, maxDocs=44421)
0.060719278 = queryNorm
0.2959533 = fieldWeight in 2402, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.928879 = idf(docFreq=15, maxDocs=44421)
0.0234375 = fieldNorm(doc=2402)
0.5 = coord(2/4)
- Footnote
- Rez. in: Spektrum der Wissenschaft 2003, H.3, S.106-108 (R.-B. Illing): "Die Hirnforschung ist eine der erfolgreichsten wissenschaftlichen Unternehmungen der Gegenwart«, stellt der Wiener Wissenschaftshistoriker Erhard Oeser fest, ihre Geschichte sei jedoch neben Erfolgsmeldungen auch durch »Irrtümer, Kontroversen und Grausamkeiten« gekennzeichnet. Oeser ist es in beispielhafter Weise gelungen, alle Dimensionen dieser Geschichte in flüssiger Sprache und zumeist sogar spannend aufzuweisen. Die Darstellung erfolgt chronologisch und beginnt mit der schon in Steinzeitkulturen praktizierten Schädelöffnung (Trepanation), die »in den Bereich der medizinischen Hirnforschung hinein« reicht. Forscher der klassischen Antike hatten durch Experimente an lebenden Schafen den Unterschied zwischen sensorischen und motorischen (Sinnes- und Bewegungs-)Nerven entdeckt. In den Hohlräumen im Gehirn, den Ventrikeln, vermuteten sie den Sitz des lebendigen Geistes (spiritus animalis). Nach einer kurzen Würdigung mittelalterlicher Lehren geht Oeser zu den neuen, von mechanistischen Funktionsvorstellungen geprägten Konzepten der Renaissance über. Dem 19. und 20. Jahrhundert ist jeweils ein ganzes Kapitel gewidmet. Über weite Passagen sind Oesers Ausführungen packend. Durch das ganze Buch zieht sich die Darstellung des mehrmaligen Wechsels zweier Grundauffassungen: Jede Leistung des Gehirns sei in einem bestimmten Areal lokalisiert (diese Auffassung nahm immer dann Aufschwung, wenn ein solches Areal entdeckt wurde); und im Prinzip sei jedes Stück Hirngewebe, vor allem in der Großhirnrinde, zu jeder Leistung fähig (»Äquipotenzialität«). Der Leser erfährt, welche Irrwege begangen wurden, bis der Zusammenhang von tierischer mit neuronaler Elektrizität zu Tage trat. Mit viel Sorgfalt werden Aufstieg und Fall der Phrenologie geschildert. Oeser beschreibt nicht nur, worüber die frühen Hirnforscher Santiago Ramón y Cajal (1852-1934) und Camillo Golgi (1843-1926) stritten, ob nämlich eine Nervenzelle ein strukturell autonomes Gebilde oder übergangslos mit ihresgleichen verbunden sei, sondern berücksichtigt auch die emotionale Dynamik dieses Teils der Geschichte. Gegen Ende seines Buches gibt Oeser eine Übersicht über die moderne Hirntod-Debatte. Bemerkenswert ist auch die Dokumentation der zahllosen Grausamkeiten, die im Namen der Hirnforschung begangen wurden. In der Antike wurden nicht nur Verstümmelungen lebender Tiere, sondern auch Experimente an Verbrechern, »solange sie noch atmeten«, durchgeführt. Einige Forscher konnten ihre Vivisektionen nur mit Mühe vor sich selbst rechtfertigten, indem sie die Legitimität ihres Wissensdurstes beteuerten. Besonders grausam ging Friedrich L. Goltz (1834-1902) zu Werke, der große Teile des Gehirns von Hunden »mit Brunnenwasser« ausspülte, um zu erfahren, welche ihrer Verhaltensweisen danach noch übrig blieben. Oeser zitiert hier den Hirnforscher Roger Sperry (1913-1994), der die Geschichte seiner eigenen Wissenschaft als »Liste schwerer Straftaten« bezeichnet hat. Oeser beeindruckt über weite Strecken durch die Präzision seiner Quellenarbeit und die differenzierte Darstellung divergierender Standpunkte. An vielen Stellen hat er dabei bisher unbekannte oder wenig beachtete historische Aspekte zu Tage gefördert und durch gut ausgewählte Zitate illustriert. Wichtige Entwicklungen werden jedoch übergangen. Zum Beispiel fehlen Hinweise auf die Psychophysik des 19. Jahrhunderts. Seine Darstellung der Geschichte der Hirnforschung im 20. Jahrhundert enthält nur am Rande eine Passage über das für die moderne Hirnforschung fundamentale Konzept des rezeptiven Feldes. Auch die Entwicklung zur heute dominierenden Vorstellung des Gehirns als informationsverarbeitendes Netzwerk wird nur gestreift. Bedauerlicherweise verweist Oeser bei der Behandlung der letzten fünfzig Jahre oft nur noch auf Sekundärliteratur.
Einige Feststellungen in diesem Buch hinterlassen einen skeptischen Leser. Im Dunkeln bleiben die Grundlagen für die Behauptung, »dass das Menschengehirn jenes organische System ist, das an Komplexität und Dynamik alle anderen Systeme im Universum weit übertrifft«. Ein Wissenschaftstheoretiker vom Schlage Oesers sollte wissen, dass die Voraussetzungen für eine Begründung dieser Aussage unerfüllbar sind. Auch die am Schluss des Buches auftauchende Feststellung, dass uns unser ebenso großartiges wie verletzbares Gehirn »zum Herren dieser Erde« gemacht hat, ist unnötig und vermutlich falsch: Erfolgreicher und nachhaltiger wird unser Planet von hirnlosen Bakterien bevölkert. Vergeblich sucht der Leser in diesem Buch nach Argumenten dafür, dass Wissenschaftsgeschichte zu studieren mehr ist als ein Selbstzweck. Oeser nimmt für sich in Anspruch, »eine Rekonstruktion des naturwissenschaftlichen Weges der menschlichen Selbsterkenntnis« vorzulegen. In welcher Weise dies aber über ein Geschichtenerzählen hinausgehen kann, wird nicht erläutert. Als Erkenntnistheoretiker hätte Oeser den Versuch wagen sollen, explizit zu zeigen, welche besonderen Einsichten man in einen Gegenstand wissenschaftlichen Bemühens gewinnt, wenn man seine Entdeckungsgeschichte erforscht. So aber bleibt er der Einschätzung schutzlos ausgesetzt, aus der Geschichte könne man nichts lernen, denn in ihr gebe es Beispiele für alles. Für all jene aber, für die eine Beschäftigung mit der Wissenschaftsgeschichte selbstverständlich ist, hat Oeser ein hocherfreuliches Buch voller interessanter Details und bemerkenswerter Zusammenhänge geschrieben."
-
Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996)
0.10
0.098292224 = product of:
0.19658445 = sum of:
0.1332793 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
0.1332793 = score(doc=2567,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.31145877 = fieldWeight in 2567, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.063305154 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
0.063305154 = score(doc=2567,freq=46.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.47007886 = fieldWeight in 2567, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.5 = coord(2/4)
- Abstract
- Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
- Classification
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
- RVK
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
-
Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998)
0.10
0.09758902 = product of:
0.19517805 = sum of:
0.16659912 = weight(_text_:java in 617) [ClassicSimilarity], result of:
0.16659912 = score(doc=617,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.38932347 = fieldWeight in 617, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.02857892 = weight(_text_:und in 617) [ClassicSimilarity], result of:
0.02857892 = score(doc=617,freq=6.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.21221566 = fieldWeight in 617, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.5 = coord(2/4)
- Abstract
- Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
-
Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996)
0.09
0.091334656 = product of:
0.18266931 = sum of:
0.1332793 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
0.1332793 = score(doc=2121,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.31145877 = fieldWeight in 2121, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.049390018 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
0.049390018 = score(doc=2121,freq=28.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.36675057 = fieldWeight in 2121, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.5 = coord(2/4)
- Content
- Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.09
0.091334656 = product of:
0.18266931 = sum of:
0.1332793 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.1332793 = score(doc=346,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.049390018 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.049390018 = score(doc=346,freq=28.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Kaube, J.: Browser, Server, E-Mail gegen Gelbe Seiten, Kühlschrank und Telefon : Lesen und surfen lassen: Die Stiftungen der Medienkonzerne Bertelsmann und AOL Time Warner veranstalten eine Tagung über "21st Century Literacy" in Berlin (2002)
0.09
0.090908 = product of:
0.181816 = sum of:
0.04810549 = weight(_text_:und in 1259) [ClassicSimilarity], result of:
0.04810549 = score(doc=1259,freq=68.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.3572122 = fieldWeight in 1259, product of:
8.246211 = tf(freq=68.0), with freq of:
68.0 = termFreq=68.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1259)
0.1337105 = weight(_text_:herren in 1259) [ClassicSimilarity], result of:
0.1337105 = score(doc=1259,freq=2.0), product of:
0.5421551 = queryWeight, product of:
8.928879 = idf(docFreq=15, maxDocs=44421)
0.060719278 = queryNorm
0.24662776 = fieldWeight in 1259, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.928879 = idf(docFreq=15, maxDocs=44421)
0.01953125 = fieldNorm(doc=1259)
0.5 = coord(2/4)
- Content
- "Ohne Telefon werden Sie sich in diesem Jahrhundert nicht zurechtfinden. Wer kein Telefon hat, verliert in der Gesellschaft, die gerade entsteht, den Anschluß. Noch immer aber telefonieren manche Menschen gar nicht oder nur ungern. Telefonieren können, Telefonate richtig einzusetzen und Durchtelefoniertes richtig zu interpretieren, all das ist für die individuelle Leistungsfähigkeit und damit das Wohlbefinden der Menschen entscheidend. Das Telefonieren leistet einen entscheidenden Beitrag zur Demokratie, weil sich die Bürger, seitdem es Telefone gibt, melden können, wann immer sie wollen. Die Forderung des Tages lautet auch darum: Telefone für alle. Hier ist der Staat gefordert, in den Schulen muß Telefonieren auf den Stundenplan, alle Schulen müssen ans Telefon. Dabei muß jeder Bürger wissen, daß auch nach der Schulausbildung lebenslanges Telefonieren für sein Fortkommen von entscheidender Bedeutung sein wird. Man könnte die Telefone in diesen Behauptungen auch durch andere wichtige Geräte wie Uhren oder Automobile ersetzen. Die Behauptungen würden dadurch nicht richtiger und nicht falscher. Irgendwie, so der Eindruck, sind sie richtig. Ohne Telefone, Uhren, Pkw wäre vieles schwieriger und vieles gar nicht möglich. Mit solchen Maschinen umzugehen gehört zum modernen Alltag. Zugleich wirken solche Sätze aber auch ziemlich übertrieben, vor allem wenn sie aus Nützlichkeit und Verbreitung einer einzelnen neuen Technologie auf einen gesellschaftlichen Umbruch schließen. Und gerade weil so viele Technologien inzwischen unentbehrlich geworden sind, läge eine ungeheure Einseitigkeit darin, von unserer Epoche als dem Zeitalter des Telefons, der elektrischen Beleuchtung, dem des Kühlschranks oder dem des Transistors zusprechen. Sobald man die Telefone in jenen Sätzen aber durch das Internet ersetzt, erhält man Formulierungen, die gegenwärtig auch dann nicht mehr begründungsbedürftig sind, wenn sie nur noch aus undurchdachten Übertreibungen bestehen. Sätze, wie sie jetzt auf einer Tagung über "21st Century Literacy", die Bildungserfordernisse der Gegenwart, auf höchster Ebene bekräftigt wurden. Die Stiftungen der Medienkonzerne Bertelsmann und AOL Time Warner hatten Spitzenpersonal aus Wirtschaft, Politik und Erziehung nach Berlin eingeladen, um sich hieran zu beteiligen. Schon zu Beginn des Treffens wurden ihm - so schnell geht es zu im Informationszeitalter - Ergebnisse in Form eines Berichts der Stiftungen über "Bildung im Zeitalter konvergierender Medienwelten" in die Hand gedrückt. Darin finden sich alle Gemeinplätze gegenwärtiger Begeisterung durchs Internet in dankenswerter Komprimierung: Ohne Nutzung des Internets wird sich bald niemand mehr auf dieser Welt zurechtfinden. Die digitale Technik steigert, sofern richtig und umfassend genutzt, unsere Effektivität im Beruf, macht die Politik demokratischer, die Bürger mündiger, erhöht die Lebensqualität, das Wissen und das Wirtschaftswachstum. Das soll das Internet aber nur können, wenn die Bevölkerung noch einmal alphabetisiert wird. Denn angeblich verändern die neuen Informationstechnologien alles, was bisher über Wissen gewußt und über Denken gedacht wurde. Zwar mag der Benutzer jener Informationsmaschinen den eigentlich beruhigenden Eindruck gewonnen haben, mit älteren Kulturtechniken wie Lesen, Schreiben und dem Drücken von merkpflichtigen bunten Knöpfen ganz gut durchzukommen. Aber da täuscht er sich, den Verkäufern dieser Maschinen und ihrer Programme (AOL und Bertelsmann beispielsweise) zufolge. Denn es gibt jetzt viel mehr Grafiken, mehr bewegte Bilder, mehr Datenbanken. Man muß jetzt selbständig recherchieren, kommunikationsfähig sein, problemorientiert lernen. Und man denke: Auch nach dem Schulabschluß muß neuerdings weitergelernt werden.
Alles ändert sich also, dauernd, nur die Reklamesprüche derjenigen, die ihre Produkte damit anpreisen, wer nicht kaufe, bleibe zurück, weil sich ja alles dauernd ändere, bleiben erfreulich wiedererkennbar. Der wichtigste Spruch der Stunde, der sie alle bündelt, fordert "Medienkompetenz". Sie trete neben Lesen, Schreiben und Rechnen als vierte Schlüsselfähigkeit. Die Pisa-Studie wäre insofern unvollständig gewesen, hat sie doch überhaupt nicht untersucht, ob die Kinder auch das Internet richtig - der Bericht vergißt in solchen Zusammenhängen nie das Wort "kritisch" - benutzen können. Weil im Internet angeblich die Informationen auf neuartige Weise mitgeteilt werden, bedürfe es eigener Schulung dafür. Es werde die vordringliche Aufgabe von Erziehung, "den Umgang mit Myriaden von Veränderungen zu vermitteln". Inwiefern stellt aber die "Kenntnis von Browsern, Suchmaschinen, E-Mail" höhere und grundsätzlichere Anforderungen als diejenige von Gelben Seiten, Videorecordern und Bohrmaschinen? Wenn alles so neu, so revolutionär ist, mag man sich überdies fragen, wie etwa die Herren Schulte-Hillen (Bertelsmann), Case (AOL), Schröder (SPD) oder Glotz (SPD) es je vermochten, sich mit ihrer altbackenen Schulbildung, die nur Lesen, Schreiben und Rechnen umfaßte und ganz ohne Netzzugang erfolgte, auf diesen Stand allerneuester Wissensnutzung zu bringen. Oder surfen sie selber gar nicht? Wie aber halten sie dann Schritt mit dem Fortschritt? Gerhard Schröder jedenfalls dachte bei Medienkompetenz auch an das Vermögen, Bilder, vor allem die Wirkung ausgestrahlter Bilder, richtig einzuschätzen. Geschicktes Haarefärben oder entschiedene Handbewegungen beim Reden als Dokumente "visueller Kompetenz" waren freilich auch schon dem Ancien regime geläufig. Schröders Forderung, es solle das Bilderlesen in den Schulen eingeübt werden, stellt trotzdem das Ceterum censeo der Interneteuphoriker dar. Unter respektvoller Miterwähnung des Lesens von Geschriebenem als "immer noch" wichtiger Fähigkeit wird festgestellt: Der, natürlich kritische, Umgang mit Bildern muß eingeübt werden, denn mehr als achtzig Prozent der im Internet mitgeteilten Information liege in Bildform vor. Es wäre interessant zu wissen, wie weit bei solchen Berechnungen der Informationsbegriff gefaßt worden ist und ob er auch Bilder von Popstars und anderem Vernügungspersonal miteinschließt. Immerhin sollen nach wie vor "MP3" und "Sex" die häufigsten Suchwörter von Netzbenutzern sein.
- Footnote
- Den Schulen fehlen vielerorts die Mittel, um die Wände zu streichen, und die Lehrer, um regelmäßigen Unterricht zu gewährleisten - aber der Kanzler spricht im Verein mit den Wirtschaftsinteressenten davon, daß um der Medienkomptenz willen auch noch im letzten Klassenzimmer ein Computer stehen muß, wenn die Kinder eine Chance haben sollen. Der Stiftungsbericht warnt gar vor "sozialer Isolation", wenn nicht alle Schüler über die nötige Technik verfügten. Von ähnlicher pädagogischer Dignität sind Behauptungen wie die, "mit Hilfe der interaktiven Medien" könnten "Kinder heute die eigene Art des Lernens bestimmen". Unter den Teilnehmern des Podiums zu Bildungsfragen behielt angesichts solch erregender Aussichten nur die luxemburgische EU-Kommissarin für Bildung und Kultur, Viviane Reding, die Nerven und wies darauf hin, daß nach den Befunden der PisaStudie erst einmal für die alte Alphabetisierung gesorgt werden müsse. Neben den Schulen stellen sich die Medienkonzerne vor allem staatliche Verwaltungen als zweiten großen Kundenkreis vor. Dafür werden Worte wie "e-Government" geprägt. Gegen Steuererklärungen und Autozulassungen, die auf elektronischem Wege abgesandt werden, ist - von Datenschutzfragen vielleicht abgesehen - wohl so wenig einzuwenden wie gegen übersichtliche Websites von Behörden. Doch ähnlich wie in Bildungsfragen wird auch hier der Bürger für naiv gehalten, wenn er zusätzlich zu solchen technischen Erleichterungen gleich eine ganze Ideologie der Partizipation und Emanzipation durch PC-Benutzung mitübernehmen soll. Besonders tat sich hierbei in Berlin AOL-Chef Steve Case hervor. Die "digitale Demokratie" werde zu größerer Toleranz unter besser informierten Bürgern führen, die sich nun über alles, was sie angeht, mit ihren Nachbarn unterhalten könnten und endlich produktiv teilnehmen am öffentlichen Leben. Man durfte auch hier darüber nachdenken, welche ungeheueren Demokratisierungsschübe im zwanzigsten Jahrhundert vom Telefonieren ausgelöst wurden. Daß Diktatoren und Amnesty International, Pflanzenschützer und Kinderpornographen vom Internet profitieren, ist allzu offensichtlich, als daß man jemandem länger zuhören sollte, der das Gegenteil zur Prämisse seiner interessierten Euphorien macht."
-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.09
0.08950278 = product of:
0.17900556 = sum of:
0.1332793 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.1332793 = score(doc=6889,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.045726273 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.045726273 = score(doc=6889,freq=24.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.09
0.08950278 = product of:
0.17900556 = sum of:
0.1332793 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.1332793 = score(doc=1642,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.045726273 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.045726273 = score(doc=1642,freq=24.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
Urban, M.: ¬Die unheimliche Macht der Bilder : Nicht die Fakten, sondern unsere Vorstellungen von ihnen bewegen die Welt (2002)
0.09
0.08620328 = product of:
0.17240655 = sum of:
0.038696043 = weight(_text_:und in 2021) [ClassicSimilarity], result of:
0.038696043 = score(doc=2021,freq=44.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.2873414 = fieldWeight in 2021, product of:
6.6332498 = tf(freq=44.0), with freq of:
44.0 = termFreq=44.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2021)
0.1337105 = weight(_text_:herren in 2021) [ClassicSimilarity], result of:
0.1337105 = score(doc=2021,freq=2.0), product of:
0.5421551 = queryWeight, product of:
8.928879 = idf(docFreq=15, maxDocs=44421)
0.060719278 = queryNorm
0.24662776 = fieldWeight in 2021, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.928879 = idf(docFreq=15, maxDocs=44421)
0.01953125 = fieldNorm(doc=2021)
0.5 = coord(2/4)
- Content
- "Vor knapp zweitausend Jahren lebte im römischen Reich der von seinem Besitzer freigelassene Sklave Epiktetos, auch Epiktet genannt. Er hat die Erkenntnis formuliert: "Nicht die Dinge selbst beunruhigen die Menschen, sondern ihre Urteile und Meinungen über sie." Nicht die Fakten sind es, die uns bewegen, sondern die Bilder, die wir uns von ihnen machen. Epiktet erläuterte das: "So ist zum Beispiel der Tod nichts Furchtbares ... sondern nur die Meinung, er sei furchtbar, ist das Furchtbare." Dabei kannte Epiktet noch gar nicht die mittelalterlichen Bilder von der Hölle, die die Kirche ihren Gläubigen ausmalte. In den letzten Jahren haben Neurowissenschaftler gezeigt, warum die Erkenntnis des Epiktet zutrifft. Wir schaffen uns eine Welt im Kopf. Wir können gar nicht anders, als uns ständig Bilder zu machen. Wir sind gezwungen, auch dann, wenn die Informationen, die wir von der Welt haben, unvollständig sind, uns daraus ein Bild zu zeichnen. Das war einst überlebenswichtig: Unsere Ahnen haben schwarze und gelbe Streifen im Gebüsch zum Bild eines Tigers zusammengesetzt und sind vorsichtshalber weggelaufen. Heute versuchen auf dieselbe Weise etwa Astrophysiker, sich aus ein paar Daten ein Bild zu machen, zum Beispiel, wie es in einem Schwarzen Loch aussieht (falls es Schwarze Löcher geben sollte). Wir verwechseln allerdings ständig die Bilder, die wir uns machen - oder die wir übernehmen - und die unser Welt- Bild ausmachen, mit der Wirklichkeit. Die Bilder entfalten dann ein Eigenleben. So verhindert der gute - oder schlechte - Ruf, der jemandem vorauseilt, also das Bild von ihm, eine unvoreingenommene Einstellung. In einer vom Fernsehen bestimmten Gesellschaft ist für eine Politiker-Karriere entscheidend, wie der Mann oder die Frau "rüberkommt", also nicht die Person, sondern ihr Bild in der Öffentlichkeit. Folgerichtig behauptet zum Beispiel der "Medienprofi" Gerhard Schröder, das Beste, was ihm als Bundeskanzler im Wahlkampf passieren könne, sei, dass sein weniger medienbegabter Herausforderer Edmund Stoiber möglichst oft im Fernsehen auftrete. Bereits der Ahne des Homo sapiens, genannt Homo ergaster (früher sprach man von Homo erectus), hatte die Fähigkeit, sich Bilder zu machen, vor anderthalb Millionen Jahren entwickelt. Die Innovation "Faustkeil" verlangte nämlich erstmals, dass der Hersteller sich die Form seines künftigen Werkzeugs vorstellte - also bereits ein Bild davon hatte -, ehe er begann, sie aus dem großen Kiesel herauszuschlagen; im Prinzip nicht anders als Michelangelo, der vor vierhundert Jahren aus einem Marmorbrocken die Skulptur des David schuf. Auch Worte sind Bilder, die Sprache ist eine Abstraktion von Bildern. Die Sprache einer Gemeinschaft bestimmt - auch in ihrer Beschränktheit - deren Weltbild. Wo die Worte fehlen, können auch bestimmte Aspekte der Wirklichkeit nicht abgebildet werden. Und umgekehrt: Bilder sprechen nicht an, wenn sie eine fremde Wirklichkeit abbilden. Als im frühen Mittelalter Missionare den Grönländern das Fegefeuer als postmortale Strafanstalt eindringlich schilderten, waren die Heiden begeistert von der Aussicht, nach dem Tode die kalte Heimat verlassen und in der warmen Hölle sitzen zu dürfen. Die Mathematik ist ebenfalls eine Sprache, die etwas abbildet; eine Sprache, die sich im Laufe der Menschheitsgeschichte entwickelt hat und damit erst bestimmte Aspekte der Wirklichkeit zu sehen erlaubt. Kaiser Karl der Große beherrschte im 9. Jahrhundert ein Reich, das etwa so groß war wie die Europäische Union heute. In der damaligen globalen Wirtschaft gab es zwar längst schon das Geld, aber noch keinen Finanzminister, der mit Hilfe der doppelten Buchführung "Soll" und "Haben" im Kaiserreich hätte identifizieren können.
Aristoteles hatte andere Bilder. Er verwendete die auch heute bei Physikern gebräuchlichen Begriffe, etwa das Konzept von "Bewegung", in einem viel umfassenderen Sinn als später etwa Galileo Galilei oder Isaac Newton. Kuhn hat aus seinen Erfahrungen mit Aristoteles, den er zunächst so entsetzlich falsch verstanden hatte, grundsätzliche Erkenntnisse gewonnen. "Wissenschaftliche Revolutionen" entstehen, wie Kuhn entdeckte, so, dass sich in ihnen das mit der Sprache als solcher - auch schon der alltäglichen - unabdingbar verbundene Wissen über die Natur verändert. Vor einer solchen Revolution stand jeweils "die Sprache der Entdeckung und Verbreitung der gesuchten neuen Theorien im Wege". Voraussetzung für jeden wissenschaftlichen Fortschritt ist, dass man sich der Begrenztheit durch die Bilderwelt, in der man befangen ist, bewusst wird. Denn sonst kann aus einem wissenschaftlichen (wie jedem anderen) WeltBild Aberglauben werden. Auch dafür ein Beispiel: Im Jahre 1857 begann der Augustinermönch Johann "Gregor" Mendel im Klostergarten von Brünn Erbsen anzupflanzen. Was er nach acht Jahren entdeckt hatte, war buchstäblich weltbewegend, obgleich es zunächst nicht danach aussah: Wenn der Mönch sortenreine großwüchsige und zwergwüchsige Erbsen miteinander kreuzte, brachten sämtliche daraus entstehenden Samen großwüchsige Pflanzen hervor. Die Eigenschaft "Kleinwüchsigkeit" schien verschwunden. Wenn Mendel nun die Bastard-Pflanzen jeweils mit sich selbst befruchtete, war auf einmal alles anders: Ein Viertel der Samen entwickelte sortenreine Zwergpflanzen, ein weiteres Viertel sortenreine großwüchsige Erbsen und die Hälfte waren großwüchsige, nicht sortenreine Erbsenpflanzen. Der Mönch und spätere Abt von Brünn, ein Studienversager und eben mal bloß "Erbsenzähler", hatte entdeckt, was wir heute die Mendel'schen Gesetze der Vererbung nennen. Die Biologen verinnerlichten das Bild aus dem Erbsen-Garten - auf fatale Weise. Auf der internationalen Hygieneausstellung in Dresden anno 1911 wurden analog zu den Bildern von Gregor Mendel Tabellen ganz anderer Art aufgestellt: Die Tochter eines "Verbrechers" hat zwei Söhne, der eine wird ein normaler Pfarrer, der andere ein "Sonderling, tüchtiger Kaufmann, sehr eigensinnig".
Von dessen fünf Kindern ist ein Mädchen "normal", zwei Jungen sind "geisteskrank", der andere "sehr intelligent, Tyrann, Psychopath, hat es als Kaufmann weit gebracht, an der Grenze des Zuchthauses gestreift, jetzt Dementia senilis". Jener "normale Pfarrer" heiratete eine Frau mit "Defekt des Taktgefühls". Von den acht aus dieser Ehe hervorgehenden Kindern wurde einem Jungen "moralische Idiotie" attestiert.Man könnte heute darüber lachen, wenn es die Genetiker der ersten Hälfte des letzten Jahrhunderts nicht so blutig ernst gemeint hätten. Denn diese Herren Anthropologen oder "Rassenhygieniker", wie sie sich auch nannten, bekamen in der Zeit des Nationalsozialismus die Macht, ihre akademischen Vorstellungen auszuleben, Stichwort Euthanasie. Die menschliche Rasse, so glaubten sie, verhalte sich wie die Erbsen in Mendels Garten. Es machte also keinen Unterschied, ob eine Blüte blau oder rot ist, oder ein Mensch Trinker oder tuberkulosekrank, oder schwarz oder blond. Das Erbsenbild entfaltete ein unrühmliches Eigenleben: Schlechte Anlagen kann und muss man ausrotten, wie die Zwergwüchsigkeit der Erbse, indem man die Träger solcher Anlagen mindestens sterilisiert, sodass sie sich nicht mehr vermehren können. Die Wahnvorstellungen der Medizin in der ersten Hälfte des 20. Jahrhunderts waren zunächst weltweit verbreitet. Spezifisch deutsch war dann das Bild von der "Höherwertigkeit" der weißen Rasse und der "Minderwertigkeit" aller anderen, vor allem aber der Juden. Man sieht, die Erkenntnis des Epiktet ist bis heute aktuell geblieben. Wir machen uns Bilder und inszenieren uns und die Welt ständig neu. Dies zu wissen, ändert nichts daran, denn, wie gesagt, so funktioniert unser Gehirn. Die größten künstlerischen und intellektuellen Leistungen des Menschen beruhen darauf, dass er sich Bilder macht. Aber er ist auch verführbar von den Bildern, die sein Welt-Bild ausmachen, wenn diese sich selbständig machen und zu Ideologien werden. Entmythologisierung und Aufklärung sind deshalb notwendige und niemals endende Prozesse im individuellen und gesellschaftlichen Leben wie in der Wissenschaft."
-
Internet: The editor's choice (2002)
0.08
0.08329956 = product of:
0.33319825 = sum of:
0.33319825 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.33319825 = score(doc=1854,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.08
0.077463254 = product of:
0.15492651 = sum of:
0.116619386 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
0.116619386 = score(doc=6206,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.2725264 = fieldWeight in 6206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.038307127 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.038307127 = score(doc=6206,freq=22.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.5 = coord(2/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
-
Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000)
0.08
0.07521996 = product of:
0.15043992 = sum of:
0.09995948 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
0.09995948 = score(doc=1729,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.23359407 = fieldWeight in 1729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.050480437 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
0.050480437 = score(doc=1729,freq=52.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.3748476 = fieldWeight in 1729, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.5 = coord(2/4)
- Abstract
- In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
-
Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006)
0.07
0.07472981 = product of:
0.14945962 = sum of:
0.09995948 = weight(_text_:java in 195) [ClassicSimilarity], result of:
0.09995948 = score(doc=195,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.23359407 = fieldWeight in 195, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.04950014 = weight(_text_:und in 195) [ClassicSimilarity], result of:
0.04950014 = score(doc=195,freq=50.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.3675683 = fieldWeight in 195, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.5 = coord(2/4)
- Abstract
- Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
- Content
- Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
-
Urban, M.: Missverständnisse (2004)
0.07
0.07435529 = product of:
0.14871058 = sum of:
0.041742183 = weight(_text_:und in 3419) [ClassicSimilarity], result of:
0.041742183 = score(doc=3419,freq=80.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.3099608 = fieldWeight in 3419, product of:
8.944272 = tf(freq=80.0), with freq of:
80.0 = termFreq=80.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=3419)
0.106968395 = weight(_text_:herren in 3419) [ClassicSimilarity], result of:
0.106968395 = score(doc=3419,freq=2.0), product of:
0.5421551 = queryWeight, product of:
8.928879 = idf(docFreq=15, maxDocs=44421)
0.060719278 = queryNorm
0.1973022 = fieldWeight in 3419, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.928879 = idf(docFreq=15, maxDocs=44421)
0.015625 = fieldNorm(doc=3419)
0.5 = coord(2/4)
- Abstract
- Unser Gehirn ist darauf spezialisiert, Ordnung in die wahrgenommenen Dinge zu bringen. Oft irrt es sich dabei - und wir merken nichts davon.
- Content
- "Die große Menge wird mich nie begreifen, die Pfeifen«, weiß der Dichter Robert Gernhardt. Verkannt zu sein ist kein Vorrecht des Genies, nicht verstanden zu werden ist vielmehr ein Normalzustand. Wenn man jemanden ganz genau zu kennen glaubt, dann erstens sich selbst und zweitens den langjährigen Partner. Doch das ist Wunschdenken. Nicht einmal uns selbst können wir verstehen. Die Begründungen, die wir für unser Tun im Nachhinein liefern, sind nicht zuverlässiger als unsere Interpretationen der Handlungsweisen anderer Menschen. Die wahren Gründe entspringen unserem Unbewussten. Das postulierte schon Sigmund Freud. Unsere eigenen Erklärungen für unser Handeln, so Freud, sind lediglich »Rationalisierungen«. Und mit der Dauer einer Beziehung »wächst lediglich die Zuversicht, mit der die Partner glauben, einander zu kennen«, weiß der Psychologe Georg Felser von der Universität Trier. »Missverstehen wir uns richtig« hieß einst ein Kabarettprogramm der Münchner Lach- und Schießgesellschaft. Tatsächlich bestimmen Unverständnis und Missverständnisse das Zusammenleben der Menschen. Nicht einmal die anscheinend doch völlig eindeutigen Wörter »Ja« und »Nein« verstehen alle Menschen stets gleich. Man weiß zum Beispiel, dass in Beziehungen ein Nein manchmal auch Ja heißen kann und umgekehrt. In manchen Gesellschaften ist es Konvention, dass ein Gast sich mehrmals nötigen lassen muss, ehe er die Frage der Gastgeberin, ob er denn noch etwas zu essen haben wolle, nach mehrmaligem Nein endlich mit Ja beantwortet. In einer Gesellschaft, wo das erste Nein auch Nein bedeutet, verhungert ein Gast mit derartiger Sozialisation leicht. In komplexeren Situationen ist das gegenseitige Nicht-Verstehen eher die Regel und gewiss nicht eine Frage der Intelligenz. Es gibt berühmte, schwer wiegende Missverständnisse wie das zwischen Werner Heisenberg und Niels Bohr. Der deutsche Physiker wollte mitten im Zweiten Weltkrieg seinem dänischen Kollegen vermitteln, dass die deutschen Wissenschaftler die Atombombe nicht bauen wollten, der Däne verstand das Gegenteil und sorgte mit dafür, dass die USA die Bombe bauten. Erst in jüngster Zeit beginnen wir als Ergebnis der Gehirnforschung zu begreifen, was die Kommunikation so schwer macht. Offensichtlich erinnern wir uns besonders gut an das, was uns überrascht - der bekannte Aha-Effekt. Je stärker das Erlebnis mit Emotionen verbunden ist, desto weniger leicht vergisst man es. Unser Kopf steckt voller Erinnerungen, und was immer dazu kommt, wird im Lichte dieser Erfahrungen gespeichert. Aber im Gegensatz zum Volksglauben nicht etwa jeweils in einer einzelnen »Schublade«, sondern es wird sozusagen unter verschiedenen Stichworten in verschiedenen Hirnarealen archiviert. Jedes Wort, das wir kennen und verwenden, hat für uns eine persönliche, eine familiäre, eine gesellschaftliche, unter Umständen sogar eine zeitgeschichtliche Biografie.
Vieldeutige Bedeutungen Das Wort DDR zum Beispiel klingt heute anders als vor 1989, obendrein anders für einen SED-Funktionär als für einen Mauerflüchtling, anders für einen Ossi als für einen Wessi. Und selbst ein simpler Versprecher wie der, jemand habe die Universität erfolgreich observiert (statt absolviert), wird wohl leichter einem Ostdeutschen mit »Vergangenheit« als einem Westdeutschen passieren. Das Gleiche gilt auch für den persönlichen Wortschatz: Mit dem Wort »Hund« assoziiert der eine den Freund der Familie aus Kindertagen, der andere die Bestie, die ihn gebissen hat, der Dritte den Kläffer des Nachbarn, der Vierte den Kothaufen, in den er jüngst getreten ist, der Fünfte die Versuchstiere der Pharmaindustrie: Konfrontiert mit dem Wort »Hund« tauchen die damit verknüpften Gedächtnisinhalte aus verschiedenen Orten im Gehirn in ihrer individuellen Tönung auf. Wir speichern Erinnerungen unter verschiedenen Stichworten; das zeigt sich auch daran, dass immer wieder bereits vergessen Geglaubtes unerwartet und in einem uns überraschenden Zusammenhang wachgerufen wird. Noch vor Jahrzehnten ungeahnte Techniken ermöglichen uns heute die globale Kommunikation. Allerdings: Die Bedeutung eines Wortes, eines Satzes, lässt sich nicht mit seiner noch so perfekten Übertragung kommunizieren. Sie lässt sich nur mehr oder minder gut erschließen. Jeder Mensch lebt in seiner eigenen, durch seine individuelle Biografie bestimmten Welt, und die unterscheidet sich von den Welten der Mitmenschen. »Letztlich kann niemand seine private Weltsicht verlassen«, sagt der Bremer Gehirnforscher Gerhard Roth. Sehr selten gelingt es, gewissermaßen exemplarisch eine allgemeine Wahrheit auszudrücken, etwa in einem Gedicht. Doch nur wenige Gedichte bleiben »zeitlos« gültig. Das gilt noch ausgeprägter für die Satire. Wer Aufzeichnungen von Kabarettprogrammen, über die er sich einst halbtot gelacht hat, Jahrzehnte später wieder hört, ist nicht selten sehr enttäuscht. Jeder Publizist weiß, dass die von ihm geschaffene Logik der Absätze, der Kapitel des Geschriebenen etwas Künstliches haben muss. Wenn er sich ausführlich genug verbreiten kann, hilft er sich damit, zu schreiben, dass er auf einen Gedanken in anderem Zusammenhang zurückkommen werde. Ein Zeitungskommentator kann das nicht, er muss zuspitzen und kann deshalb grundsätzlich auch nur punktuelle Wahrheiten verbreiten - was freilich sehr sinnvoll ist, wenn er sein Geschäft versteht. Dazu kommt etwas Prinzipielles, das mit der Sprache unvermeidbar verbunden ist: Jeder Satz, den wir formulieren, ist bereits eine Vereinfachung und damit Verfälschung der Wirklichkeit. Denn die Strukturen der Kommunikation werden gewaltsam linearisiert. Wir sprechen in Sätzen, schreiben Zeile für Zeile. Doch die Welt ist nicht linear strukturiert. In unserem Kopf gibt es nur auf hochkomplexe Weise miteinander verschaltete Bilder der Welt. Und in jedem Menschen entstehen andere Bilder. Bestimmte Weisen des Missverstehens sind also systemimmanent. In den Anfangsjahren der Elektrifizierung hat, so wird erzählt, der deutsche Kaiser Wilhelm II. in Berlin einmal ein Werk der Firma Siemens besucht. Die Werksleitung gab sich viel Mühe, dem Kaiser zu erklären, was Elektrizität mit der Bewegung von Elektronen zu tun hat. Majestät glaubte, alles verstanden zu haben; nur nicht, wie man durch die Stromleitungen so unsichtbar feine Löcher bohren könne, dass die Elektronen durch sie hindurchfließen. Die Herren von Siemens waren amüsiert. Jahrzehnte später haben die Festkörperphysiker das Bild des »Lochs«, das dem Kaiser ganz automatisch gekommen, aber eben falsch war, zur Erklärung dessen, was in »Leitungsbändern« passiert, neu erfunden.
Die Wahrheit des Gegenteils Wenn heute jemand etwas überhaupt nicht versteht, sagt er wohl: »Ich verstehe immer nur Bahnhof.« Dieses geflügelte Wort hatte am Ende des Ersten Weltkriegs, als es entstand, eine durchaus zu verstehende Bedeutung. Die deutschen Landser hatten damals nichts anderes mehr im Sinn, als zum nächsten Bahnhof und heil nach Hause zu kommen. Und bei allem, was ihnen sonst noch gesagt wurde, wollten sie nur das eine hören: »Bahnhof«. Überdies ist bei allem, was wir sagen und schreiben, immer auch ein bisschen das Gegenteil wahr, wie bereits die alten Chinesen wussten: Das Yin ist im Yang enthalten und umgekehrt. Ein Ehepaar, schrecklich zerstritten, kommt zum Psychotherapeuten. Dieser lässt zunächst die Frau zu Wort kommen und bemerkt am Ende von deren Klagelied: »Sie haben Recht.« Anschließend trägt der Mann seine Klagen vor und hört zum Schluss vom Therapeuten ebenfalls: »Sie haben Recht.« Die Anekdote geht dann so weiter, dass das Ehepaar gemeinsam den Therapeuten angreift: »Sie können doch nicht jedem von uns Recht geben!«, worauf dieser antwortet: »Da haben Sie auch wieder Recht.« Dahinter steckt die Weisheit, dass beide Partner mit ihrer subjektiven Wahrheit Recht haben. Auseinandersetzungen sind deshalb so bitter, weil häufig beide Gegenpositionen richtig sind. Es stimmt eben nicht, dass man die Welt in Gut und Böse einteilen kann, wie es Menschen, die sich selbst für fromm und gut halten, zu allen Zeiten gerne sähen. Niels Bohr hat einmal - so zitiert ihn sein Schüler Werner Heisenberg - formuliert: »Das Gegenteil einer richtigen Behauptung ist eine falsche Behauptung. Aber das Gegenteil einer tiefen Wahrheit kann wieder eine tiefe Wahrheit sein.« Lediglich auf so hochabstrakter Ebene wie der Mathematik gibt es Eindeutigkeit. Nur die Sprache der Mathematik ist universell, während jeder Dolmetscher weiß, dass es zwischen historisch gewachsenen Sprachen keine Eins-zu-eins-Übersetzung gibt.
Es fällt dem Menschen unheimlich schwer, einzusehen oder gar zuzugeben, dass er rationalisiert. Das ist auch keine Laune der Natur, sondern etwas für die menschliche Existenz Fundamentales. Neuerdings kann man erklären, warum das so ist. »Unser Denkapparat ist gar nicht in der Lage, Unsinniges festzuhalten, und versucht daher, alles Wahrgenommene mit einer Bedeutung zu belegen«, sagt der Bonner Neurophysiologe Detlef B. Linke. Und so interpretieren wir permanent die Welt. Dieses ewige Suchen nach dem Warum, die Kunst der Interpretation von Fakten - selbst wenn man diese nicht genau kennt - ist lebensnotwendig. Wenn die Ahnen des Menschen im Gebüsch zwei Punkte nebeneinander im Lichtschein aufblitzen sahen, interpretierten sie diese als die Augen eines Raubtiers und liefen vorsichtshalber weg, selbst wenn es nur zwei harmlose Lichtpunkte waren. Andernfalls hätten die Menschen nicht überlebt. Indem sich das Gehirn nicht damit begnügt, Ereignisse zu beobachten, sondern sie unentwegt deutet und nach Ursachen fragt, kann es im Wiederholungsfall besser damit fertig werden. Die Frage nach dem Warum und die Suche nach Antwort ist, aus scheinbar einfachen Zusammenhängen entstanden, die immer wieder auftauchende Grundfrage des menschlichen Lebens geworden. Der eine Teil der Menschheit - der Polizist wie der Publizist - lebt von der Interpretation der Taten und Motive des anderen Teils. In der Welt geht es freilich nicht nur sinnvoll zu. Dort, wo sich gleichartige Ereignisse häufen, ob beim Lottospiel oder im Straßenverkehr, herrschen die Gesetze der Statistik. Der einzelne Mensch hat keinen Sinn für »Zufall« - im Gegenteil, er sucht ja in allem eine Bedeutung. Das hilft ihm!einerseits, versteckte Bezüge zu erkennen. Er ist allerdings andererseits auch anfällig dafür, Zusammenhänge zu sehen, wo es einfach keine gibt, und den blinden Zufall bedeutungsschwer wahrzunehmen. So gibt es nicht wenige Menschen, die Zahlen eine solche Bedeutung zumessen - und ihren Hochzeitstag etwa auf den 20.03.2003 oder den 20.04.2004 legen. Großartige Zufallstreffer und peinliche Irrtümer Manche große Entdeckung beruht darauf, dass jemand etwas wahrnimmt, was andere zwar auch sehen, aber nicht gebührend beachten. Der schottische Bakteriologe Alexander Flemming ließ 1928 eine Schale mit einer Bakterienkultur versehentlich im Labor offen stehen. Es bildeten sich darauf Flecken von Schimmelpilzen. Flemming wollte die Schale bereits wegwerfen, da bemerkte er um die Flecken herum eine bakterienfreie Zone. Er vermutete richtig, dass der Schimmelpilz eine Bakterien tötende Substanz absondern müsse - und nannte diese, noch ohne sie näher zu kennen, Penicillin. Das war der Ausgangspunkt einer wissenschaftlichen Revolution, der Entwicklung von Antibiotika.
Man kann sich natürlich auch irren, wie jener bayerische Bub, der einen zweiten Sohn Gottes neben Jesus entdeckt zu haben glaubte. Heißt es doch in dem beliebten Weihnachtslied »Stille Nacht, heilige Nacht, Gottes Sohn, o wie lacht ...« Weil die Bayern einst die so genannte Lautverschiebung nicht mitgemacht haben und deshalb das W leicht mit einem B verwechseln, verstand der Junge: » ... Gottes Sohn, Obi, lacht.« Dabei ist Obi doch nur ein Heimwerkergeschäft ohne jeden transzendentalen Bezug. Obwohl wir extrem anfällig für Irrtümer und Missverständnisse sind, tut das unserem Selbstvertrauen keinen Abbruch. Wir halten uns gerne für klüger, als wir sind. Und das umso mehr, je weniger Grund wir dazu haben. Denn, wie der US-Psychologe David Dunning vor wenigen Jahren als Ergebnis seiner Untersuchungen feststellte: Die Fähigkeiten, welche Kompetenz ausmachen, sind dieselben, die auch die Grenzen der eigenen Kompetenz erkennen lassen. Das heißt umgekehrt: Wer sich für besonders fähig hält, ist zu dumm, seine eigene Unfähigkeit zu erkennen. Der Philosoph Bertrand Russel klagte: »Das ist der ganze Jammer: Die Dummen sind so sicher und die Gescheiten so voller Zweifel«."
-
Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998)
0.07
0.06663965 = product of:
0.2665586 = sum of:
0.2665586 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
0.2665586 = score(doc=6134,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.62291753 = fieldWeight in 6134, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6134)
0.25 = coord(1/4)
- Abstract
- Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java
-
Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004)
0.06
0.064616874 = product of:
0.12923375 = sum of:
0.08329956 = weight(_text_:java in 3183) [ClassicSimilarity], result of:
0.08329956 = score(doc=3183,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.19466174 = fieldWeight in 3183, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.045934185 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
0.045934185 = score(doc=3183,freq=62.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.34108895 = fieldWeight in 3183, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3183)
0.5 = coord(2/4)
- Abstract
- Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
- Content
- "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
-
Strzolka, R.: ¬Das Internet als Weltbibliothek : Suchmaschinen und ihre Bedeutung für den Wissenserwerb (2008)
0.06
0.064616874 = product of:
0.12923375 = sum of:
0.08329956 = weight(_text_:java in 3331) [ClassicSimilarity], result of:
0.08329956 = score(doc=3331,freq=2.0), product of:
0.42791957 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.060719278 = queryNorm
0.19466174 = fieldWeight in 3331, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.045934185 = weight(_text_:und in 3331) [ClassicSimilarity], result of:
0.045934185 = score(doc=3331,freq=62.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.34108895 = fieldWeight in 3331, product of:
7.8740077 = tf(freq=62.0), with freq of:
62.0 = termFreq=62.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3331)
0.5 = coord(2/4)
- Abstract
- Eine bibliothekarische Kampfschrift: Freiheit des Zugangs versus Zensur, lnformationskompetenz versus den einseitigen Gebrauch von Google. Das Angebot an Suchmaschinen erfordert einen intelligenten Gebrauch des Internet gegen alle Facetten der Zensur, denen bewusst oder unbewusst alle Nutzer des Internet ausgesetzt sind. Die zunehmende Gefahr einer einseitigen Informationsbeschaffung auf allen Gebieten, die die Öffentlichkeit oft nicht kennt, wird hier mit einer Fülle von Beispielen aufgezeigt. Dies bedeutet gleichzeitig eine Aufforderung an alle Bibliothekare und Informationsspezialisten, dem einseitigen Gebrauch von Google Möglichkeiten der Recherche, die Kenntnis von einer Vielzahl von Suchmaschinen und Informationsquellen aller Art entgegen zu setzen. Dabei kreist das Buch auch um alle Formen und Arten von Zensur in der Medienwelt, unserer heutigen Umwelt, denen nur ein aufgeklärter Nutzer gewachsen sein kann, eine riesige Aufgabe für Bibliotheken und alle Anbieter von Informationen, die keinem ökonomischen Zweck dienen und wirklich nur beraten und informieren wollen. Das Buch zeigt das ganze Ausmaß von Vertrauensverlust, das heute die Informations- und Umwelt bedroht und mehr denn je eine hohe Informationskompetenz notwendig macht.
- Footnote
- Rez. in: BuB 60(2008) H.6, S.500-501 (W. Ratzek): "Der Titel lässt eine weitere Publikation über die Wichtigkeit des Internet vermuten. Doch wer Rainer Strzolka kennt, weiß, dass dem so nicht sein muss. Strzolka legt dann gleich provokativ los: »Neulich beim Psychiater - Therapiestunde mit einem Java-Applet« (Seite 10) simuliert einen Dialog zwischen einer Software »Eliza« und offenbar einer realen Person, die folgendes Problem hat: »Ich fürchte mich, weil ich glaube, dass das Internet ein großer Misthaufen mit Zensur ist.« Diese Einführung erinnert doch sehr stark an den erst kürzlich verstorbenen Informatikpionier und -kritiker Joseph Weizenbaum, der 1966 ein Programm namens Eliza schrieb und später einmal sagte: »Das Internet ist ein großer Misthaufen.« Eine Reminiszenz an Weizenbaum wäre angebracht gewesen. In der 26 Kapitel umfassenden »bibliothekarischen Kampfschrift«, wie es auf dem Klappentext heißt, geht Strzolka gegen die Googlesierung der Gesellschaft an. Aber auch Wikipedia steht in der Kritik (Seite 30 ff.). Das Thema Informationsfreiheit und Zensur zieht sich dabei, wie ein roter Faden durch das Buch, zum Beispiel bei Google Earth (Seite 16 ff.) oder in China (Seite 92). Die USA und Deutschland (zum Beispiel Seite 100 f.) sind häufiger mit Beispielen im Buch vertreten - und kommen auch nicht gut weg. Konsequenterweise trifft es auch Wikipedia, wo es neben Zensur (im Sinne von Unterdrückung) auch um Manipulation (im Sinne von Schönfärberei) geht (Seite 134 f.). Denn: »Im Grunde ist Wikipedia genau das«, schreibt Strzolka, »wovon Orwell träumte, weil Geschichte nicht mehr im Nachhinein gefälscht wer- den muss, sondern weltweit in Realzeit nach herrschenden Bedürfnissen umgeschrieben wird.« (Seite 134 f.).
Neben Anwendungen und Beispielen aus verschiedenen Ländern belegt der Autor anhand beeindruckender Beispiele, wie wenig sinnstiftend Wort-/Wortsstammfilter sind (Seite 84 bis 91). Ein Hauptproblem in der Informations- und Wissensgesellschaft sieht er darin: »Die Bequemlichkeit der Nutzer« führe zu einer selbst auferlegten »Informationsbeschränkung« bei der Nutzung von Suchmaschinen (Seite 18 bis 21). Dementsprechend sieht Strzolka in der »fehlenden Informationskompetenz und Zensur« eine »unheilvolle Allianz« (Seite 24). »Sich auf Suchmaschinen als objektive Instanz zu verlassen«, heißt es später (Seite 56), »ist so naiv, wie die Bibel als einzige Informationsquelle für das Leben in der modernen Welt zu nutzen«. Denn: »Suchmaschinen zensieren nicht - Ihre Betreiber organisieren Zensur.« Internetzensur Auf 25 Seiten (Seite 74 bis 99) dokumentiert Strzolka mit bemerkenswerten Beispielen, wie das in der Praxis geschieht. Nach Strzolka beteiligen sich Bibliothekare auch an der (Internet-)Zensur (Seite 22 f, mit Beispielen auf Seite 34). Hier wäre eine tiefergehende Auseinsandersetzung angebracht gewesen. Beeindruckend dabei, wie Strzolka über »Zensur und Idiotenfallen« (Seite 84 bis 90) berichtet. »Das Internet ist eine ausgesprochen heterogene Datensammlung und >keineswegs die größte Bibliothek der Welt>, wie immer zu hören ist.« (Seite 25) Denn: »Informationsportale verengen den Weg in die Wissensgesellschaft [...], weil sie die Fokussierung auf gewünschte Quellen [fördern]« (Seite 25). Vor diesem Hintergrund müsse deshalb eher von »Informationsbeschränkung« als von »Informationsvielfalt« die Rede sein.
Das 27 Seiten umfassendes Literaturverzeichnis demonstriert, welchen inhaltlichen Aufwand Strzolka für diese Publikation betrieben hat. Dennoch schleicht sich die eine oder andere Nachlässigkeit ein: So wird beispielsweise der Internet-Medienrat am 16. September 1996 seine Mitglieder und Organisation der Öffentlichkeit vorstellen (Seite 44). Dies gilt auch für den »Entwurf eines Staatsvertrages über Mediendienste« (Seite 45). Der Mediendienste-Staatsvertrag (von 2003) und das Teledienstegesetz wurden im Frühjahr 2007 durch das Telemediengesetz ersetzt. Bei der Lektüre entsteht häufiger der Eindruck, dass die eine oder andere Quelle nicht angegeben wurde. Auch gibt es - das sind aber nicht ins Gewicht fallende Ausnahmen - Fehlinterpretationen, so zum Beispiel auf Seite 69: »Es waren einmal drei Böcke. Und alle hießen Bruse.« Das ist keine schwedische Sage, sondern ein norwegisches Volksmärchen von Peter Christian Asbjoernsen und Joergen Moe. Das in einem lesefreundlichen, provokanten und (oft auch) satirischen Stil verfasste Buch ist nicht nur all jenen zu empfehlen, die noch nicht ganz von den schwarzen Löchern der IT-Industrie aufgesogen worden sind, sondern auch jenen, die glauben, dass das Internet, vor allem dass WWW und insbesondere Google den Zugang zum Wissen dieser Welt eröffnet. Wer sich gerne auch einmal Zeit nimmt, um über sein Tagesgeschäft als Informationsprofi nachzudenken, dem bietet Rainer Strzolkas Buch zahlreiche Denkanstöße. Beeindruckend auch seine Kenntnisse über Suchmaschinen, wenn auch Google im Mittelpunkt steht."
Weitere Rez. in ZfBB 55(2008), H.5, S.317-319 (D. Lewandowski): "Suchmaschinen im Allgemeinen, und wegen ihrer großen Marktmacht vor allem die Suchmaschine Google, geraten zunehmend in die Kritik aufgrund von drei Problemfeldern. Erstens wegen ihrer Praktiken des Datensammelns (persönliche Daten sowie Suchanfragen), zweitens wegen der lntransparenz ihrer Rankingverfahren und drittens wegen der Praxis, gewisse Seiten aus ihren Indizes auszuschließen (aufgrund staatlicher Bestimmungen oder aufgrund von Willkür). Es ist zu begrüßen, dass in der letzten Zeit vermehrt Schriften erschienen sind, die sich mit diesen Themen auseinandersetzen oder doch zumindest auf diese Themen hinweisen. Denn bisher, und das lässt sich vor allem an den prominenteren Beispielen zeigen (Gerald Reischl: »Die Google-Falle«,Wien 2008; Hermann Maurer et al.: »Report on dangers and opportunities posed by large search engines, particularly Google«, www.iicm.tugraz. at/iicm_papers/dangers_google.pdf), ist es nicht gelungen, diese Themen wissenschaftlich seriös darzustellen. Aufgrund der gravierenden Mängel in diesen Schriften tun die Autoren ihrem an sich löblichen Anliegen keinen Gefallen, sondern spielen eher denen in die Hände, die solche Kritik als Verschwörungstheorien oder Ähnliches abtun. . . . Diese Aufzählung von Fehlern und Fehleinschätzungen ließe sich geradezu beliebig fortsetzen. Insofern kann das Buch leider in keiner Weise empfohlen werden und ist, wie auch schon die eingangs genannten Google-kritischen Titel, zwar thematisch interessant, jedoch in seiner Ausführung handwerklich so schlecht, dass das eigentliche Anliegen des Autors in der Fülle der Fehler untergeht. Eine genauere Recherche hätte man auf jeden Fall erwarten dürfen-schließen wir mit einer Rechercheempfehlung des Bibliothekars Strzolka: »Jemand, der Denken kann, geht beispielsweise in eine Bibliothek.« (S.132)
-
Bühler, A.: Antirealismus und Verifikationismus (1992)
0.03
0.02582666 = product of:
0.10330664 = sum of:
0.10330664 = weight(_text_:und in 615) [ClassicSimilarity], result of:
0.10330664 = score(doc=615,freq=10.0), product of:
0.13466923 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.060719278 = queryNorm
0.7671139 = fieldWeight in 615, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.109375 = fieldNorm(doc=615)
0.25 = coord(1/4)
- Series
- Philosophie und Geschichte der Wissenschaften; Bd.18
- Source
- Wirklichkeit und Wissen: Realismus, Antirealismus und Wirklichkeits-Konzeptionen in Philosophie und Wissenschaften. Hrsg.: H.J. Sandkühler