-
Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996)
0.10
0.098673016 = product of:
0.19734603 = sum of:
0.13379563 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
0.13379563 = score(doc=2567,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.31145877 = fieldWeight in 2567, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.063550405 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
0.063550405 = score(doc=2567,freq=46.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.47007886 = fieldWeight in 2567, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.5 = coord(2/4)
- Abstract
- Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
- Classification
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
- RVK
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
-
Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998)
0.10
0.09796709 = product of:
0.19593418 = sum of:
0.16724454 = weight(_text_:java in 617) [ClassicSimilarity], result of:
0.16724454 = score(doc=617,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.38932347 = fieldWeight in 617, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.028689636 = weight(_text_:und in 617) [ClassicSimilarity], result of:
0.028689636 = score(doc=617,freq=6.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.21221566 = fieldWeight in 617, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.5 = coord(2/4)
- Abstract
- Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
-
Charlier, M.: ¬Das Netz wartet auf neue Zeichen : Viele Web-Adressen sind vergeben - selbst weitere Top-Level-Domains und fremde Schriften helfen nicht unbedingt (2001)
0.10
0.096343026 = product of:
0.19268605 = sum of:
0.035833344 = weight(_text_:und in 6783) [ClassicSimilarity], result of:
0.035833344 = score(doc=6783,freq=26.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.26505727 = fieldWeight in 6783, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=6783)
0.1568527 = weight(_text_:herzlich in 6783) [ClassicSimilarity], result of:
0.1568527 = score(doc=6783,freq=2.0), product of:
0.53707606 = queryWeight, product of:
8.811096 = idf(docFreq=17, maxDocs=44421)
0.06095451 = queryNorm
0.29204935 = fieldWeight in 6783, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.811096 = idf(docFreq=17, maxDocs=44421)
0.0234375 = fieldNorm(doc=6783)
0.5 = coord(2/4)
- Abstract
- Kurz bevor es mit den Dotcoms bergab ging, wurde aus den USA gemeldet, die letzten Internet-Domains mit drei Buchstaben vor dem com seien verkauft. Inzwischen sind auch die letzten .de-Domains mit drei Zeichen weg; Restbestände werden von einem Spekulanten unter sedo.de zum Preis von 700 Mark angeboten. Im April waren 4 300 000 Adressen für de registriert. Personennamen sind fast alle vergeben - auch viele Zusammensetzungen Vorname-Familienname. Wer mit einem neuen Angebot ins Netz will, muss sich schon einen Fantasienamen wie alando oder belana einfallen lassen - und auch die sind oft schon besetzt. Während die Zahl der numerischen IP-Adressen nicht unbegrenzt erhöht werden kann - erst die geplante sechste Version des IP-Protokolls wird hier größeren Spielraum bieten -, ist die Menge der Domainnamen prinzipiell unbegrenzt. Theoretisch kann man beliebig viele Top-Level-Domains (TLD) einrichten - und mit allen bekannten und unbekannten Wörtern daraus Netzanschriften machen. Als die Internet-Verwaltung Icann im vergangenen Herbst über eine Erweiterung des Adressraums beriet, lagen denn auch mehr als 200 Vorschläge für TLDs auf dem Tisch, die der gegenwärtigen Knappheit abhelfen sollten. Die Liste reichte vom auf amerikanisch durchaus seriös für Unternehmen bis zum lockeren sucks (nervt), wo unzufriedene Kunden der BizUnternehmen unter dem Firmennamen ihre Kritik ins Netz stellen könnten: citroen.sucks, volkswagen.sucks, opel.sucks. Das Icann hat allerdings zunächst nur sieben neue TLDs zugelassen: biz, (nicht jedoch sucks), name für Privatpersonen, .museum (für eben diese), aero (für Luftverkehrsunternehmen), coop für genossenschaftliche Unternehmen und .info für allgemeine Verwendungen. Dazu kommt eine streng reglementierte pro-Domain, unter der mit law.pro Rechtsanwälte, med.pro Ärzte und cpa.pro Steuerberater online gehen sollen.
Dass das Icann nur sieben TLDs einrichten möchte, hat wenig mit Technik zu tun, aber viel mit Geschäftsinteressen und mit Politik. Sowohl die Vermarktung als auch die letzte Kontrolle über die Domains sollen möglichst da bleiben, wo sie sind: in den USA. So hat zwar jedes kleine Pazifikatoll seine eigene Länderdomain, nicht aber die Europäische Union, die gerne unter eu registrieren möchte, das aber bislang nicht kann. Und deshalb lässt sich das Icann viel Zeit damit, seinen Beschluss vom vergangenen Herbst in die Realität umsetzen zu lassen. Nach ernsthaften Schätzungen ist nicht vor dem dritten Quartal mit der Verfügbarkeit der neuen Domains zu rechnen. Pessimisten nennen eher das erste Quartal 2002. Seit Monaten werben nun Unternehmen mit Angeboten zur Reservierung einer der neuen Top-Level-Domains, damit man dann, wenn diese endlich funktionieren, auch mit seiner Wunschdoniain" zum Zug kommt. Im Prinzip ist gegen eine solche Reservierung nichts zu sagen - man muss sich nur anschauen, bei wem man die Buchung vornehmen lässt. Es ist wenig darüber bekannt, inwieweit die Reservierungsanbieter sicherstellen, dass jede Adresse tatsächlich nur einmal versprochen wird, und man kann auch nicht ausschließen, dass es da schwarze Schafe gibt, denen es herzlich egal ist, ob ein Konkurrent die gleiche Adresse schon vergeben hat. Das Gleiche gilt für die vom ehemaligen Registrierungs-Monopolisten Network Solutions vorangetriebenen Bemühungen, in Domain-Namen die Verwendung nationaler Sonderzeichen und nichtlateinischer Schriften zu ermöglichen. Der Zeitpunkt der Umsetzung ist ungewiss, und ob vorsorgliche Reservierungen wirklich zum Zuge kommen, wird sich erst dann zeigen, wenn die zusätzlichen Domainnamen wie müller.de mit echtem ü tatsächlich in die DNS-Datenbanken eingetragen werden. Die Knappheit bei Domainnamen lässt sich mit beiden Ansätzen kaum überwinden - dafür ist die Ausweitung viel zu bescheiden.
Findige Unternehmer sind deshalb auf den Ausweg verfallen, eigene DNS-Server einzurichten, über die sie Hunderte von neuen TLDs selbst ans Netz bringen. Technisch ist das kein Problem. Aber solange die dezentralen Nameserver des offiziellen DNS diese unautorisierten Nameserver nicht berücksichtigen, sind die unter den dort vergebenen Domains eingerichteten Websites für alle praktischen Zwecke unsichtbar. Um sie zu finden, muss man sich über besondere Zugänge ins etz einwählen oder eine Zusatzsoftware installieren - keine guten Voraussetzungen für eine massenhafte Nutzung. Auch Juristen könnten die Versuche, den Namensraum zu vergrößern, scheitern lassen. Unternehmen und Organisationen, die das Internet zunächst verschlafen hatten, versuchen, alle Adressen, in denen Teile ihres Firmennamens oder ihrer Markenzeichen vorkommen, nachträglich für sich zu reklamieren. So macht der Süßwarenhersteller Ferrero ("Kinder-Schokolade") dem Inhaber von www.kinder.at seine Domain streitig. Der Westdeutsche Rundfunk hat die amerikanische Bank Warburg-Dillon-Reed gerichtlich gezwungen, wdr.com abzutreten, und dem Journalisten Wolf Dieter Roth wdr.org weggeklagt. Nach der Freigabe waren die Funker wohl zu lahm - ein Schweizer schnappte sich die Adresse für seine höchst informative World-Domain-Rights-Homepage. Die Weiterentwicklung des Namensraumes liegt längst nicht mehr allein bei den Institutionen des Netzes. Setzen sich die Juristen durch, lässt sich der Namensraum kaum mehr erweitern - wenn zu viele Wörter, quer durch alle TLDs nur einem Inhaber zugesprochen werden.
-
Ovid announces strategic partnerships : Java-based interface (1997)
0.09
0.0946078 = product of:
0.3784312 = sum of:
0.3784312 = weight(_text_:java in 397) [ClassicSimilarity], result of:
0.3784312 = score(doc=397,freq=4.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.8809384 = fieldWeight in 397, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=397)
0.25 = coord(1/4)
- Abstract
- Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
-
Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996)
0.09
0.0916885 = product of:
0.183377 = sum of:
0.13379563 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
0.13379563 = score(doc=2121,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.31145877 = fieldWeight in 2121, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.049581356 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
0.049581356 = score(doc=2121,freq=28.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.36675057 = fieldWeight in 2121, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.5 = coord(2/4)
- Content
- Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.09
0.0916885 = product of:
0.183377 = sum of:
0.13379563 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.13379563 = score(doc=346,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.049581356 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.049581356 = score(doc=346,freq=28.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Altenhöner, R; Hengel, C.; Jahns, Y.; Junger, U.; Mahnke, C.; Oehlschläger, S.; Werner, C.: Weltkongress Bibliothek und Information, 74. IFLA-Generalkonferenz in Quebec, Kanada : Aus den Veranstaltungen der Division IV Bibliographic Control, der Core Activities ICADS und UNIMARC sowie der Information Technology Section (2008)
0.09
0.09121578 = product of:
0.18243156 = sum of:
0.051720977 = weight(_text_:und in 3317) [ClassicSimilarity], result of:
0.051720977 = score(doc=3317,freq=78.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.3825772 = fieldWeight in 3317, product of:
8.83176 = tf(freq=78.0), with freq of:
78.0 = termFreq=78.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3317)
0.13071059 = weight(_text_:herzlich in 3317) [ClassicSimilarity], result of:
0.13071059 = score(doc=3317,freq=2.0), product of:
0.53707606 = queryWeight, product of:
8.811096 = idf(docFreq=17, maxDocs=44421)
0.06095451 = queryNorm
0.24337444 = fieldWeight in 3317, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.811096 = idf(docFreq=17, maxDocs=44421)
0.01953125 = fieldNorm(doc=3317)
0.5 = coord(2/4)
- Abstract
- Der 74. Weltkongress der International Federation of Library Associations and Institutions (IFLA) hat vom 10. bis 14. August 2008 unter dem Motto "Libraries without borders: Navigating towards global understanding" in Quebec, Kanada, stattgefunden. Dort trafen sich mehr als 3000 Bibliothekarinnen und Bibliothekare aus 150 Ländern der Welt zu insgesamt 224 Veranstaltungen und verschiedenen Satellitenkonferenzen. Die IFLA-Präsidentin Prof. Dr. Claudia Lux aus Berlin leitete die Tagung und war gleichzeitig prominenteste Vertreterin der deutschen Delegation, die aus mehr als 80 Kolleginnen und Kollegen bestand und damit im Vergleich zum Vorjahr erfreulich groß war. Wer nicht dabei sein konnte und sich dennoch einen Eindruck über die Konferenz und die Atmosphäre verschaffen möchte, kann dies online tun. Neben dem Programm und einer Vielzahl von Vorträgen sind auf der Website der IFLA auch Links zu Fotos, Videos und Blogs vorhanden. Innerhalb der IFLA wird derzeit an einer Neuorganisation und damit verbunden einer neuen Satzung gearbeitet, unter anderem sollen auch der interne und externe Informationsfluss verbessert werden. Dazu soll Anfang 2009 eine neu gestaltete Website mit einem Content Managementsystem frei geschaltet werden. Das Design der neuen Site wurde in Quebec vorgestellt, eine Präsentation ist im IFLAnet zu finden. Wie in den vergangenen Jahren soll auch in diesem Jahr über die Veranstaltungen der Division IV Bibliographic Control mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing sowie Knowledge Managament berichtet werden.
- Content
- Darin u.a.: Cataloguing Section Deutsches Mitglied im Ständigen Ausschuss der Sektion: Renate Gömpel (2005-2009; Deutsche Nationalbibliothek) und Ulrike Junger (2007-2011; Staatsbibliothek zu Berlin) Der Schwerpunkt der Arbeit dieser Sektion liegt auf der Erarbeitung bzw. internationalen Harmonisierung von Strukturen, Regeln und Arbeitsverfahren mit dem Ziel, die internationale Kooperation im Katalogisierungsbereich zu verbessern. Die beiden Arbeitssitzungen des Ständigen Ausschusses der Sektion Katalogisierung dienen neben der Abwicklung von Routinegeschäften, der Entgegennahme bzw. Verabschiedung von Berichten der einzelnen Arbeitsgruppen, der Vorbereitung der Veranstaltungen sowie der Fortschreibung des Strategieplans der Sektion.
Classification and Indexing Section (Sektion Klassifikation und Indexierung) Deutsches Mitglied im Ständigen Ausschuss der Sektion: Yvonne Jahns (2005-2009; Deutsche Nationalbibliothek) Die Sektion, die sich als Forum für den internationalen Austausch über Methoden der Inhaltserschließung und die Bedeutung des sachlichen Zugangs zu Dokumenten und Wissen versteht, wartete in Quebec mit einem interessanten Vortragprogramm auf. Drei Präsentationen näherten sich dem Thema "Classification and indexing without language borders" von unterschiedlichen Seiten. Anila Angjeli von der Bibliotheque nationale de France (BnF) präsentierte Arbeiten aus dem Projekt STITCH", das sich mit semantischen Suchen in unterschiedlich erschlossenen Beständen von Kulturerbeinstitutionen beschäftigt. Die verwendeten Thesauri und Klassifikationen wurden mittels SKOS in ein vergleichbares Format überführt und stehen so als Semantic-Web-Anwendung zur Recherche bereit. Die Funktionsweise erläuterte Anila Angjeli sehr bildreich durch Beispiel-suchen nach mittelalterlichen Handschriften der BnF und der Königlichen Bibliothek der Niederlande. Vivien Petras vom GESIS Informationszentrum Sozialwissenschaften, Bonn, sprach über die Vielzahl der intellektuell erstellten Crosskonkordanzen zwischen Thesauri in den Sozialwissenschaften. Sie stellte dabei die Evaluierung der KOMOHE-Projektergebnisse vor und konnte die Verbesserung der Suchergebnisse anschaulich machen, die man durch Hinzuziehen der Konkordanzen in der Recherche über heterogen erschlossene Bestände erreicht. Schließlich präsentierte Michael Kreyche von der Kent State University, Ohio/USA, seinen eindrucksvollen jahrelangen Einsatz für die Zugänglichkeit englisch-spanischer Schlagwörter. Im Projekt Icsh-es.org gelang es, viele Vorarbeiten von amerikanischen und spanischen Bibliotheken zusammenzutragen, um eine Datenbank spanischer Entsprechungen der Library of Congress Subject Headings aufzubauen. Diese soll Indexierern helfen und natürlich den vielen spanisch-sprachigen Bibliotheksbenutzern in den USA zugute kommen. Spanisch ist nicht nur eine der meistgesprochenen Sprachen der Welt, sondern aufgrund der zahlreichen Einwanderer in die USA für die Bibliotheksarbeit von großer Wichtigkeit.
Am Programm für den nächsten Weltkongress arbeitet der Ständige Ausschuss bereits. Es steht unter dem Motto "Foundations to Build Future Subject Access". Geplant ist auch eine Satellitenkonferenz, die am 20. und 21. August 2009 in Florenz unter dem Titel "Past Lessons, Future Challenges in Subject Access" stattfindet, zu der alle an Klassifikationen und Indexierungsprozessen Interessierte herzlich eingeladen sind. Die Arbeitsgruppen der Sektion trafen sich in Quebec, konnten jedoch bislang keine abschließenden Ergebnisse vorlegen. So sind bisher weder die Richtlinien für multilinguale Thesauri redigiert und publiziert, noch ist mit dem Erscheinen der Richtlinien für Sacherschließungsdaten in Nationalbibliografien vor 2009 zu rechnen. Die Teilnehmer verständigten sich darauf, dass die Weiterarbeit an einem multilingualen Wörterbuch zur Katalogisierung im Zeitalter von FRBR und RDA wichtiger denn je ist. Nach dem Release der neuen IFLA-Website soll dieses Online-Nachschlagewerk auf den Webseiten eine Heimat finden und wartet auf die Mitarbeit von Katalogisierern aus aller Welt. Die Arbeitsgruppe zu den Functional Requirements for Subject Authority Records (FRSAR) traf sich 2008 mehrfach und stellte zuletzt während der Konferenz der International Society of Knowledge Organization (ISKO) in Montreal ihre Arbeitsergebnisse zur Diskussion. Leider sind keine aktuellen Papiere zu den FRSAR online verfügbar. Ein internationales Stellungnahmeverfahren zu dem Modell zu Katalogisaten von Themen von Werken im Rahmen des FRBR-Modells kann jedoch 2009 erwartet werden. Mehr Informationen dazu gibt es z.B. in der neuen Publikation "New Perspectives on Subject Indexing and Classification", einer Gedenkschrift für die verstorbene Kollegin und ehemaliges Mitglied des Ständigen Ausschusses, Magda Heiner-Freiling. Die Idee dazu entstand während des IFLA-Kongresses in Durban. Dank der zahlreichen Beitragenden aus aller Welt gelang es, im Laufe des vergangenen Jahres eine interessante Sammlung rund um die Themen DDC, verbale Sacherschließung, Terminologiearbeit und multilinguale sachliche Suchen zusammenzustellen.
Am Rande des Weltkongresses fanden zum wiederholten Male DDC- und UDC-Anwendertreffen statt. Für alle an der DDC Interessierten ist das Programm im Dewey-Blog vom 19. August 2008 zu finden. Besonders interessant ist der neue OCLC-Service namens "Classify", der als Webservice aufgesetzt werden soll und dem Anwender aus WorldCat-Daten zuverlässige Notationen herausfiltert - eine gute Hilfe beim Klassifizieren (zur Fremddatenübernahme) und beim Orientieren in einer internationalen DDC-Umgebung. Hingewiesen sei noch auf die anlässlich des Kongresses frei geschaltete Suchoberfläche der ortsansässigen Bibliotheque de l'Universite Lava Ariane 2.0 ist eine intuitive und einfach zu bedienende Katalogsuchmaschine, die insbesondere die Schlagwörter des Repertoire de vedettes-matiere (RVM) zur Navigation benutzt. RVM ist die französischsprachige Schlagwortnormdatei Kanadas, in enger Anlehnung an die LCSH entstanden und heute in enger Kooperation zu den Rameau der BnF gepflegt und von Library and Archives Canada als der französische Indexierungsstandard Kanadas betrachtet. Für die Pflege ist die Laval-Universitätsbibliothek verantwortlich. Eben erschien der neue "Guide pratique du RVM" - ein schwergewichtiger Führer durch die Schlagwortwelt und ein kleines Indexierungsregelwerk.
-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.09
0.08984953 = product of:
0.17969906 = sum of:
0.13379563 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.13379563 = score(doc=6889,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.045903422 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.045903422 = score(doc=6889,freq=24.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.09
0.08984953 = product of:
0.17969906 = sum of:
0.13379563 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.13379563 = score(doc=1642,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.045903422 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.045903422 = score(doc=1642,freq=24.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
Baumgärtel, T.: "Mosaic" der Datenwelt : Vor zehn Jahren erschien der erste einfache Webbrowser - und damit die Grundlage für den Erfolg des Internets (2003)
0.09
0.08950122 = product of:
0.17900243 = sum of:
0.048291855 = weight(_text_:und in 5700) [ClassicSimilarity], result of:
0.048291855 = score(doc=5700,freq=68.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.3572122 = fieldWeight in 5700, product of:
8.246211 = tf(freq=68.0), with freq of:
68.0 = termFreq=68.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=5700)
0.13071059 = weight(_text_:herzlich in 5700) [ClassicSimilarity], result of:
0.13071059 = score(doc=5700,freq=2.0), product of:
0.53707606 = queryWeight, product of:
8.811096 = idf(docFreq=17, maxDocs=44421)
0.06095451 = queryNorm
0.24337444 = fieldWeight in 5700, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.811096 = idf(docFreq=17, maxDocs=44421)
0.01953125 = fieldNorm(doc=5700)
0.5 = coord(2/4)
- Content
- "Kornfelder. Nichts als Kornfelder, so weit das Auge reichte. Das sah Tim Berners-Lee aus dem Autofenster, als er auf dem Weg zum National Center of Supercomputing Applications (NCSA) in Urbana-Champaign zum ersten Mal in seinem Leben durch Illinois fuhr. Ein Elite-Informatik-Institut ist so ziemlich das Letzte, was man indem landwirtschaftlich geprägten amerikanischen Bundesstaat im mittleren Westen erwarten würde. Doch das NCSA spielt in der kurzen Geschichte des Internets eine entscheidende Rolle. An dem kaum bekannten Forschungsinstitut wurde vor zehn Jahren ein Computerprogramm entwickelt, dessen Bedeutung Technikhistoriker schon jetzt mit der der Dampfmaschine; oder des Telefons vergleichen: Am 22. April 1993 veröffentlichten Studenten und Mitarbeiter im Internet den Webbrowser "Mosaic" - eine Software, mit der man durch das Netz surfen kann. Auch wenn das Programm einer Öffentlichkeit jenseits von Informatikern und Netzfreaks unbekannt sein dürfte, ist seine Bedeutung gar nicht zu überschätzen: Vor "Mosaic" gab es auf der ganzen Welt einige hundert Websites, Ende 1993 waren es bereits einige tausend, und in den nächsten Jahren sollte sich ihre Zahl manchmal im Wochenrhythmus verdoppeln. Der Siegeszug des Internets begann mit "Mosaic". Das Programm hat das Internet zu einem Massenmedium gemacht. Ohne "Mosaic" gäbe es heute keine Online-Publizistik und keinen E-Commerce, kein Amazon und kein E-Bay. Nach einem halben Jahr hatten eine Million Internet-Surfer das Programm heruntergeladen. Heute finden sich Nachfolgerprogramme wie der "Netscape Navigator" oder der "Internet Explorer" auf so gut wie jedem Computer mit Internet-Anschluss. Schöpfer der historischen Software waren der Student Marc Andreessen und der wissenschaftliche Mitarbeiter Eric Bina: In einem Keller des NCSA hatte sie mit einigen Kommilitonen in nächtelangen Programmier-Sessions die erste Version von "Mosaic" geschrieben. Diese Leute wollte Tim Berners-Lee im März 1993 treffen, denn er war selbst der Schöpfer des World Wide Web (WWW): 1990 hatte der britische Physiker am Kernforschungszentrum Cern in Genf einige technische Regeln definiert, die es leichter machen sollten, im Internet, einem damals noch weitgehend unbekannten akademischen Computernetzwerk, Informationen zu veröffentlichen und zu lokalisieren. Das Web erfreute sich unter Wissenschaftlern schnell einer gewissen Beliebtheit, aber die Programme, mit denen man sich im WWW bewegte, waren für Laien zu schwierig und konnten nur Text anzeigen. "Mosaic" dagegen wurde per Mouse-Klick bedient und zeigte Bilder und Grafiken. Darauf hatte Berners-Lee schon seit einiger Zeit gewartet. Denn der Wissenschaftler mit dem bescheidenen, ja fast schüchternen Auftreten hatte eine große Vision: Er wollte aus dem Internet "ein einzigartiges, universelles und leicht zu bedienendes Hypertext-Medium machen, mit dem man jede Art von Information teilen kann, wie er später in Vorträgen und Interviews immer wieder betonte. Darum hatte er in der Anfang der 90er Jahre noch kleinen und unüberschaubaren InternetSzene geduldig und mit viel Diplomatie darauf hingearbeitet, dass sein Internet-Code namens Hypertext Markup Language (HTML) als Quasi-Standard für Daten im Web akzeptiert wurde. Nachdem ihm das gelungen war, musste nun ein Programm her, das die Daten lesen konnte. Berners-Lee unterstützte die Programmierer der ersten viel versprechenden Browser -"Cello", "Arena" oder "Lynx" - per E-Mail. Die Gruppe aus dem NSCA dagegen hatte es Anfang 1993 ganz unabhängig von ihm geschafft: ein Programm für das Internet, das nicht nur Informatiker bedienen konnten! Wie ein Besessener schrieb Andreessen, der sich zeitweise von Milch und Keksen ernährte, mit seinen Kommilitonen an immer neuen und verbesserten Versionen von "Mosaic".
Das Treffen mit Andreessen, Bina und den anderen verlief weit weniger herzlich, als Berners-Lee es erwartet hatte. In seinen Memoiren Weaving the Web vergleicht er das Meeting mit einer Pokerpartie: Die NCSA-Gruppe, so sein Eindruck, wollte seine Idee an sich reißen und versuchte, den Eindruck zu erwecken, das Web und "Mosaic" seien ein und dasselbe. Der bullige Andreessen erschien Berners-Lee wie ein Geschäftsmann, der vor allem Kundenwünsche befriedigen wollte. Berners-Lee empfahl bei dem Treffen, "Mosaic" einen Editor hinzuzufügen, mit dem man selbst Webseiten gestalten konnte. Denn Teil seiner Hoffnungen für das Internet war, dass man nicht nur passiv durch Informationen surfen, sondern auch selbst produzieren und mit anderen Internet-Usern kooperieren konnte. Andreessen lehnte das schlicht ab; Berners-Lee war enttäuscht. Besonders verärgert hat es ihn aber offenbar, dass Andreessen sich weigerte, sich bei einer Konferenz für ein Erinnerungsbild fotografieren zu lassen. Der Eindruck, dass es Andreessen vor allem ums Geschäft ging, hat Berners-Lee nicht getrogen. Ein knappes Jahr später gründete der junge Programmierer mit dem Silicon-Valley-Veteranen Jim Clark eine Firma namens Netscape, und zusammen mit den meisten seiner ehemaligen NCSA-Kollegen entwickelten sie in Kalifornien den ersten kommerziellen Browser. 1995 legte die Firma den erfolgreichsten Börsengang hin, den die Wall Street bis dahin gesehen hatte, und der Internet-Goldrausch der 90er Jahre begann. Der US-Softwarekonzern Microsoft hatte den Netz-Boom zunächst ignoriert, entwickelte dann aber mit dem "Internet Explorer" einen eigenen Browser und nutzte seine Herrschaft über die Betriebssysteme dazu aus, um schnell eine marktbeherrschende Position zu erreichen. Netscape wurde vom Markt verdrängt; AOL kaufte das Unternehmen - und Andreessen verließ die Firma kurz danach. Heute ist er Chef eines kalifornischen Unternehmens namens Oopsware, das Server-Software anbietet. Wahrscheinlich war es das Zusammenspiel von zwei so unterschiedlichen Charakteren wie Berners-Lee und Andreessen, das zum Erfolg des Web beigetragen hat. Während der Wissenschaftler Berners-Lee auf Offenheit und Zugänglichkeit bedacht war und sich dafür einsetzte, dass das Web nicht von einer bestimmten Nutzergruppe übernommen wurde, ging es dem Programmierer-Geschäftsmann Andreessen um Benutzerfreundlichkeit und kommerziellen Erfolg. Der US-Journalist Steven Levy hat "Mosaic" das "wahrscheinlich wichtigste Programm, das es jemals gab", genannt. Er hat Recht. Der Browser und die anderen, die folgten, haben unser Bild vom Computer verändert: Aus der Maschine für Textverarbeitung und Spiele wurde ein Kommunikationsinstrument, das den Zugang zu ständig neuen Informationen brachte. Andreessen ist darüber bis heute begeistert: "Das Beste an der ganzen Sache war zu sehen, wie wir ein paar Bausteine zusammenfügten, die sich andere Leute nahmen und daraus Dinge entwickelten, die wir nie erwartet hätten. Der Prozess, der sich schnell vollkommen unserer Kontrolle entzog, war sehr befriedigend." Marc Andreessen hat dabei gut verdient. Auf dem Höhepunkt der Dot-com Euphorie besaß er Netscape-Aktien im Wert von 80 Millionen Dollar und gilt noch heute als Multimillionär. Tim Berners-Lee hat vom Netz-Boom weniger profitiert. Er leitet heute das World Wide Web Consortium in Boston, das für die Einhaltung von Programmierstandards für das Web eintritt. Was er machen würde, wenn er plötzlich doch Millionär würde? Wahrscheinlich würde er ein Stück Land kaufen, das von Umweltzerstörung bedroht sei, vertraute er dem britischen Guardian nach einigem Nachdenken an. Vielleicht sehnt er sich ja nach Kornfeldern."
-
Tsai, B.-s.: Infomapping in information retrieval (1997)
0.09
0.08690282 = product of:
0.34761128 = sum of:
0.34761128 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
0.34761128 = score(doc=3877,freq=6.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.8091937 = fieldWeight in 3877, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3877)
0.25 = coord(1/4)
- Abstract
- Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
-
Internet: The editor's choice (2002)
0.08
0.08362227 = product of:
0.33448908 = sum of:
0.33448908 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.33448908 = score(doc=1854,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Hawk, J.: OCLC SiteSearch (1998)
0.08
0.08278182 = product of:
0.3311273 = sum of:
0.3311273 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
0.3311273 = score(doc=3079,freq=4.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.7708211 = fieldWeight in 3079, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3079)
0.25 = coord(1/4)
- Abstract
- Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.08
0.08278182 = product of:
0.3311273 = sum of:
0.3311273 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.3311273 = score(doc=2673,freq=4.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.08
0.07776335 = product of:
0.1555267 = sum of:
0.117071174 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
0.117071174 = score(doc=6206,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.2725264 = fieldWeight in 6206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.03845553 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.03845553 = score(doc=6206,freq=22.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.5 = coord(2/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
-
Pauen, M.: ¬Das Schuldprinzip antasten, ohne es abzuschaffen : Was ist Willensfreiheit (5) oder: Wer ist verantwortlich für die Abschaffung von Verantwortung? (2010)
0.08
0.07662819 = product of:
0.15325639 = sum of:
0.048687927 = weight(_text_:und in 707) [ClassicSimilarity], result of:
0.048687927 = score(doc=707,freq=108.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.3601419 = fieldWeight in 707, product of:
10.392304 = tf(freq=108.0), with freq of:
108.0 = termFreq=108.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=707)
0.10456847 = weight(_text_:herzlich in 707) [ClassicSimilarity], result of:
0.10456847 = score(doc=707,freq=2.0), product of:
0.53707606 = queryWeight, product of:
8.811096 = idf(docFreq=17, maxDocs=44421)
0.06095451 = queryNorm
0.19469956 = fieldWeight in 707, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.811096 = idf(docFreq=17, maxDocs=44421)
0.015625 = fieldNorm(doc=707)
0.5 = coord(2/4)
- Abstract
- Anschuldigungen sind eine unangenehme Sache, insbesondere dann, wenn es um schwerwiegende Verfehlungen geht. Es wäre sicher sehr schön, könnten wir auf Schuldvorwürfe ganz verzichten. Besondere Bedeutung haben derartige Überlegungen für das Strafrecht. Offenbar werden sie gestützt durch jüngere neurobiologische Untersuchungen, die zu zeigen scheinen, dass Straftäter sehr häufig in ihrer Urteils- und Entscheidungsfähigkeit beeinträchtigt sind. Wäre es unter diesen Voraussetzungen also nicht das Beste, das Schuldprinzip ganz aufzugeben? Die Vorteile scheinen bestechend: Wir könnten auf Strafen und Gefängnisse verzichten, dennoch würde die Gesellschaft besser als bislang vor Straftaten geschützt.
- Content
- "Hirnforschung liefert neue Erkenntnisse über Schuld und Unschuld Ich habe jedoch entschiedene Zweifel an derartigen Überlegungen. Wir müssen am Schuldprinzip festhalten, und zwar gerade dann, wenn wir die neueren wissenschaftlichen Entwicklungen berücksichtigen wollen. Das Schuldprinzip dient nämlich nicht etwa dazu, möglichst viele Menschen ins Gefängnis zu bringen. Vielmehr liefert es Kriterien für die Unterscheidung zwischen Schuld und Unschuld. Solche Kriterien benötigen wir nicht nur im Strafrecht, sondern auch im Alltag. Kleine Kinder z.B. machen wir im Allgemeinen nicht verantwortlich. Sie können die Konsequenzen ihres Handelns nicht absehen, und oft haben sie sich auch nicht unter Kontrolle. Ähnliches gilt für Erwachsene, deren Urteils- oder Entscheidungsvermögen z.B. aufgrund psychischer Erkrankungen beeinträchtigt ist. Es ist zu erwarten, dass wir aus der Hirnforschung noch einiges mehr über Einschränkungen unserer Schuldfähigkeiten erfahren werden. Und zu dieser Erwartung besteht in der Tat Anlass: So scheinen besonders schwere Straftaten häufig von Menschen begangen zu werden, die ihre Gewaltbereitschaft nur schlecht kontrollieren können und auch kaum aus negativen Erfahrungen lernen. In diesen Fällen stellt sich nicht nur die Frage, ob Strafe gerechtfertigt ist - unklar ist auch, ob sie etwas bewirken kann. Derartige Straftäter haben auch die höchsten Rückfallquoten. Zwar versagen bei ihnen auch die herkömmlichen Therapien, aber ein besseres Verständnis ihrer Krankheit könnte zu neuen Ansätzen führen. Doch selbst wenn die Hirnforschung uns alle relevanten Fakten liefern würde - wie sie zu bewerten sind, ob sie also die Schuldfähigkeit in Frage stellen oder nicht, stellt sich erst heraus, wenn wir Kriterien für die Unterscheidung zwischen Schuldfähigkeit und Schuldunfähigkeit haben. Diese Kriterien aber liefert uns der Schuldbegriff. Es wäre überdies naiv anzunehmen, dass sämtliche Erkenntnisse der Hirnforschung das Schuldprinzip in Frage stellen. Das würde bedeuten, dass unser Gehirn unsere Fähigkeit, frei und verantwortlich zu entscheiden, grundsätzlich beeinträchtigen würde. Das ist aber offensichtlich falsch! Was soll denn die Grundlage für unsere Wünsche und Überzeugungen, unsere Kenntnis von Verboten und Geboten sein, wenn es nicht Prozesse im Gehirn sind? Wie sollten Entscheidungsprozesse realisiert sein - wenn nicht durch neuronale Aktivitäten? Wenn das aber so ist, dann scheint ein gesundes Gehirn uns überhaupt erst die Bedingungen für freie und verantwortliche Entscheidungen zu liefern. Und warum sollte dann ein Verständnis der zugrunde liegenden Mechanismen zu Zweifeln an unserer Freiheit und Verantwortlichkeit führen? Eine solche Beeinträchtigung wäre doch nur zu erwarten, wenn diese Mechanismen gestört sind! Und in der Tat: Die Neurobiologie kann uns einiges über solche Störungen verraten.
Dies führt zu einer weiteren Überlegung. Winfried Hassemer, ehemaliger Vizepräsident des Bundesverfassungsgerichts, hat kürzlich argumentiert, dass der heutige pragmatische Umgang bei der Anwendung des Schuldprinzips Zeichen einer "reifen Form von Rationalität" sei. Ein Richter muss also keine philosophischen Überlegungen über das Wesen der Willensfreiheit anstellen, vielmehr nennt das Strafrecht ihm ganz konkrete Kriterien für die Einschränkung bzw. den Ausschluss von Schuldfähigkeit. Sind diese Kriterien nicht erfüllt, kann er davon ausgehen, dass der Angeklagte schuldfähig ist. In der Tat: Jeder, der ein Interesse hat, dass Strafprozesse schneller abgeschlossen werden, als die seit zweieinhalb Jahrtausenden andauernde Diskussion über Willensfreiheit und Verantwortung, wird Hassemer hier zustimmen. Es hätte herzlich wenig Sinn, wenn Richter philosophische Elaborate über die Willensfreiheit verfassen müssten, um zu begründen, warum Straftäter zur Rechenschaft gezogen werden. Damit aber kann die Diskussion über das Schuldprinzip nicht erledigt sein. Wir sollten das Schuldprinzip nicht abschaffen, aber wir können es auch nicht einfach unangetastet lassen. Neben Richterinnen und Richtern, die das Recht anwenden, gibt es Rechtstheoretiker und Philosophinnen, die sich Gedanken über Grundlagen unseres Rechts und unserer Rechtspraxis machen. Und die sind aus den bereits genannten Gründen gut beraten, wenn sie sich um eine Weiterentwicklung des Schuldprinzips bemühen. Auch wenn man nicht glaubt, dass die Neurobiologie zu einer fundamentalen Revision unseres Strafrechts führt: Ignorieren kann man die Erkenntnisse der Hirnforschung sicherlich nicht. Und wenn man sie zur Kenntnis nimmt, muss man einfach eine klarere Vorstellung von Schuldfähigkeit und Verantwortung haben, als wir sie heute besitzen. Hier ist für die Strafrechtstheorie und die Rechtsphilosophie noch einiges zu tun. Doch gibt es hier nicht ein fundamentales theoretisches Problem? Schuldfähigkeit setzt nach einer weit verbreiteten Vorstellung voraus, dass man anders hätte handeln und die fraglichen Gesetze und Normen einhalten können. Wenn aber unsere Welt wirklich von deterministischen Naturgesetzen bestimmt wird, dann steht immer schon fest, was wir tun werden. Wer ein Gesetz gebrochen hat, hätte es also offenbar nicht einhalten können. Doch wie sollen wir jemanden für eine Gesetzesverletzung verantwortlich machen, wenn er das Gesetz mangels Alternativen gar nicht einhalten konnte?
Ich glaube in der Tat, dass es ohne Alternativen keine Verantwortung gibt. Aber ich glaube auch, dass man in einer determinierten Welt sehr wohl anders handeln kann, als man es faktisch tut. Ob ich etwas tun kann oder nicht, hängt nämlich von äußeren Umständen und meinen Fähigkeiten ab. Geht es darum, ob ich etwas tun werde, dann kommt es auf meinen Willen und meine Entscheidungen an. Es ist daher durchaus möglich, dass z.B. ein Aktienexperte eine Verhaltensregel oder ein Gesetz, das er sehr wohl einhalten kann, nicht einhalten will, und dass dieser Wille sein Verhalten bestimmt. Es wäre absurd, würde der Aktienexperte behaupten, er sei unschuldig, weil sein Wille sein Verhalten festgelegt habe. Doch wenn das stimmt, dann kann man eben auch in einer determinierten Welt tun, was man nicht getan hat, vorausgesetzt, das eigene Handeln hängt von den eigenen Wünschen und Entscheidungen ab. Doch selbst wer all dies akzeptiert, kann sich fragen, warum man nicht einfach Verantwortlichkeit und Schuldfähigkeit generell bestreitet und Strafe durch Therapie ersetzt? Wir würden eine Menge Leid verhindern: Niemand müsste ins Gefängnis, und das Schlimmste, was im Falle von Fehlurteilen passieren könnte, wäre eine überflüssige Therapie. Es mag in der Tat sein, dass wir den Schuldbegriff in Zukunft enger fassen müssen. Personen, die wir heute noch als schuldig betrachten, müssten dann als unschuldig gelten - z.B. weil wir neue Erkenntnisse über die Einschränkung ihrer Schuldfähigkeit gewonnen haben. Doch kann es sinnvoll sein, überhaupt niemanden als schuld- und verantwortungsfähig zu betrachten? Und: Wäre dies wirklich menschenfreundlich? Ein weiterer Grund, der dagegen spricht, ergibt sich aus den Konsequenzen. Wenn wir eine Person für verantwortlich und schuldfähig halten, bedeutet dies zunächst, dass wir ihr prinzipiell zutrauen, von ihrer Freiheit einen sinnvollen, eben verantwortlichen Gebrauch zu machen. Verantwortlichen und schuldfähigen Personen können wir daher Freiheitsspielräume zugestehen, die wir denjenigen entziehen, die nicht schuld- und verantwortungsfähig zu handeln vermögen. Das bedeutet nicht nur, dass wir den Handlungsspielraum einschränken, wenn wir glauben, dass jemand nicht schuld- und verantwortungsfähig ist, es bedeutet auch, dass wir solche Personen nicht in vollem Maße als freie und verantwortliche Individuen anerkennen.
Forderung nach Aufgabe des Schuldprinzips widerspricht sich selbst Doch kann man wirklich wollen, dass wir diese Haltung allen Menschen gegenüber einnehmen? Und - selbst wenn man eine solche Einstellung für akzeptabel hält: Wem gegenüber sollten wir denn eigentlich darauf bestehen, dass niemand mehr bestraft, niemand mehr zur Rechenschaft gezogen werden und niemand mehr verantwortlich gemacht werden darf? Wenn niemand verantwortlich und schuldfähig ist, dann gilt dies auch für die möglichen Adressaten einer solchen Forderung. Jeder Richter, der dennoch einen Angeklagten bestraft, jeder Therapeut, der schlechte Arbeit macht, jeder Politiker, der die Forderung nach einer Reform des Strafrechts ignoriert, kann sich darauf berufen, dass auch er selbst weder verantwortlich noch schuldfähig ist. Mit anderen Worten: Die Forderung nach einer fundamentalen Reform von Schuldprinzip und Strafrecht muss eben die Vorstellung von Verantwortung und Schuldfähigkeit voraussetzen, die sie selbst bestreitet. Gibt man diese Vorstellung von Verantwortung wirklich auf, dann hat man eben auch niemanden mehr, der für die Reform des Strafrechts verantwortlich sein könnte. Will man umgekehrt jemanden verantwortlich machen, dann muss man an der Verantwortung festhalten und die Forderung aufgeben. Kurzum: Die Forderung nach einer Aufgabe des Schuldprinzips widerspricht sich selbst. Es führt daher kein Weg an einer Einigung auf möglichst genaue und plausible Maßstäbe für Schuld und Verantwortung vorbei. Das ist nicht einfach, und es ist sicher auch kein einmaliger Akt, vielmehr wird man diese Maßstäbe im Lichte neuer Erkenntnisse immer wieder zur Diskussion stellen müssen. Ein Verzicht auf Begriffe und Maßstäbe hilft dabei genauso wenig wie die Behauptung, Menschen seien nicht verantwortlich. Wenn wir zu gerechten Urteilen kommen wollen, helfen keine undifferenzierten Verallgemeinerungen, auch wenn sie auf den ersten Blick noch so menschenfreundlich daherkommen mögen."
- Footnote
- Bezugnahme auf: Hassemer, W.: Haltet den geborenen Dieb! In: FAZ vom 15.06.2010. Erwiderung auf: Roth, G., G. Merkel: Haltet den Richter!: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 26.06.2010, S.xx. Walter, M.: Unzulässige Überinterpretation: Schuld und Strafe. In: Frankfurter Rundschau. Nr.xxx vom 05.07.2010, S.xx. Janich, P.: Stillschweigende Hirngespinste: Die FR-Debatte zur Willensfreiheit. In: Frankfurter Rundschau. Nr.158 vom 12.07.2010, S.20-21. Lüderssen, K.: Wer determiniert die Hirnforscher?: Was ist Willensfreiheit (4) [Interview]. In: Frankfurter Rundschau. Nr.164 vom 19.07.2010, S.20-21. Fortsetzung: Bormann, F.-J.: Verantwortung und Verdrängung: Was ist Willensfreiheit (6): Die theologische Ethik versucht, menschliche Spielräume realistisch zu vermessen. In: Frankfurter Rundschau. Nr.176 vom 2.8.2010, S.20-21. Vgl. auch: Dahl, E., M. Pauen: Schuld und freier Wille. In: Spektrum der Wissenschaft. 2010, H.6, S.72-79. Vgl.: http://www.fr-online.de/kultur/das-schuldprinzip-antasten--ohne-es-abzuschaffen/-/1472786/4504248/-/index.html.
-
Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000)
0.08
0.075511366 = product of:
0.15102273 = sum of:
0.10034672 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
0.10034672 = score(doc=1729,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.23359407 = fieldWeight in 1729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.050676003 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
0.050676003 = score(doc=1729,freq=52.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.3748476 = fieldWeight in 1729, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.5 = coord(2/4)
- Abstract
- In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
-
Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006)
0.08
0.075019315 = product of:
0.15003863 = sum of:
0.10034672 = weight(_text_:java in 195) [ClassicSimilarity], result of:
0.10034672 = score(doc=195,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.23359407 = fieldWeight in 195, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.049691908 = weight(_text_:und in 195) [ClassicSimilarity], result of:
0.049691908 = score(doc=195,freq=50.0), product of:
0.13519095 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06095451 = queryNorm
0.3675683 = fieldWeight in 195, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=195)
0.5 = coord(2/4)
- Abstract
- Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
- Content
- Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
-
Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998)
0.07
0.07095584 = product of:
0.28382337 = sum of:
0.28382337 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
0.28382337 = score(doc=4593,freq=4.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.6607038 = fieldWeight in 4593, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=4593)
0.25 = coord(1/4)
- Abstract
- Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
-
Reed, D.: Essential HTML fast (1997)
0.07
0.06689782 = product of:
0.26759127 = sum of:
0.26759127 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
0.26759127 = score(doc=6851,freq=2.0), product of:
0.42957735 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06095451 = queryNorm
0.62291753 = fieldWeight in 6851, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6851)
0.25 = coord(1/4)
- Abstract
- This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed