Search (13209 results, page 4 of 661)

  1. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.10115033 = product of:
      0.4046013 = sum of:
        0.4046013 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.4046013 = score(doc=2035,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  2. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.10115033 = product of:
      0.4046013 = sum of:
        0.4046013 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.4046013 = score(doc=2050,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  3. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.10098856 = product of:
      0.20197712 = sum of:
        0.16858388 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.16858388 = score(doc=729,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.033393238 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.033393238 = score(doc=729,freq=8.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  4. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.09946322 = product of:
      0.19892643 = sum of:
        0.1348671 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.1348671 = score(doc=2567,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.06405933 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.06405933 = score(doc=2567,freq=46.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  5. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.098751634 = product of:
      0.19750327 = sum of:
        0.16858388 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.16858388 = score(doc=617,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.028919391 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.028919391 = score(doc=617,freq=6.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  6. Zschunke, P.: "Mehr Informationen als die Stasi je hatte" : Soziale Netzwerke (2008) 0.10
    0.09821126 = product of:
      0.19642252 = sum of:
        0.04698845 = weight(_text_:und in 2308) [ClassicSimilarity], result of:
          0.04698845 = score(doc=2308,freq=44.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.34480965 = fieldWeight in 2308, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2308)
        0.14943407 = weight(_text_:hofft in 2308) [ClassicSimilarity], result of:
          0.14943407 = score(doc=2308,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.28392458 = fieldWeight in 2308, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2308)
      0.5 = coord(2/4)
    
    Content
    "Millionen von Internet-Nutzern drängen in soziale Netze wie StudiVZ und Facebook. Diese Online-Plattformen für die Vernetzung von persönlichen Web-Auftritten entwickeln sich zu einer neuen Art von Massenmedium, wie der Digitale-Medien-Experte Hendrik Speck sagt. Völlig offen sei aber bislang die Frage nach der gesellschaftlichen Verantwortung der "Social Networks". "Die haben mehr Informationen, als die Stasi je hatte", sagt der Informatik-Professor der Fachhochschule Kaiserslautern im Gespräch mit der Nachrichtenagentur AP. Bei den drei Plattformen Facebook, MySpace und Xing hat Speck insgesamt 120 persönliche Attribute gezählt, die auf den persönlichen Seiten der Mitglieder angegeben werden können - angefangen bei Alter und Wohnort über Lieblingsfilme und -musik bis hin zu politischer Neigung und sexueller Ausrichtung. "Wir sehen da einen völlig irrationalen Zugang zu den eigenen Daten", kritisiert der Social-Networks-Forscher. Was aber treibt die Internet-Nutzer zu dieser Art von "digitalem Exhibitionismus"? Speck und seine Studenten haben die Kommunikation in den Netzen mit Hilfe von Software-Agenten und "Crawlern" zu erfassen versucht - das sind Programme, die auf die Seiten dieser Communities vordringen und die Inhalte auswerten. "Wir stellen fest, dass da unheimlich viel offen liegt", sagt Speck. Suche nach Anerkennung und Aufmerksamkeit Als wichtige Antriebskraft hat der Wissenschaftler das Motiv ausgemacht, über den stetig wachsenden Kreis von registrierten "Freunden" Anerkennung und Aufmerksamkeit zu erringen. Bei MySpace oder im SchülerVZ kann sich jeder auf eine Weise präsentieren, wie es in den klassischen Medien kaum möglich ist. Und weil die persönlichen Profile mit wenigen Mausklicks schnell erstellt sind, ist die Eintrittsschwelle sehr viel geringer als bei den Netz-Communities der ersten Stunde, etwa der schon 1985 gegründeten virtuellen Gemeinschaft "The WELL".
    Bislang sind es meist Jugendliche und junge Erwachsene bis etwa 35, die die Mehrheit der Community-Mitglieder ausmachen. Es gebe aber Bestrebungen, die Altersgruppe nach oben zu erweitern, sagt Speck. Die soziale Interaktion in den Social Networks kreist nach seinen Erkenntnissen immer wieder um die gleichen Dinge: 1) Unterhaltung - von Musik bis zu Stars und Sternchen 2) die gesellschaftlich geteilte Schadenfreude nach dem Motto "Pleiten, Pech und Pannen" 3) Flirten und sexuelle Beziehungen. Dabei kommen Männer direkter auf den Punkt als Frauen, die dies hinter anderen Interessen verstecken. Auf der anderen Seite stehen die Betreiber der Netze. Diese erzielen mit der Bereitstellung der Plattform zwar bislang meist noch keine Gewinne, haben aber wegen der gigantischen Zuwachsraten das Interesse von Internet- und Medienunternehmen geweckt, die wie Microsoft oder die Verlagsgruppe Holtzbrinck in Social Networks investieren. Der einzelne Nutzer ist 20 bis 22 Dollar wert Da die Technik der Webseiten nicht besonders aufwendig sei, liege der eigentliche Reichtum in den Nutzern und ihren Daten, erklärt Speck. Bei den großen Plattformen in den USA lasse sich aus den getätigten Investitionen für die Social Networks der Wert eines einzelnen Nutzers auf einen Betrag von 20 bis 22 Dollar (14 bis 15 Euro) schätzen. Der Gegenwert, den die Nutzer liefern sollen, wird vor allem in der Werbung gesehen. Neben der klassischen Bannerwerbung auf den eigenen Seiten versuchen die Betreiber der sozialen Netzwerke nach Darstellung Specks, in andere Dienste wie SMS-Werbung oder E-Mail vorzudringen. Um die Werbe-Zielgruppen immer feiner zu erfassen, werde auch untersucht, wer mit welchem Profil mit wem kommuniziere. "Je tiefer die Vernetzung, desto dichter werden die Informationen", erklärt Speck.
    Der Wissenschaftler kritisiert, dass die Daten so behandelt würden, als gehörten sie nicht dem Nutzer, sondern den sozialen Netzwerken. Selbst wenn es die Möglichkeit gebe, einen Account zu löschen, blieben die Daten vielfach weiter bestehen. Und über die beliebten Mini-Anwendungen zur Integration in die eigene Profilseite erhielten auch die Entwickler dieser Applikationen einen Zugang zu den persönlichen Daten. "Da weiß man dann gar nicht, wer dahinter steckt." Weder "open" noch "social" Google hat Anfang November vergangenen Jahres unter der Bezeichung OpenSocial eine Initiative gestartet, um solche Anwendungen und Schnittstellen nach einheitlichen Standards programmieren zu können. Das Projekt sei aber weder "open" noch "social", weil nicht vorgesehen sei, den Nutzern eine transparente Kontrolle über ihre eigenen Daten zu geben, bemängelt der FH-Professor. Das Projekt bemühe sich um die "Datenportabilität" zwischen den kommerziellen Projektpartnern und unterstütze die Interaktionen zwischen einzelnen Communities, versage jedoch komplett bei der Interessenswahrnehmung der Nutzer in Hinblick auf informationelle Selbstbestimmung und einem verbesserten Schutz der Privatssphäre. Um die zahlreichen offenen Fragen nach der Verantwortung für die Millionen von persönlichen Daten zu klären, schlägt Speck einen Verhaltenskodex für soziale Netzwerke vor. Für die gemeinsame Entwicklung von ethischen Grundsätzen will er neben Datenschützern auch die Betreiber der Communities gewinnen und hofft, schon in wenigen Monaten eine entsprechende Initiative vorstellen zu können. http://www.hendrikspeck.com"
  7. Kleinz, T.: ¬Die halbe Freiheit : Scanner wie jene von Google haben in Bibliotheken verborgene Schätze - doch Gemeingut werden die dann selten (2007) 0.10
    0.095968366 = product of:
      0.19193673 = sum of:
        0.04250265 = weight(_text_:und in 1185) [ClassicSimilarity], result of:
          0.04250265 = score(doc=1185,freq=36.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.31189203 = fieldWeight in 1185, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1185)
        0.14943407 = weight(_text_:hofft in 1185) [ClassicSimilarity], result of:
          0.14943407 = score(doc=1185,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.28392458 = fieldWeight in 1185, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1185)
      0.5 = coord(2/4)
    
    Content
    "Stolz präsentiert der Bayerische Wissenschaftsminister Thomas Goppel (CSU) die Zusammenarbeit der Bayerischen. Staatsbibliothek mit Google: "Die reichhaltigen und einzigartigen Bestände werden bald jedem Interessierten per Mausklick zur Verfügung stehen." Nicht weniger als eine Million Bände will der Suchmaschinen-Gigant Seite für Seite in München einscannen. Ein Geschäft auf Gegenseitigkeit. Google kann die Inhalte der eine Million Bände in der nach Berlin zweitgrößten Universalbibliothek im deutschen Sprachraum in sein Angebot einbauen. Und die Münchener bekommen eine Kopie der Daten, die sie ihren Nutzern zur Verfügung stellen dürfen. "Der Vertrag gibt uns das Recht, die Daten in den Angeboten unserer Webseite frei zu verwenden", sagt Klaus Ceynova, stellvertretender Generaldirektor der Staatsbibliothek. Gescannt werden Bücher, die gemeinfrei sind - an denen also keine Urheberrechte mehr bestehen. Der Text gehört der Allgemeinheit. Neue Beschränkungen Für den Berliner Bibliothekar Patrick Danowski ist das zu wenig. "Viele Kultureinrichtungen wie Bibliotheken, Archive und Museen stellen ihre Digitalisate unter restriktiven Bedingungen zur Verfügung und beanspruchen für sie teilweise ein neues Copyright. Das schwächt das Gemeingut - und steht damit im im Widerspruch zu der auf dem UN-Weltgipfel zur Informationsgesellschaft beschlossenen Stärkung der Gemeinfreiheit." Danowski, der im Vorstand von Wikimedia Deutschland arbeitet, fordert: "Gemeinfreie Werke müssen auch in digitaler Form gemeinfrei bleiben." Um das zu unterstreichen, hat Danowski ein Empfehlungspapier für den Bibliothekartag in Leipzig verfasst. Zentraler Punkt: Büchereien sollen die digitalen Daten ausdrücklich zu jeder Verwendung freigeben. Dazu gehört das Recht, Werke zu kopieren und an anderer Stelle zu verwenden. Sogar der Verkauf einer neuen Auflage eines Buchs wäre möglich. Doch Danowski stößt auf wenig Gegenliebe bei seinen Kollegen. Klaus Ceynova von der Bayerischen Staatsbibliothek sagt: "Es geht darum, den Nutzern freien Zugang zu den Büchern zu geben." Eine unkontrollierte Weitergabe der Bücher lehnt er ab. Zwar sind die Texte selbst gemeinfrei, doch die Bibliotheken haben Nutzungsrechte an den oft teuren Handschriften und Originalausgaben. Die Kontrolle wollen sie nicht abgeben. Einen anderen Ansatz hat das MaxPlanck-Institut für Wissenschaftsgeschichte in Berlin. Dort ist das von der Europäischen Union geförderte Projekt "European Cultural Heritage Online" angesiedelt, das die kulturellen Schätze Europas verfügbar machen möchte. Eine Kontrolle, wer wann auf die Inhalte zugreift, beansprucht das Institut nicht. "Wir stellen die Materialien zur Verfügung, damit man mit ihnen arbeiten kann", sagt Projektkoordinatorin Simone Rieger. Ihr Institut stellt Werkzeuge bereit, um mit den Texten besser umgehen zu können, Original und Abschrift zu vergleichen oder den Kontrast zu erhöhen. Wenn die Wissenschaftlerin jedoch per Internet in anderen Bibliotheken recherchiert, muss sie auf diese Werkzeuge verzichten; der freie Zugang ist nur in der Arbeitsumgebung der jeweiligen Bibliothek erlaubt.
    Wie schnell digitalisiertes Wissen verfallen kann, zeigt der Codex Leicester, eine Sammlung von Handschriften Leonardo da Vincis. Microsoft-Gründer Bill Gates hatte den Codex in den 90er Jahren gekauft und auf CD-ROM veröffentlicht. Das Problem: Die 1996 produzierte CD läuft nicht auf aktuellen Rechnern, und eine Neuauflage bleibt aus - allein Besitzer Bill Gates hätte das Recht dazu. Um solche Rückschläge zu vermeiden, hat die Max-Planck-Gesellschaft schon vor drei Jahren die Berliner Erklärung aufgesetzt. Mit ihr versichern die Unterzeichner, wissenschaftliche Arbeiten kostenlos einsehbar zu machen und das Kopieren der Inhalte zu ermöglichen. Doch der Gedanke setzt sich nicht komplett durch; viele Einrichtungen belassen es beim kostenlosen Zugriff für die Allgemeinheit. In den Scanprojekten wie dem von Google sieht Rieger zwar einen Schritt nach vorne. So werden mit der Digitalisierung Bücher geschont: Statt sie ständig in den Leseseal zu liefern und dort Schmutz und Licht auszusetzen, werden die Werke nur einmal eingescannt und müssen nicht mehr aus dem sicheren Archiv entnommen werden. Für die wissenschaftliche Arbeit an Handschriften müsse man jedoch weiter greifen. "Schwarz-Weiß-Scans sind für die Forschung wenig geeignet", sagt die Fachfrau. Zudem sei eine automatische Handhabung der Originalquellen nicht immer möglich: Gerade alte Bücher seien häufig fleckig, für die alten Schrifttypen gibt es selten eine automatische Zeichenerkennung. Dann hilft nur geduldige Handarbeit, um das Wissen den historischen Quellen zu entnehmen. Dieser Aufgabe haben sich auch die Aktiven von Wikisource verschrieben. In einem Schwesterprojekt der Wikipedia sind mehrere hundert Freiwillige damit beschäftigt, mittelalterliche Handschriften und Kulturgüter einzuordnen, zu sortieren und zu transkribieren. In gemeinschaftlicher Arbeit werden mittelalterliche, bis neuzeitliche Quellen gesichtet und in Klartext übersetzt vorn Steckbrief aus dem 17. Jahrhundert bis zu Gesetzestexten aus der Zeit der Nationalsozialisten. "Noch haben die Bibliotheken Bedenken,- uns 'Materialien zur Verfügung zu stellen", sagt Danowski. Er hofft, dass sich die Entscheidungsträger künftig öffnen und auch Hobby-Wissenschaftlern die Arbeit mit den Quellen ermöglichen."
  8. Ovid announces strategic partnerships : Java-based interface (1997) 0.10
    0.09536544 = product of:
      0.38146177 = sum of:
        0.38146177 = weight(_text_:java in 397) [ClassicSimilarity], result of:
          0.38146177 = score(doc=397,freq=4.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.8809384 = fieldWeight in 397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=397)
      0.25 = coord(1/4)
    
    Abstract
    Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
  9. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.09242276 = product of:
      0.18484552 = sum of:
        0.1348671 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.1348671 = score(doc=2121,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.049978416 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.049978416 = score(doc=2121,freq=28.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  10. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.09242276 = product of:
      0.18484552 = sum of:
        0.1348671 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.1348671 = score(doc=346,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.049978416 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.049978416 = score(doc=346,freq=28.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  11. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.090569064 = product of:
      0.18113813 = sum of:
        0.1348671 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.1348671 = score(doc=6889,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.046271026 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.046271026 = score(doc=6889,freq=24.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  12. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.090569064 = product of:
      0.18113813 = sum of:
        0.1348671 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.1348671 = score(doc=1642,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.046271026 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.046271026 = score(doc=1642,freq=24.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  13. Tsai, B.-s.: Infomapping in information retrieval (1997) 0.09
    0.087598756 = product of:
      0.35039502 = sum of:
        0.35039502 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
          0.35039502 = score(doc=3877,freq=6.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.8091937 = fieldWeight in 3877, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3877)
      0.25 = coord(1/4)
    
    Abstract
    Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
  14. Internet: The editor's choice (2002) 0.08
    0.08429194 = product of:
      0.33716777 = sum of:
        0.33716777 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.33716777 = score(doc=1854,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  15. Hawk, J.: OCLC SiteSearch (1998) 0.08
    0.08344476 = product of:
      0.33377904 = sum of:
        0.33377904 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
          0.33377904 = score(doc=3079,freq=4.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.7708211 = fieldWeight in 3079, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3079)
      0.25 = coord(1/4)
    
    Abstract
    Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
  16. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.08
    0.08344476 = product of:
      0.33377904 = sum of:
        0.33377904 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
          0.33377904 = score(doc=2673,freq=4.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.7708211 = fieldWeight in 2673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2673)
      0.25 = coord(1/4)
    
    Abstract
    The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
  17. Haubner, S.: "Als einfacher Benutzer ist man rechtlos" : Unter den freiwilligen Wikipedia-Mitarbeitern regt sich Unmut über die Administratoren (2011) 0.08
    0.082713306 = product of:
      0.16542661 = sum of:
        0.040898196 = weight(_text_:und in 567) [ClassicSimilarity], result of:
          0.040898196 = score(doc=567,freq=48.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.30011827 = fieldWeight in 567, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=567)
        0.12452841 = weight(_text_:hofft in 567) [ClassicSimilarity], result of:
          0.12452841 = score(doc=567,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.23660383 = fieldWeight in 567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.01953125 = fieldNorm(doc=567)
      0.5 = coord(2/4)
    
    Content
    "Kaum etwas hat den Umgang mit dem Wissen der Welt so verändert wie Wikipedia. Die von Tausenden von freiwilligen Helfern erstellte Online-Enzyklopädie ist eine ein Jahrzehnt währende Erfolgsstory - ganz besonders in Deutschland. Mit rund 1,2 Millionen Artikeln ist die deutsche nach der englischen die zweitgrößte Wikipedia-Ausgabe. Laut der aktuellen Online Studie von ARD und ZDF haben fast 36 Millionen Deutsche schon einmal etwas im Internet nachgeschlagen. Fast drei Viertel der Internetnutzer ab 14 Jahren schauen zumindest ab und an mal bei Wikipedia vorbei. Wikipedia ist zu einem Giganten geworden, die Menge an Informationen ist unüberschaubar. Genau das wird immer mehr zu einem Problem. Nutzer, die nur eben mal kurz etwas nachschlagen wollen, sind häufig ernüchtert. In manchen Themenbereichen liest sich Wikipedia nicht mehr wie ein Volkslexikon, sondern wie eine in bestem Fachchinesisch verfasste Doktorarbeit. Ein Beispiel dafür ist der Artikel über den "Goldenen Schnitt". Dass sich dabei der größere Abschnitt einer Strecke zu dieser verhält wie der kleinere Abschnitt zum größeren, erklärt das gedruckte Meyers Taschenlexikon in zwei Sätzen. Wikipedia-Nutzer sehen sich einer Fülle von Formeln, Schaubildern und Diagrammen gegenüber. Einem Schüler, der sich über die Rolle des Goldenen Schnitts in der bildenden Kunst informieren möchte, schwirrt da bald der Kopf. Und im Abschnitt "Bildkomposition" er schließlich endgültig verunsichert. Weil der Artikel nicht hinreichend mit Belegen ausgestattet sei, würden einige Angaben möglicherweise demnächst entfernt. Eine zuverlässige Informationsquelle sieht anders aus.
    "Kann es sein, dass sich hier die reinen Fachidioten tummeln?", fragt ein Nutzer. "Warum schreibt hier niemand etwas davon, worum es wirklich geht?" Auf der zu jedem Artikel gehörenden Diskussionsseite wird mühsam um jeden einzelnen Satz gerungen. Welche Informationen sind wirklich wichtig? Gibt es dafür ausreichende Belege? Warum wurde ein bestimmter Absatz gelöscht und dafür ein anderer eingefügt? Und wer bestimmt überhaupt, was wissenswert ist und was nicht? Vollends unübersichtlich wird es, wenn abweichende Meinungen unversöhnlich aufeinanderprallen. So umfasst die Diskussion um die wissenschaftliche Belegbarkeit der Homöopathie mittlerweile 1,3 Millionen Wörter. Mit 11.400 Einzelbeiträgen, so erfährt der Nutzer auf der betreffenden Seite, handle es sich um die längste Diskussion über einen Artikel in der deutschsprachigen Wikipedia. Allein für das Lesen benötige man ohne Pausen etwa 143 Stunden. Kein Wunder, dass vielen potenziellen Mitarbeitern solche Grabenkämpfe auf Dauer zu anstrengend sind. Gerade einmal drei Prozent der Nutzer haben schon einmal selbst Artikel verfasst oder fremde überarbeitet. Der Anteil weiblicher Helfer hinkt dem der männlichen seit Jahren dramatisch hinterher. Dass viele Autoren bereits nach wenigen Beiträgen wieder im Heer der inaktiven Nutzer untertauchen, ist mittlerweile sogar Gegenstand einer internen Befragung.
    Nicht wenige von denen, die aus Frust nicht mehr dabei sind, machen dafür die Administratoren verantwortlich. Derzeit rund 300 "Admins" wurden von der Wikipedia-Gemeinschaft mit weiter gehenden Rechten ausgestattet, als sie der normale Nutzer hat. Um die Informationsflut einigermaßen zu kanalisieren, haben sich einige von ihnen recht rustikale Umgangsformen angewöhnt. Inhaltliche Auseinandersetzungen werden mit harten Bandagen und oft fragwürdiger Wortwahl ausgetragen. Wer die Relevanz eines von ihm verfassten Artikels nicht nachweisen kann, muss mit der Löschung des gesamten Beitrags rechnen. Wer dagegen Einspruch erhebt, wird barsch abgebügelt: Ganz Uneinsichtige müssen gar mit einer dauerhaften Sperrung rechnen: Das allgemeine Arbeitsklima und die Art und Weise, wie hier mit Leuten umgesprungen wird, ist absolut beklagenswert", sagt Dr. Klaus Graf, Historiker und Archivar an der Rheinisch-Westfälischen Technischen Hochschule in Aachen und seit 2004 aktiver Mitarbeiter an der Online-Enzyklopädie. Viele der Admins beherrschten die einfachsten Grundregeln im Umgang mit Menschen nicht. "Diese Leute leben bei Wikipedia ihre Allmachtsfantasien aus und glauben, sich alles herausnehmen zu können." Offenbar können sie das auch. "Als einfacher Nutzer", so Graf, "ist man vollkommen rechtlos und steht am Ende immer auf der Seite der Verlierer." Denn das Schiedsgericht, das man als letzte Instanz aufrufen kann, sei keineswegs neutral, sondern stehe fast immer geschlossen hinter den Admins, die sich wie "Oberlehrer" und "Blockwarte" gerierten.
    Das strukturelle Ungleichgewicht führt letztlich auch zu einem inhaltlichen. So strotzt Wikipedia geradezu vor Detailwissen zu historischen und modernen Kriegsschiffen - inklusive seitenlang ausgebreiteter technischer Details. Kultur- und Bildungseinrichtungen landen hingegen ziemlich schnell als "irrelevant" auf der Liste der "Löschkandidaten". Nach einer siebentägigen "Löschdiskussion" verschwinden sie im digitalen Orkus - inklusive der von den Autoren investierten Arbeitsstunden. "Wir mischen uns grundsätzlich nicht in redaktionelle Vorgänge ein", kommentiert Catrin Schoneville vom Förderverein Wikimedia Deutschland die Klagen enttäuschter Mitarbeiter. Selbstgerechtigkeit und rüpelhaftes Verhalten seien zudem keine auf Wikipedia beschränkte Phänomene, sondern ein Problem bei Diskussionen mit unterschiedlichen Auffassung überall im Internet. Die überwiegende Mehrheit der Autoren arbeite einfach mit und befasse sich nicht mit den Vorwürfen und der Nörgelei, die "immer wieder von dem gleichen kleinen Kreis von Kritikern geäußert würden. Auch ein Nachwuchsproblem sieht die Wikimedia-Sprecherin nicht: "Wir haben derzeit rund 7000 aktive Autoren in der deutschsprachigen Community. Bei einem freiwilligen Projekt liegt es in der Natur der Sache, dass das Engagement, mit dem sich jeder einzelne einbringt, variiert."
    Dennoch bemühe man sich, mit Förderprojekten und Workshops für mehr Motivation zu sorgen und neue Zielgruppen zu erschließen. So werde das Mentorenprogramm, in dessen Rahmen man sich von erfahrenen Autoren bei den ersten Schritten in der Wikipedia-Welt begleitet lassen kann, schon von 90 Prozent der Neueinsteiger angenommen. Stolz ist man bei Wikimedia auf das Projekt "Silberwissen", mit dem vor allem ältere Menschen angesprochen werden sollen. "Das Wissen älterer Generationen könnte Wikipedia bereichern und neue Perspektiven eröffnen", hofft Schoneville. Vielleicht wirkt sich diese Lebenserfahrung ja irgendwann einmal auch auf die in der Wikipedia-Gemeinde herrschenden Umgangsformen aus. Zu wünschen wäre es. Schließlich, und da sind sich ausnahmsweise einmal alle Beteiligten einig, gibt es zu Wikipedia mit seinen beinahe konkurrenz- weil kostenlosen Angeboten derzeit kaum echte Alternativen."
  18. Heess, J.: Internet-Computer erleichtern Blinden, den Alltag zu bewältigen. Sehende können ihre Augen ausleihen : Surfen mit Fingerspitzengefühl (2002) 0.08
    0.082282744 = product of:
      0.16456549 = sum of:
        0.040037084 = weight(_text_:und in 1589) [ClassicSimilarity], result of:
          0.040037084 = score(doc=1589,freq=46.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.29379928 = fieldWeight in 1589, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1589)
        0.12452841 = weight(_text_:hofft in 1589) [ClassicSimilarity], result of:
          0.12452841 = score(doc=1589,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.23660383 = fieldWeight in 1589, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1589)
      0.5 = coord(2/4)
    
    Content
    "Wenn Marita Kessler im Internet surft, braucht sie beide Hände. Und ihre Ohren. Denn sie muss hören, was sich auf dem Bildschirm abbildet. Die 47-Jährige ist seit ihrer Geburt blind. Mit Hilfe bestimmter PC-Ausstattungen kann sie den Computer fast genauso nutzen wie Sehende. Bereits seit 19 Jahren arbeitet Marita Kessler in der Firma Audiodata in Oberhausen bei Speyer - und zwar hauptsächlich am Rechner. Unter anderem beantwortet sie die Zuschriften vieler blinder und sehbehinderter Menschen, die sich an das Unternehmen wenden - in der Hoffnung, Erleichterung in hrem Alltag oder ihrer Freizeit zu finden. Der Betrieb, ,der in einem ehemaligen Schweinestall seinen Hauptsitz hat, produziert seit 1983 Computer-Hilfsmittel für Blinde und Sehbehinderte. Firmengründer Joachim Frank ist selbst sehbehindert und hat eigene Erfahrungen in seine Arbeit einfließen lassen. "Das erste Produkt war ein akustisches Blinden-Text-System, mit dem Blinde auch Texte verarbeiten können", erinnert er sich. "Doch dann haben wir gemerkt, dass es eigentlich zum viel mehr geht." Nämlich dass Menschen ohne Augenlicht, die gesamten Möglichkeiten des PCs intensiv nutzen können. Heute stellt Frank mit rund 50 sehenden und blinden Mitarbeitern 14 Hilfsmittel her - und zwar neun Geräte und fünf Programme. Beispielsweise die Software Blindows. Sie übersetzt die grafische Windows-Oberfläche in hörbare Sprache oder in die Blindenschrift Braille. Marita Kessler zeigt an ihrem Arbeitsplatz die Funktionsweise des Programms. Wenn sie ein neues Word-Dokument öffnen will, bewegt sie den Cursor mit der Tastatur auf die Menüleiste. Die Befehle werden von einer elektronischen Stimme mitgesprochen und gleichzeitig auf einer Schiene an der Unterseite der Tastatur in Braille-Schrift wiedergegeben. Marita Kessler kann also auf die Stimme hören und mit den Fingerspitzen die sich hebenden und senkenden Pünktchen spüren. Es ist für sie kein Problem, längere Texte am Schirm zu lesen oder Mails zu beantworten. Damit es flotter geht, stellt sie gerne die Geschwindigkeit der lesenden Stimme schneller - und lauscht nun einem Text, der in ungeübten Ohren so klingt, als würde man eine Kassette im Vorlauf abspielen. Doch Marita Kessler versteht jedes Wort. Nicht weniger beeindruckend ist ihre Bewegungssicherheit auf dem Monitor. Da-zu bedient sie mit beiden Händen einen vertikal sowie einen horizontal zur Tastatur angebrachten Schieber. Je nach Standort werden unterschiedliche Töne erzeugt. Leerzeilen erkennt Marita Kessler zum Beispiel an einem tiefen, Cursorzeilen an einem hellen Ton. "Die taktil-akustische Seiten-Orientierung erfasst den Bildschirm in zwei Dimensionalen", erklärt der Erfinder Joachim Frank. "Blinde wollen ja nicht, dass ihnen der Bildschirm wie ein Brief von oben nach unten vorgelesen wird, sondern sie wollen gezielt auf etwas zugreifen." Mit dem Hilfsmittel seien Blinde in der Lage, den Punkt ihrer Aufmerksamkeit selbst zu setzen. Was besonders beim Surfen im Internet sinnvoll angewendet werden kann. Denn gerade im Netz sucht man oft nach einer bestimmten Information und lässt überflüssigeTexte undLinks unbeachtet. Oder Bilder. Die sind für Blinde besonders störend, da sie nicht übersetzt werden können. An dieser Stelle erleichtert eine weitere Entwicklung Sehbehinderten das Dasein im Netz. Der Webformator blendet alle Bilder und Grafiken aus und stellt die komplette Internetseite in Textform dar. So können - wiederum mit Hilfe von Blindows - auch Links, die sich eventuell unter Icons oder Bildern verbergen, gezielt angewählt werden. Die Kombination der Hilfsmittel erlaubt dem Rennsport Fan Marita Kessler unter anderem, eine Formel-l-Seite mit Grafiken und Ergebnistabellen ohne Probleme zu lesen.
    Während Blinde das Leben im Cyberspace mit diesen Hilfsmitteln nahezu mühelos bewältigen können, bietet der Alltag nach wie vor Hürden, die sie nur mit der Unterstützung von Sehenden überwinden. Halte ich gerade die Dose mit den Erbsen oder das Hundefutter in der Hand? Habe ich zwei verschiedenfarbige Socken an? Auch eine handgeschriebene Postkarte müssen sich gehbehinderte immer noch vorlesen lassen-was voraussetzt, dass gerade jemand da ist. Um die Abhängigkeit der Blinden von ihrem Umfeld zu lockern, hat sich Joachim Frank "Klickblick" ausgedacht. Die Erfindung erinnert in ihrer Kreativität ein wenig an die verrückten Schöpfzungen von Walt Disneys Daniel Düsentrieb. Im Gegensatz zu den Einfällen der Erfinder-Ente funktioniert Franks Entwicklung aber tatsächlich. Was Marita Kessler beweist. Mit Hilfe einer Webcam, die sie an ihrem PC angebracht hat, und der nötigen Software ist sie in der Lage, ein Bild der Postkarte ins Internet zu übermitteln. Daraufhin kann ihr ein so genannter Blicker, der auch online ist, die Postkarte vorlesen - entweder über eine TelefonInternet-Verbindung oder in Form eines getippten Textes. "Somit können Blinde jederzeit auf die Unterstützung Sehender zurückgreifen - auch wenn gerade keiner in der Nähe ist", erklärt Joachim Frank. Damit Klickblick funktioniert, muss sich der Blicker lediglich die entsprechende kostenlose Software herunterladen und ein Mikrofon fier die Sprachverbindung anschaffen. Der blinde Frager benötigt zusätzlich die Webcam und muss - je nach Benutzungsfrequenz - einen kleinen Be-trag bezahlen. Natürlich brauchen beide einen Internet-Zugang oder zumindest einen Zugriff zu einem lokalen Netzwerk. Derzeit ist die aktive Klickblick-Gemeinschaft überschaubar. An der Testphase des Projekts, das im vergangenen Jahr mit dem "Start Social, einem Sozialpreis der Bundesregierung, ausgezeichnet wurde, beteiligen sich seit Januar 20 Blinde und 50 Blicker. Die Gefahr ist noch groß, dass in dem Moment, in dem der Blinde sich das Auge eines anderen Users leihen möchte, keiner online ist. Deshalb will Joachim Frank mehr sehende Menschen für seine Idee begeistern. Unterstützung von den deutschen Blinden-Selbsthilfeverbänden hat er bereits: Mit ihnen hat Frank den gemeinnützigen Verein "Klickblick Plus" gegründet. Wir haben uns hauptsächlich die' Förderung von Klickblick und die internationale Verbreitung der Erfindung zum Ziel gesetzt", erklärt Frank. Gerade hat er Klickblick auf einer Messe in Los Angeles vorgestellt. "Wir, wollen keine verschiedensprachigen Netzwerke, sondern eine einzige Community einrichten, beschreibt er. Dort könne man sich mit seiner Muttersprache und seinen Zweitsprache registrieren. "Das wird dann zu einer transnationalen Brücke führen°, hofft Frank. Die Namen für Klickblick, die sind allerdings noch unterschiedlich: Auf Spanisch heißt die Entwicklung "Los ojos", die Augen Und das Englische kommt der eigentlichen: Bedeutung, nämlich der Idee des ausgeliehenen Auges, vielleiht am nächsten: Hier heißt Klickblick schlicht "See for me"."
  19. Koch, C.: Bewusstsein : ein neurobiologisches Rätsel (2005) 0.08
    0.082282744 = product of:
      0.16456549 = sum of:
        0.040037084 = weight(_text_:und in 559) [ClassicSimilarity], result of:
          0.040037084 = score(doc=559,freq=46.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.29379928 = fieldWeight in 559, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=559)
        0.12452841 = weight(_text_:hofft in 559) [ClassicSimilarity], result of:
          0.12452841 = score(doc=559,freq=2.0), product of:
            0.5263161 = queryWeight, product of:
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.06144265 = queryNorm
            0.23660383 = fieldWeight in 559, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.565973 = idf(docFreq=22, maxDocs=44421)
              0.01953125 = fieldNorm(doc=559)
      0.5 = coord(2/4)
    
    Abstract
    Das Bewusstsein ist eines der letzten großen ungelösten Rätsel der Wissenschaft - und sicherlich das größte der Biologie. Wir können den salzigen Geschmack von Kartoffel-Chips spüren, den unverkennbaren Geruch von Hunden wahrnehmen, wenn sie im Regen waren, und kennen das besondere Gefühl, wenn man nur an den Fingerkuppen hängend viele Meter über dem sicheren Boden in einer Felswand klettert. Wie können diese Eindrücke aus den Neuronen und den mit ihnen assoziierten Synapsen und molekularen Prozessen entstehen? Die Frage nach dem Bewusstsein hat die Ideen von Philosophen, Wissenschaftlern, Ingenieuren und den denkenden Menschen generell beflügelt. Was ist Bewusstsein? Wie passt es sich ein in unser Universum? Wozu ist es Nütze? Kommt es nur beim Menschen vor? Warum laufen so viele unserer tagtäglichen Handlungen bewusst ab? Antworten auf diese Fragen werden ein neues Bild kreieren, was es bedeutet, ein Mensch zu sein. In diesem Sachbuch, das aufgrund seines Schreibstils - ein Glossar erläutert die Fachausdrücke - für den interessierten Menschen mit Grips ebenso geeignet ist wie - aufgrund der exakten Literaturhinweise - für den Wissenschaftler oder Studenten, ergründet Christof Koch, einer der international renommiertesten Forscher in der Bewusstseins-Forschung, die der subjektiven Wahrnehmung von Mensch und Tier zugrunde liegende biologische Grundlage. Er erklärt das Gedankengerüst, das er und Francis Crick entwickelt haben, um das alte Leib-Seele-Problem zu verstehen. Das Herzstück dieses Gerüstes ist ein tragender Ansatz, die neuronalen Korrelate des Bewusstseins zu entdecken und zu charakterisieren, feine, flackernde Muster von Gehirnaktivität, die wirklich jeder bewussten Erfahrung zugrunde liegen. Ausgehend von umfangreichen anatomischen, physiologischen, klinischen, psychologischen und philosophischen Ansätzen und Daten umreißt dieses anspruchsvolle Sachbuch die wissenschaftliche Grundlage von Bewusstsein, zeigt die Grenzen unseres Wissens auf und beschreibt Versuche, die durchgeführt werden müssen, um dieses Rätsel erfolgreich abzuschließen.
    Footnote
    Rez. in: Spektrum der Wissenschaft 2006, H.6, S.101-102 (M. Springer): "Wir erforschen den Kosmos, um zu erfahren, woher wir kommen, und die Welt der Elementarteilchen, weil wir erkennen wollen, woraus wir letztlich bestehen. Nun wenden wir uns mit dem in Jahrhunderten gewonnenen Wissen dem nächstliegenden Forschungsobjekt zu: dem eigenen Gehirn. Das ist ein Schwindel erregendes Unternehmen, denn dabei beugt sich gewissermaßen das Gehirn wissbegierig über sich selbst. Geht das? Kann eine ursprünglich zur Analyse der unbelebten, bewusstlosen Natur entwickelte Methode jemals erklären, wie unser Gehirn Bewusstsein produziert? Muss nicht zwischen physikalisch-chemischen Hirnvorgängen und unserem sinnlichen Erleben von Farben, Schmerzen und Emotionen die notorische »Erklärungslücke« der Bewusstseinsforschung klaffen? Es kommt auf den Versuch an. Wer wissen will, was die Naturwissenschaft - konkret die Neurobiologie - bisher über die materielle Basis unseres bewussten Erlebens herausgebracht hat, sollte dieses Buch lesen. Christof Koch sucht empirisch nach den »neuronalen Korrelaten des Bewusstseins« (neuronal correlates of consciousness, NCCs) - dem kleinsten Satz neuronaler Ereignisse, der für eine bestimmte bewusste Wahrnehmung hinreichend ist. Gewiss vermag unser Gehirn noch viel mehr, als bloß Sinneserlebnisse zu vermitteln: Wir können sprechen, Erlebnisse reflektieren, zählen, logisch denken und so weiter. Das vergleichsweise bescheidene Projekt, NCCs für bewusste visuelle Wahrnehmung zu suchen, hat Koch gemeinsam mit Francis Crick, dem Mitentdecker des genetischen Codes, bis zu dessen Tod 2004 verfolgt, weil die beiden darin den einfachsten Zugang zum Rätsel des Bewusstseins sahen. Damit wiederholte Crick eine Vorgehensweise, mit der er schon 1953 erfolgreich war: zur Erforschung des bislang Unvorstellbaren zunächst ein möglichst einfaches Beispiel zu studieren. Bevor Crick zusammen mit James Watson die Struktur der DNA aufdeckte, konnten die Biologen sich nicht vorstellen, wie ein einzelnes Molekül die Information über den Aufbau eines lebenden Organismus enthalten sollte. Analog hofften später Crick und Koch, aus der Struktur der Neuronen und ihren Wechselwirkungen auf die physische Grundlage des Bewusstseins schließen zu können.
    Das ist kein Top-down-, sondern ein Bottom-up-Ansatz. Die Leistung, Bewusstsein hervorzurufen, wird nicht »holistisch« dem Gehirn als Ganzem oder größeren Hirnarealen zugeschrieben, sondern möglichst kleinen Ensembles spezifischer Neuronen, eben den NCCs. Koch hebt beispielsweise die Fähigkeit einzelner Neuronen hervor, selektiv auf ein bekanntes Gesicht anzusprechen. Er bestreitet nicht, dass »höhere« bewusste Leistungen - etwa das Erfassen von Dingkategorien - größere Areale beanspruchen; aber für die empirische Untersuchung der Hirnvorgänge bei einfachen Wahrnehmungen sucht er nach dem neuronalen Minimum. Dafür müssen die Versuchspersonen nicht unbedingt Menschen sein; auch Affen, denen im Experiment unterschiedliche Bilder für beide Augen dargeboten werden, richten ihre Aufmerksamkeit abwechselnd auf das eine oder andere Bild, und entsprechend variiert das - mit modernen Verfahren messbare - neuronale Erregungsmuster ihres Gehirns. So wird Bewusstsein zu einem Gegenstand empirischer Forschung im Tierversuch. Koch - der immer wieder betont, auch im Namen seines verstorbenen Mentors Crick zu schreiben - behauptet nicht, er könne mit den NCCs schon das Rätsel des Bewusstseins insgesamt lösen. Wohl aber beharrt er darauf, dass nur dieser Bottom-up-Ansatz den Weg zu einer Erklärung weist. Er skizziert ein langfristiges Forschungsprogramm, das, so hofft er, die Erklärungslücke zwischen objektiven Hirnprozessen und subjektivem Erleben schließen wird. Bewusstsein ist für Koch eine emergente Eigenschaft komplexer Nerventätigkeit. Darum würde er auch nicht zögern, einem hochkomplex verdrahteten und autonom agierenden Roboter eine Art Bewusstheit zuzugestehen. Das ungeheuer reichhaltige, elegant geschriebene und gut übersetzte Buch wendet sich eigentlich an zwei verschiedene Lesergruppen: Die einen wollen »nur« erfahren, was die modernste Naturwissenschaft über das Bewusstsein zu sagen weiß; die anderen finden ein komplettes Lehrbuch der Neurobiologie vor. Der Autor versucht, es beiden recht zu machen, indem er Details und Quellen in umfangreiche Fußnoten verbannt. Ein neugieriger Leser wird sich förmlich zwingen müssen, über das Kleingedruckte hinwegzulesen, welches das untere Drittel fast jeder Seite ausmacht." Originaltitel: The quest for consciousness -a neurobiological approach.
    Issue
    Mit einem Vorw. von Francis Crick. Aus dem Amerikan. übers. von Monika Niehaus-Osterloh und Jorunn Wissmann.
  20. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.0783861 = product of:
      0.1567722 = sum of:
        0.11800871 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.11800871 = score(doc=6206,freq=2.0), product of:
            0.43301752 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06144265 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.038763493 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.038763493 = score(doc=6206,freq=22.0), product of:
            0.1362736 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06144265 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."

Authors

Languages

Types

  • a 9352
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications