Search (13209 results, page 4 of 661)

  1. Ovid announces strategic partnerships : Java-based interface (1997) 0.09
    0.0946078 = product of:
      0.3784312 = sum of:
        0.3784312 = weight(_text_:java in 397) [ClassicSimilarity], result of:
          0.3784312 = score(doc=397,freq=4.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.8809384 = fieldWeight in 397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=397)
      0.25 = coord(1/4)
    
    Abstract
    Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
  2. Bunge, M.; Mahner, M.: Über die Natur der Dinge : Materialismus und Wissenschaft (2004) 0.09
    0.093440875 = product of:
      0.18688175 = sum of:
        0.05617116 = weight(_text_:und in 437) [ClassicSimilarity], result of:
          0.05617116 = score(doc=437,freq=92.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.41549498 = fieldWeight in 437, product of:
              9.591663 = tf(freq=92.0), with freq of:
                92.0 = termFreq=92.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=437)
        0.13071059 = weight(_text_:harte in 437) [ClassicSimilarity], result of:
          0.13071059 = score(doc=437,freq=2.0), product of:
            0.53707606 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06095451 = queryNorm
            0.24337444 = fieldWeight in 437, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.01953125 = fieldNorm(doc=437)
      0.5 = coord(2/4)
    
    Abstract
    Für den Idealismus stellt das menschliche Bewusstsein das Zentrum der Welt dar, für den Materialismus dagegen ist die reale Welt das Primäre und der Mensch ihr Produkt. Obwohl der Materialismus so alt ist wie die Philosophie selbst, bildete er stets die Minderheitenposition. Nun scheinen vor allem die Naturwissenschaften die materialistische Sicht der 'Natur der Dinge' zu bestätigen. Doch ist die Wissenschaft wirklich materialistisch? Und was können Philosophen in unserer Zeit noch über die Natur der Dinge sagen, wo doch hier die Naturwissenschaftler das Wort führen? Dieses Buch zeigt, was dies im Sinne eines modernen Materialismus sein kann. Der Materialismus hatte seit seiner Entstehung in der griechischen und indischen Antike immer einen starken aufklärerischen und emanzipatorischen Aspekt, weil er sich stets gegen die herrschenden Illusionen wandte. Dadurch wirkte er zugleich befreiend und bedrohlich. Auch dieser Aspekt der materialistischen Tradition kommt hier zur Sprache.
    Footnote
    Rez. in: Spektrum der Wissenschaft 2006, H.2, S.100-101 (O. Walkenhorst): "Um seinen Zeitgenossen die Furcht vor den Göttern und dem Tod zu nehmen, verfasste der römische Dichter und Philosoph Lukrez (97-55 v. Chr.) sein von der materialistischen Atomlehre der griechischen Antike geprägtes Lehrgedicht "De rerum natura" (»Über die Natur der Dinge«) - und wurde so zu einem einflussreichen Popularisierer eines aufgeklärten wissenschaftlichen Weltbildes. Mit dem respektvoll von Lukrez entlehnten Titel erinnern der argentinische Physiker und Philosoph Mario Bunge und der Biologe Martin Mahner an diese alte materialistische Tradition. In erster Linie aber wollen sie einen breiten Leserkreis vom modernen Materialismus überzeugen. Warum ist ihnen das wichtig? Erstens versuchen sie zu zeigen, dass nur der Materialismus konsistente philosophische Voraussetzungen für die Realwissen schaften schaffen kann, obwohl deren Vertreter sich nicht einmütig zu ihm bekennen und manchmal sogar glauben, ganz ohne Philosophie auskommen zu können. Zweitens wollen sie das emanzipatorische Potenzial des Materialismus konsequent nutzbar machen und so Argumente gegen Pseudowissenschaft, Religion und Esoterik liefern. Seit der Antike stehen sieh mit dem Idealismus und dem Materialismus zwei radikal verschiedene philosophische Weltbilder gegenüber. Dabei geht es grob gesprochen um die Frage, ob ausschließlich das Geistig-Ideelle oder ausschließlich das Materielle real existiert. Als Materialisten vertreten Bunge und Mahner den zweiten Standpunkt; aber auch der Materialismus kennt noch zahlreiche Spielarten. Die Autoren grenzen sich insbesondere vom Physikalismus und vorn Dialektischen Materialismus ab: An Ersterem kritisieren sie die reduktionistische These, die Welt könne allein von der Physik her erklärt werden; bei Letzterem nehmen sie Anstoß an einigen der so genannten Gesetze der Dialektik. Ein Objekt ist nach Bunge und Mahner genau dann materiell - und damit real existent -, wenn es veränderbar ist, das heißt, wenn der Wert mindestens einer Eigenschaft des Objekts sich im Lauf der Zeit ändern kann. Dieses Kriterium ist brauchbarer als andere häufig verwendete Kriterien wie sinnliche Wahrnehmbarkeit, Massehaltigkeit oder raumzeitliche Lokalisierbarkeit. Auf diese Weise können nämlich unter anderem auch elektromagnetische Felder als materiell angesehen werden. Energie gilt nicht als immateriell, da sie als Eigenschaft materieller Objekte interpretiert wird. Die von Bunge und Mahner vertretene Form des Materialismus heißt »emergentistisch« und ist charakterisiert durch eine starke Betonung des Systemgedankens: Jedes Ding ist ein System oder Bestandteil eines Systems. Und Systeme haben emergente Eigenschaften, das sind solche, die keiner der Bestandteile des Systems besitzt. Als Paradebeispiele gelten die Flüssigkeit von Wasser (einzelne Moleküle sind nicht flüssig) oder die Lebendigkeit einer Zelle (einzelne Moleküle sind nicht lebendig). Die Existenzweise des Geistig-Ideellen, also abstrakter Objekte wie Zahlen oder mythologischer Personen, ist für Materialisten meist eine harte Nuss. Die Autoren verstehen abstrakte Objekte als Äquivalenzklassen von möglichen Gedanken, das heißt als das, was ähnlichen Gedanken, die in verschiedenen Gehirnen gedacht werden können, gemeinsam ist. Abstrakten Objekten kommt daher bloß der Status der fiktiven Existenz zu, die gleichsam zeitlos ist, da sich in Wirklichkeit immer nur die denkenden Gehirne verändern. Gemäß dieser Auflassung gibt es keine Gedanken ohne denkende Gehirne und somit auch keine Ideen im Sinne Platons, die in einem »idealen Begriffs-Steinbruch« abgebaut werden könnten. In diesem Zusammenhang lehnen die Autoren auch die bei Naturwissenschaftlern und Hobbyphilosophen beliebte Drei-Welten-Lehre von Popper als »Monster traditioneller Metaphysik« ab.
    Aber hat nicht die Quantenmechanik die Grundannahmen des Materialismus letztendlich widerlegt? Diese Frage verneinen die Autoren entschieden, obwohl aus der Kopenhagener Deutung und der Heisenberg'schen Unschärferelation »viele subjektivistische und indeterministische Philosophen Honig gesaugt haben«. In Wirklichkeit jedoch beschreibe die Quantenmechanik die objektive Realität unabhängig von Messgerät und Beobachter, und der quantenmechanische Determinismus reiche auf Grund seiner stochastischen Komponente zwar über den klassischen Determinismus hinaus, sei aber weit entfernt von einem radikalen Indeterminismus. Ebenso entschieden wenden sich Bunge und Mahner gegen nichtmaterialistische Lösungen des Gehirn-Geist-Problems. Geist sei eben nicht immateriell, sondern eine emergente Eigenschaft des materiellen Systems Gehirn. Und Dinge könnten - im Gegensatz zur Auffassung des Physikalismus - nicht nur physikalische Eigenschaften haben, sondern auch biotische, soziale oder mentale. Schließlich begeben sich die Autoren auf das Feld von Ethik und Religion. Dass beide notwendig miteinander verbunden seien, erklären sie zum »populären Irrtum«; darüber hinaus lassen sie an der christlichen Ethik samt Gebotstheorie und Naturrechtslehre kein gutes Haar. Stattdessen betonen sie die Fortschrittlichkeit einer materialistischen Ethik, in der Werte nicht an sich existieren, sondern nur in Bezug auf bestimmte Organismen und abhängig von deren Bedürfnissen und Interessen. Im Übrigen seien das wissenschaftliche und das religiöse Weltbild wegen unauflöslicher Konflikte absolut unvereinbar. Umso verwunderlicher also, dass viele herausragende Wissenschaftler wie zum Beispiel Isaac Newton zutiefst religiös waren und kurioserweise durch ihre Forschung den Plan des Schöpfers enträtseln wollten. Das alles ist nun im Einzelnen nicht neu. Aber es ist übersichtlich und systematisch zusammengestellt, und die philosophischen Begriffe werden stets präzise und verständlich eingeführt. Die Autoren sezieren ihre Gegner gründlich und können dabei im Großen und Ganzen auch überzeugen. Der Text bleibt allerdings - trotz des Bemühens um einen lockeren Stil mit zahlreichen polemischen Spitzen - streckenweise etwas trocken. Zudem ist inhaltlich einiges zu kritisieren: Bei der ethischen Diskussion um »Personenrechte statt Menschenrechte« bleibt die klare Distanzierung von radikalen Bioethikern wie Peter Singer aus; irritierend ist auch die Einteilung ethischer Probleme in mini-ethische (zum Beispiel Abtreibung und Euthanasie) und mega-ethische (zum Beispiel Armut und Überbevölkerung), wobei angeblich nur letztere einer ergänzenden politischen Philosophie bedürfen. Ebenso verspürt man Unbehagen bei dem recht traditionellen Wissenschaftsverständnis von Bunge und Mahner, die mindestens unterschwellig den Mythos der Objektivität und Rationalität von Wissenschaft permanent verteidigen. Dabei würde auch der Wissenschaft ein weniger idealisiertes Bild letztlich eher nutzen als schaden."
  3. Hörisch, J.: ¬Die Renitenz der Wirklichkeit : Wider die Autokraten der zwei Kulturen: Hans Magnus Enzensberger erforscht die Elixiere der Wissenschaft (2002) 0.09
    0.0925096 = product of:
      0.1850192 = sum of:
        0.05430861 = weight(_text_:und in 1310) [ClassicSimilarity], result of:
          0.05430861 = score(doc=1310,freq=86.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.40171778 = fieldWeight in 1310, product of:
              9.273619 = tf(freq=86.0), with freq of:
                86.0 = termFreq=86.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1310)
        0.13071059 = weight(_text_:harte in 1310) [ClassicSimilarity], result of:
          0.13071059 = score(doc=1310,freq=2.0), product of:
            0.53707606 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06095451 = queryNorm
            0.24337444 = fieldWeight in 1310, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1310)
      0.5 = coord(2/4)
    
    Content
    "Bewirkt allzu viel Elektrosmog Hirntumor? Sind Atomkraftwerke sicher? Hat ein geklontes Säugetier a priori eine geringere Lebenserwartung als sein Original? Können krisengeschüttelte Volkswirtschaften mit den monetaristischen Programmen des Weltwährungsfonds saniert werden? Wer ernsthaft glaubt, es gäbe heute wissenschaftlich verlässliche Antworten auf relevante Fragen, dem seien die aus Poesie und Prosa gemischten Elixiere der Wissenschaft von Hans Magnus Enzensberger ebenso zum Konsum empfohlen wie dem Wissenschaftsverächter. Denn Enzensberger hat tatsächlich ein Elixier bereitet, das allzu rein getrennte Elemente (wie: hier die fürs Innerliche zuständige weiche Poesie, dort die harte Wissenschaft vom Realen) kräftig aufmischt. Unwiderstehlich gut munden diese Elixiere einer "Poesie der Wissenschaft", weil sie witzig spüren lassen, wieviel Poesie in der Wissenschaft und wieviel Wissen in der sogenannten schönen Literatur versteckt sein kann. "Aut prodesse volunt auf delectare poetae / auf simul et iucunda et idonea dicere vitae." So lauten einst vielzitierte, heute aber verdrängte Verse aus der ars poetica des Horaz. "Die Dichter wollen entweder (Wissen und Einsichten) voranbringen oder erfreuen / Oder aber beides zugleich: sowohl erheitern als auch dem Leben dienen." Enzensberger zitiert diesen locus classicus nicht. Aber der notorische Diderot-Liebhaber verfügt über ein auf- und abgeklärtes horazisches Programm, das er verführerisch als wohlschmeckendes Elixier anbietet. Es animiert zum Fremdgehen: "nichts wie raus aus den Instituten!" ruft Enzensberger der "Forschungsgemeinschaft" im gleichnamigen Gedicht zu, nichts wie ran an die Brüste der avancierten Wissenschaft, so ermuntert er in prosaischen Essays die Szientismus-kritischen Feingeister. Dass sich der Idiot savant und der Idiot lettré, der Fachidiot und der Schöngeist, heute in aller Regel geradezu antiseptisch gegeneinander immunisieren, führt Enzensberger auf "das große Schisma zwischen den Naturwissenschaften auf der einen, den Künsten und den Humaniora auf der anderen Seite" zurück. Dieses Schisma erklärt er zu "einer typischen Erfindung des neunzehnten Jahrhunderts". Dagegen erinnert er an die uralte und postmodern erneuerte produktive -Tradition der Wechselwirtschaft zwischen Poesie und Wissenschaft - an den Mythos, das Lehrgedicht, an Giordano Bruno und Lichtenberg, an Goethe und Novalis, aber eben auch an Stanislaw Lem und Thomas Pynchon. Aufschlussreich ist aber auch, wen und was er nicht erwähnt: zum Beispiel Brechts Versuche, den wissenschaftlichen Marxismus theaterwirksam vorzustellen, oder den kosmologischen Text "Beginnlosigkeit" von Botho Strauß. Sie markieren, wie auf andere Weise schon Goethes Farbenlehre, das Gefahrenpotential jedes Versuchs, (anti-)systematisch fremdzugehen: nämlich sich zu blamieren. Damit ist der heiße Kern von Enzensbergers zugleich redlichen und kecken Grenzüberschreitungen benannt: Enzensberger charakterisiert sich selbst nicht ohne eine gewisse Koketterie als "hoffnungsloser Laie", aber als ein Laie, der sich angesichts der überwältigenden Fortschritte von Wissenschaft und Technik so wenig einschüchtern lässt wie das hellwache Kind im Märchen von des Kaisers neuen Kleidern: Sich angesichts . der scharfen Trennlinien zwischen Wissenschaft und Poesie nicht das Mitdenken und Mitreden verbieten zu lassen, heißt in der nüchternen Sprache der Systemtheorie: Codevermischungen offensiv in Kauf zu nehmen.
    Das Jahrhundert des "Schismas zwischen Poesie und Wissen, das europäisch-nordamerikanische neunzehnte Jahrhundert ist das Jahrhundert der funktionalen Ausdifferenzierung. In ihm spezialisiert sich für jedes Problemfeld einsoziales System, das (s)einen spezifischen Code entwiekelt: Es gibt das Problem Knappheit - und also gibt es das System Ökonomie mit dem ihm eigenen Code zahlen/nicht-zahlen. Es gibt das Problem Konflikte - und also gibt es das System Jurisprudenz mit dem Code Recht/Unrecht (haben bzw. bekommen). Es gibt das Problem der absoluten Kontingenz - und also gibt es das System Religion mit dem Code lmmanenn/Transzendenz etc. Vermischen darf man diese Codes nicht ungestraft: Dann müsste man etwa den Richter bestechen dürfen oder den Priester entscheiden lassen "welche wissenschaftlichen Theorien Bestand haben. Wir Aufgeklärten schreien zu Recht auf, wenn Codevermischungen statthaben: wenn z.B. Politiker käuflich sind oder wenn fundamentalistische Theokraten eine Generalkompetenz für Liebesordnungen, Wirtschaft, Rechtsaprechung, kurzum: "alles" beanspruchen. Das Paradox ist: Auch Dichter beanspruchen eine GeneTalkompetenz. Schöne Literatur handelt {seit jeher und immerda!) von "allem" - von Liebe und Geld, von Tod und Gott, von Umweltverschmutzung und AKWs, von Krankheit und Politik, von Gespenster und eben auch von Wissenschaften. Dichtung redet überall mit und dazwischen. Das macht sie so faszinierend umd mitunter so schwer erträglich. Enzensbergers Plädoyer ist nun an Vernünftigkeit kaum zu übertreffen: (post)moderne Schriftsteller sollen weder den Theokraten noch den "Hohepriestern der Wissenschaft" einen Alleinvertretungsanspruch auf Wahrheit überlassen. Vielmehr können und sollen sie sich hinreichend fachkompetent machen und sich sodann des Wissennpotenzials der schönen Literatur entsinnen, die ja immerhin zugibt, das es eine Wahrheit nicht gibt und die (anders als die Theo-und Sziento-Kraten) das Paradox vom Kreter; der da sagt, dass alle Kreter lügen, willig auf sich nimmt. Denn dann können sie Spezialisten für die vielfältigen Paradoxien werden, die in der modernen und postmodernen Welt nicht etwa ab-, sondern zunehmen: Für eine Grundparadoxie der Moderne hat Enzensberger eine schöne Formel gefunden: "Renitenz der Wirklichkeit". Sie erweist sich dem poetischen Blick genau in dem Maße, in der Wirklichkeit wissenschaftlich-technisch mod erbar scheint. Enzensbergers Buch beginnt mit einer "Hommage à Gödel": Eine in sich widerspruchsfreie und vollständige Logik kann es nicht geben - aber eben das lässt sich beweisen. ln seiner Mitte wird der Einsicht zu Wort verholfen, dass es eine modellierbare Wirklichkeit nicht geben kann, da "die Evolution komplexer Systeme prinzipiell nicht exakt vorausgesagt werden kann". Und wie ein roter Faden ist das Buch von einer so schlichten wie weitreichenden These durchzogen: Die Frage, ob (poeto-) logische Aussagen über "die Wirklichkeit" zutreffen, entscheidet nicht "die Wirklichkeit" (die ja, dem poetischen "natura loquitur"-Topos zuwider, nicht selbst spricht und schon deshalb renitent ist), sondern eine weitere Aussage. Im Verhältnis zwischen dem Symbolischen und dem Realen steht es (auch und gerade in Zeiten der Dechiffrierung des genetischen Codes!), immer 2:1 Denn das Verhältnis zwischen wisenschaftlichen bzw. poetischen Symbolen einerseits und der "Wirklichkeit° andererseits ist selbst ein symbolisches Verhältnis. Einige Zeilen von Enzensberger können das dichter sagen: Schwarz-Weiß-Zeichnung, nach Hermann Weyl "Die weiße Kreide in meiner Hand, meine Herren, besteht, wie Sie wissen, aus Molekülen. Die Moleküle bestehn aus Partikeln, Ladung, Masse, Strangeness und Spin: Spuren, die sich auflösen In der Blasenkammer Und verschwinden, in meiner Hand, in diesen endlosen Formeln, die Sie kennen oder nicht kennen, meine Herren, und die ich hier an die schwarze Wand zeichne mit Kreide, mit Kreide, mit Kreide."
    Footnote
    Ein Rezensionsartikel zum Buch: Enzensberger, H.M.: Die Elixiere der Wissenschaft: Seitenblicke in Poesie und Prosa. Frankfurt: Suhrkamp 2002.
  4. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.0916885 = product of:
      0.183377 = sum of:
        0.13379563 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.13379563 = score(doc=2121,freq=2.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.049581356 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.049581356 = score(doc=2121,freq=28.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  5. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.0916885 = product of:
      0.183377 = sum of:
        0.13379563 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.13379563 = score(doc=346,freq=2.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.049581356 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.049581356 = score(doc=346,freq=28.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  6. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.08984953 = product of:
      0.17969906 = sum of:
        0.13379563 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.13379563 = score(doc=6889,freq=2.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.045903422 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.045903422 = score(doc=6889,freq=24.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  7. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.08984953 = product of:
      0.17969906 = sum of:
        0.13379563 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.13379563 = score(doc=1642,freq=2.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.045903422 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.045903422 = score(doc=1642,freq=24.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  8. Tsai, B.-s.: Infomapping in information retrieval (1997) 0.09
    0.08690282 = product of:
      0.34761128 = sum of:
        0.34761128 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
          0.34761128 = score(doc=3877,freq=6.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.8091937 = fieldWeight in 3877, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3877)
      0.25 = coord(1/4)
    
    Abstract
    Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
  9. Charlier, M.: ¬Die Austreibung des Mittelalters : Von der Wissensgemeinde zum geistigen Eigentum und zurück: Forscher wehren sich gegen die Macht der Verlage (2002) 0.08
    0.083874375 = product of:
      0.16774875 = sum of:
        0.037038162 = weight(_text_:und in 1623) [ClassicSimilarity], result of:
          0.037038162 = score(doc=1623,freq=40.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.27396923 = fieldWeight in 1623, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1623)
        0.13071059 = weight(_text_:harte in 1623) [ClassicSimilarity], result of:
          0.13071059 = score(doc=1623,freq=2.0), product of:
            0.53707606 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06095451 = queryNorm
            0.24337444 = fieldWeight in 1623, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1623)
      0.5 = coord(2/4)
    
    Content
    "Das finstere Mittelalter überliefert uns befremdliche Bilder von Bibliotheken: Da sind die Folianten an den Pulten angekettet, damit niemand eines der wertvollen Stücke davonträgt. Wohl auch, damit keiner sich mit dem gefährlichen Gut Wissen außerhalb von Aufsicht und Disziplin der Fakultäten zu schaffen machte. Heute findet das Mittelalter in der Deutschen Bibliothek in Frankfurt am Main und Leipzig statt. Wer die als Belegexemplare eingelieferten digitalen Publikationen einsehen will, kann das weder vom privaten Internetanschluss aus noch von dem eines Instituts oder einer Universitätsbibliothek. Forscher müssen nach Frankfurt reisen und einen Leihschein ausfüllen, um dann dort am Terminal die digital angeketteten Veröffentlichungen einsehen zu können. Die Bibliothek ist dafür am wenigsten zu schelten. Da der Gesetzgeber es versäumt hat, die rechtlichen Vorschriften der technischen Entwicklung des Buchwesens anzupassen, sind die Verlage nicht verpflichtet, digitale Publikationen abzuliefern. Die Bibliothekare haben in langwierigen Verhandlungen wenigstens erreicht, dass die Verlage die Bücher freiwillig einreichen - zu ihren Bedingungen. Nicht nur digitale Publikationen hängen an der Kette der Verlage. Spektakulär ist die Entwicklung bei den wissenschaftlichen Zeitschriften. Teuer waren sie schon immer. Nicht ohne Grund, denn ihre Herstellung verlangt hohen Aufwand: Fachlich kompetente redaktionelle Betreuung, aufwendiger Druck (Sonderschriften, IIlustrationen) in oft kleinen Auflagen, Versand in viele Länder der Erde und dann auch noch Lagerhaltung für lange Zeit. In den vergangenen zehn Jahren haben sich die Preise für solche Spezialzeitschriften im Durchschnitt verdreifacht - sie liegen heute zwischen 5.000 und 20.000 USDollar für das Jahresabonnement. Gleichzeitig hat sich die Zahl der relevanten Publikationen etwa verdreifacht. Für eine solide geführte Bibliothek lässt sich daraus eine Verzehnfachung des für die Anschaffung erforderlichen Budgets errechnen. Doch die Etats stagnieren, und in den Regalen breiten sich Lücken aus. Bibliothekare sprechen von einer "Journal-Crisis". Viele Wissenschaftler hat die Entwicklung kalt erwischt. Sie betrachten wissenschaftliche Ergebnisse oft nicht als Waren mit einem Preisschild, sondern als Tauschobjekte in einer Geschenkökonomie: Alle können verwenden, was andere als Baustein zum gemeinsamen Werk beitragen, solange die Anstandsregeln des sauberen Zitierens und der Anerkennung von Prioritäten eingehalten werden. Damit ist es vorbei, seit man weniger von der Wissen- schaftsgemeinschaft, der "Scientific Community" spricht - und mehr von "Intellectual Property", dem geistigen Eigentum: Erkenntnisse sollen unmittelbar is die Produktion übergeführt und zur konsequenten Verwertung patentiert werden.
    Wissenschaftliche Zeitschriften waren früher oft Herzensangelegenheit oder zumindest Prestigeobjekte engagierter Verleger, die zur Not auch mal eine Zeit lang draufzahlten, um einen Titel über die Runden zu bringen. Nach einem mehrjährigen Konzentrationsprozess werden nun fast alle diese Zeitschriften von wenigen international agierenden Großverlagen herausgebracht, die mit ihnen Profitmaximierungsstrategien verfolgen. Das Geschäftsmodell ist simpel: Die Produktion des Wissens erfolgt an Universitäten und Instituten mit staatlichen oder aus der Wirtschaft eingeworbenen Mitteln - also für die Verlage kostenlos. Viele Wissenschaftler sind sogar bereit, "Druckkostenzuschüsse" aufzutreiben, nur damit ihre Arbeitsergebnisse aufs Papier kommen. Die Eigenleistung der Verlage ist da, wo die Autoren ihre Texte auf Diskette einliefern und der Druck aus dem Computer kommt, kaum der Rede wert. Der Gewinn, der sich so erzielen lässt, umso mehr. Margen von 40 Prozent seien nicht selten, sagen Branchenkenner. So wären die wissenschaftlichen Zeitschriften ein perfektes Instrument zum Abgreifen von Staatsknete - gäbe es nicht das Internet. Vielen Wissenschaftlern dauert es zu lange, bis die Verlage ihre Texte in einer vielleicht nur quartalsweise erscheinenden Publikation an die Kollegen bringen. Sie laden daher ihre Manuskripte auf so genannte Preprint-Server, um sie unmittelbar in die wissenschaftliche Diskussion einzubringen: Einer der größeren davon, der Los Alamos Physics Information Service mit der schönen Adresse xxx.lanl.gov, erhält täglich um die hundert Preprints, während seine Datenbank - ebenfalls täglich - mehr als 50.000 Zugriffe verzeichnet. Inzwischen hat sich ein - stellenweise noch etwas chaotisches - Netz solcher Server etabliert, das nahezu alle naturwissenschaftlichen Bereiche abdeckt. Die Gesellschaftswissenschaften ziehen, wenn auch etwas zögerlich, nach. Viele Wissenschaftler veröffentlichen ihre Texte inzwischen auf eigenen Homepages. Seit einigen Jahren schließlich entstehen echte Netzpublikationen: "Electronic Journals" legen Texte in abgeschlossener Form und auf Dauer ab; eine Veröffentlichung auf Papier ist nicht vorgesehen. Damit stehen die Wissenschaftsverlage, die sich bis eben noch im Besitz einer Gelddruckmaschine geglaubt hatten, plötzlich da wie die Heizer auf der E-Lok unseligen Angedenkens: Keiner braucht sie mehr. Die in die Defensive geratenen Verlage verweisen darauf; ihre Redaktionen organisierten in einem teils tatsächlich aufwendigen Verfahren Peer-Reviews: In den guten Blättern erscheint kein Beitrag, der nicht von mehreren anerkannten Fachkennern gegengelesen und oft auch auf Grund ihrer Hinweise umgearbeitet worden ist. Das überzeugt nur begrenzt. Auch den anerkannten Fachleuten sind in den vergangenen Jahren ziemlich viele bewusste Fälschungen durch die Lappen gegangen. Außerdem halten sich hartnäckig Gerüchte, dass um einige Zeitschriften Zitierkartelle und fragwürdige Strukturen entstanden sind, die ganz andere als Gesichtspunkte der Qualität zur Geltung bringen. Viel überzeugender ist: Was im Internet steht, setzt sich von Anfang an der Kritik sämtlicher Fachleute aus. Wenn jemand starke Thesen mit schwacher Begründung vorträgt, wird das im Netz schneller entdeckt und korrigiert als in der Welt periodischer Papier-Veröffentlichungen. Peer-Reviews und Versionsverwaltung lassen sich im Internet genauso gut organisieren wie mit Zeitschriften - und billiger zudem.
    Darum haben einige Verlage jetzt harte Bandagen aufgelegt. Das nahezu übereinstimmende Grundmuster: Sie verlangen die Übertragung aller Rechte auf den Verlag und den Verzicht auf Vorabveröffentli-chung auf Preprint-Servern. Möglichst jede Veröffentlichung und jede Verwertung soll über ihre Abrechnungsstellen laufen. Freier Austausch der Wissenschaft? Hat im Zeichen von "Intellectual Property" wenig zu besagen. Da ist sie wieder, die Kette aus dem Mittelalter. Einige Zeitschriften können diese Forderung anscheinend durchsetzen. Sie haben eine so überragende Stellung, dass die Wissenschaftlergemeinde alles, was dort fehlt, nicht für voll nimmt. Die allgemeine Entwicklung geht in eine andere Richtung. Auf einer Veranstaltung der HeinrichBöll-Stiftung in Berlin wurde deutlich, immer mehr Wissenschaftler wollen diese Zustände nicht mehr hinnehmen, dass ihr Wissen eingekerkert wird, wie der Berliner Mathematiker Martin Grötschel formuliert. In den USA hat die "Public Library of Science' 30.000 Unterschriften von Wissenschaftlern gesammelt: Alle Veröffentlichungen sollen spätestens sechs Monate nach Erscheinen im Internet kostenlos zugänglich sein. Andere Forderungen gehen noch weiter: Mit öffentlichen oder gemeinnützigen Mitteln geförderte Forschungsprojekte müssten ihre Ergebnisse sofort über das Netz zugänglich machen. Die Weltvereinigung der Mathematiker (IMU) hat jetzt Nägel mit Köpfen gemacht: Mitte April hat sie ihr Kommunikationssystem Math-Net gestartet. Es soll allen Mathematikern eine einheitliche Plattform für ihre Web-Publikationen bereitstellen. Das Ziel: eine Digital Mathematical Library, die die gesamte mathematische Literatur im Internet bereitstellt - ohne Ketten aus Eisen, Geld oder andere Zugangsbeschränkungen.
  10. Internet: The editor's choice (2002) 0.08
    0.08362227 = product of:
      0.33448908 = sum of:
        0.33448908 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
          0.33448908 = score(doc=1854,freq=2.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.77864695 = fieldWeight in 1854, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=1854)
      0.25 = coord(1/4)
    
    Footnote
    Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
  11. ¬Die Zukunft des Wissens : Vorträge und Kolloquien: XVIII. Deutscher Kongress für Philosophie, Konstanz, 4. - 8. Oktober 1999 (2000) 0.08
    0.08340546 = product of:
      0.16681091 = sum of:
        0.03610033 = weight(_text_:und in 1733) [ClassicSimilarity], result of:
          0.03610033 = score(doc=1733,freq=38.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.26703218 = fieldWeight in 1733, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1733)
        0.13071059 = weight(_text_:harte in 1733) [ClassicSimilarity], result of:
          0.13071059 = score(doc=1733,freq=2.0), product of:
            0.53707606 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06095451 = queryNorm
            0.24337444 = fieldWeight in 1733, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1733)
      0.5 = coord(2/4)
    
    Abstract
    Kaum ein Vorurteil über die Philosophie hält sich hartnäckiger als die Annahme, Philosophen säßen im Elfenbeinturm und spielten dort selbsterfundene Glasperlenspiele. Dabei ist es seit Hegel ein zentrales Anliegen der Philosophie, ihre jeweilige Gegenwart gedanklich zu durchdringen und begrifflich zu erfassen. Diese Hinwendung zu Gegenwartsfragen ist auch in einer Vielzahl von Vorträgen dieses Kongresses zu registrieren, der vom 4. bis 8. Oktober 1999 in Konstanz stattfand - um den Preis, dass Beiträge zur Philosophiegeschichte und zur Logik keine Aufnahme in diesen Tagungsband gefunden haben. Kaum einem Vortrag wird man vorwerfen können, er sei in einer unverständlichen Fachsprache abgefasst. Einige Vorträge verdienen besondere Erwähnung. Peter Janich (Marburg) zeigt, dass die gegenwärtig einflussreichen Theorien der Informationsübermittlung, die zumeist auf Sender-Empfänger-Modellen beruhen, das Wesen dialogischer Kommunikation verfehlen und, entgegen ihrem Anschein, kausalistisch und monologisch sind. Diese Einsicht bewahrt einen vor der verbreiteten Verwechslung von erfolgreicher Informationsübermittlung mit gelingender Kommunikation - angesichts der voranschreitenden Technisierung von Kommunikation eine Korrektur von lebenspraktischer Bedeutung.
    Bemerkenswert an den Beiträgen des Kolloquiums "Von der Arbeits- zur Wissensgesellschaft" ist, dass sowohl Klaus Komwachs (Cottbus) als auch Friedrich Kambartel (Frankfurt am Main) für eine Rückkehr in die von Karl Marx ausgehende Traditionslinie der politischen Ökonomie plädieren. Kambartel demonstriert exemplarisch das normativ-kritisehe Potenzial begrifflicher Analyse. Er wendet sich energisch gegen den Slogan, "der Gesellschaft gehe die Arbeit aus"; vielmehr entwickelt er einen Begriff der Arbeit, mit dem sich schließen lässt, dass eine Gesellschaft, in der es zugleich ein Heer von Arbeitslosen und einen latenten, arbeitswirksamen Bedarf gibt, "ökonomisch ... falsch eingestellt ist". Daraus ergibt sich ein konkreter, neokeynesianischer Handlungsvorschlag, der auf die Erzeugung eines jür öffentliche Institutionen verfügbaren arbeitswirksam einsetzbaren ... Geldvolumens" hinausläuft. Da ein solcher Vorschlag in klarem Widerspruch zur gegenwärtig dominanten neoklassischen Ökonomik steht, eröffnet Kambartel damit zugleich eine ernsthafte philosophische Debatte über die Grenzen dieser Theorie. Die Beiträge des Kolloquiums "Wirtschaftsethik" befassen sich mit ähnlich aktuellen Fragen. Peter Koslowski (Hannover) zeigt die Genese des Shareholder-Value-Prinzips auf: Von reinen Finanzunternehmen, in denen es seine Berechtigung habe, sei es auf Industrieunternehmen übertragen und ausgeweitet worden, gerate dort mit den übrigen Zielen solcher Unternehmen in Konflikt und lenke zudem die Interessen des Managements in falsche Richtungen, etwa auf spekulative Untemehmungen oder strategische Übernahmen. Dagegen setzt Koslowski eine aristotelische Auffassung vom Wesenszweck einer Firma, nämlich die "Produktion optimaler Güter". Nach der Auffassung von Lee Tavis vom Notre Dame College of Ohio dient ein vereinseitigtes Shareholder-Value-Prinzip Ökonomen, die in einfachen Mittel-Zweck-Beziehungen denken, als bequeme Handhabe, alle sonstigen Belange diesem Ziel unterzuordnen, und ist insofern eine moralisch fragwürdige Reduktion sozialer Komplexität.
    Es liegt kein Argument vor, mit dem man die faktische Affinität zwischen ökonomischer Globalisierung und Shareholder-Value-Prinzip normativ begründen könnte. Aus dem Bereich der anwendungsorientierten Ethik sind die Vorträge von Angelika Krebs (Frankfurt am Main) und Dieter Birnbacher (Düsseldorf) herauszuheben, da sie moralische Alltagsintuitionen auf eine harte Probe stellen. Krebs setzt gegen die allgemein vertretenen komparativen Standards ("Mitglieder zukünftiger Generationen sollen es durchschnittlich nicht schlechter haben als wir") absolute Standards, die von uns lediglich verlangen, zukünftigen Personen die materiellen Bedingungen eines guten Lebens zu hinterlassen. Diese Position setzt voraus, dass man einen moralischen Eigenwert von Gleichheit bestreitet. Eine derart anti-egalitaristische Zukunftsethik erlaubt es, "weniger [zu] hinterlassen, als wir selbst erhalten haben, und uns ein schönes Leben [zu] machen". Wer das nicht akzeptieren möchte, muss Argumente zu Gunsten des Egalitarismus verteidigen, die Krebs allesamt für wenig überzeugend hält. Durch ihren im besten Sinne provozierenden Vortrag hat sie eine Diskussion über die ethische Haltbarkeit egalitaristischer Intuitionen eröffnet, der man auch außerhalb des Problemkreises der Zukunftsverantwortung nicht wird ausweichen können. Birnbacher behandelt die brisante Frage nach der moralischen Zulässigkeit der pränatalen Selektion von N kommen auf Grund bestimmter (un)erwünschter Merkmale.
    Was Eltern zu einer derartigen Selektion motivieren könnte, muss für ihn nicht begründet werden. Präferenzen oder "Minderschätzungen" seien nicht schon deshalb moralisch unstatthaft, weil sie "konformistisch, unaufgeklärt oder illusionär" seien. Einwände der Art, nur weil ein Merkmal eines Embryos den EItern nicht gefalle, dürfe man ihn nicht töten, würde Birnbacher als Utilitarist zurückweisen, da er Menschen ein starkes Lebensrecht erst nach der Geburt zuerkennt. Die Erfüllung vorhandener Präferenzen ungeachtet ihrer moralischen Qualität sei wichtiger als der Respekt vor potenziellen Personen. Die Tötung von Nicht-Geborenen sei statthaft, da ein ungeborenes Kind noch "ohne Bewusstsein von Leben und Tod [ist] und deshalb den ihm im Zuge der Selektion auferlegten Tod nicht fürchten kann". Diese - von vielen für skandalös erachtete - Position gründet darin, dass der Utilitarismus nur indirekte Argumente gegen das Töten anerkennen kann. Gegen die technisch immer näher rückende Selektionspraxis lässt Birnbacher allein das Kränkungs-Argument gelten, das besagt, dass sich lebende Träger eines Merkmals, das selegiert wird, gekränkt fühlen könnten. Die utilitaristische Ethik erkennt eben keine absoluten normativen Grenzen an, wenn deren Verletzung einen Zugewinn an Präferenzerfüllung oder Interessenbefriedigung ("Glück") verspricht. Als philosophisch weiterführend könnte sich Wolfgang Spohns (Konstanz) beeindruckender Vorstoß ins "All der Gründe" erweisen. Spohns Ansatz scheint es zu erlauben, philosophische Grundprobleme (Schein und Sein, Apriorität, Kohärenz, Wahrheit, Essenzen) auf argumentationstheoretischer Basis zu reformulieren. Spohn weckt große Neugierde auf den von ihm angekündigten "bedächtigen und umsichtigen Nachvollzug" seiner "tour de force". Die Bedeutung des Argumentierens könnte ungeachtet aller Bekenntnisse zum "Diskurs" in Zukunft schwinden. Wolfram Hogrebe (Bonn) sieht gegenwärtig eine zunehmende Überlagerung von Sprache durch immer trivialere Bilderwelten. "Dieses Jahrhundert begann mit Bewusstsein, verausgabte sich an die Sprache und endet im Bild." Diese Visualisierungen seien Teil einer "kollektiven Infantilisierung", für die sich im Alltag und in den Medien reichlich Belege finden. Hogrebe setzt auf die Widerstandspotenziale autonomer Kunst. Auch der Philosophie kommt die Aufgabe zu, der Unterordnung diskursiver Rationalität unter beliebig herstellbare Bilderwelten zu widerstehen. Wie viele Verbündete sie hierbei noch findet, bleibt abzuwarten
  12. Hawk, J.: OCLC SiteSearch (1998) 0.08
    0.08278182 = product of:
      0.3311273 = sum of:
        0.3311273 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
          0.3311273 = score(doc=3079,freq=4.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.7708211 = fieldWeight in 3079, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3079)
      0.25 = coord(1/4)
    
    Abstract
    Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
  13. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.08
    0.08278182 = product of:
      0.3311273 = sum of:
        0.3311273 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
          0.3311273 = score(doc=2673,freq=4.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.7708211 = fieldWeight in 2673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2673)
      0.25 = coord(1/4)
    
    Abstract
    The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
  14. Siegle, J.: Sexuelle Belästigung im Internet : Pornographie, Gewalt und Hass finden zunehmend den Weg ins Web. Jugendschützer kämpfen dagegen an (2001) 0.08
    0.080285855 = product of:
      0.16057171 = sum of:
        0.029861122 = weight(_text_:und in 4986) [ClassicSimilarity], result of:
          0.029861122 = score(doc=4986,freq=26.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.22088107 = fieldWeight in 4986, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4986)
        0.13071059 = weight(_text_:harte in 4986) [ClassicSimilarity], result of:
          0.13071059 = score(doc=4986,freq=2.0), product of:
            0.53707606 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06095451 = queryNorm
            0.24337444 = fieldWeight in 4986, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4986)
      0.5 = coord(2/4)
    
    Content
    "Bilder verstümmelter Leichen und vergewaltigter Kinder, Anleitungen zum Bombenbauen oder neonazistische Hasstiraden - fast 1800 Jugendschutz verletzende Online-Angebote registrierte die Zentralstelle der Bundesländer für den Jugendschutz im Internet, Jugendschutz.net, im vergangenen Jahr in Deutschland. Für das laufende Jahr ist mit noch mehr Beanstandungen zu rechnen. "Die Zahl der Hinweise auf jugendgefährdende Internet-Inhalte nimmt ebenso stetig zu wie die Zahl der Websites", erklärt Martin Döring, Jurist bei Jugendschutz.net, gegenüber der FR. "Und nach unserem Eindruck wächst dabei die Zahl pornographischer Angebote mit Abstand am schnellsten." In 550 von den Mainzer Jugendschützern beanstandeten Fällen handelt es sich um "einfache" Pornographie, in 250 Fällen um "harte" Sex-Angebote - sprich sexuelle Handlungen mit Kindern, Tieren und Gewaltdarstellungen. Die Web-Adressen derartiger Online-Angebote werden umgehend an das Bundeskriminalamt in Wiesbaden weitergeleitet. Mehrere Hunderte der jugendgefährdenden Sites haben neonazistische Hintergründe. Schon seit 1997 durchforstet Jugendschutz.net das Internet. Zum einen recherchieren die "Cyberpolizisten" dabei selbst aktiv nach jugendgefährdenden OnlinePerversionen, zum anderen wird so genannte Crawler-Software eingesetzt, die das Netz systematisch durchsiebt. "Die meisten Hinweise bezüglich pornographischer Internet-Seiten erhalten wir jedoch über unsere Hotline", erklärt Döring. "Rechtsextreme Online-Angebote spüren wir in der Regel dagegen selbst auf." Die Betreiber pornographischer Angebote werden angeschrieben und aufgefordert, die Inhalte vom Netz zu nehmen oder abzuändern.
    Bislang kamen dieser Aufforderung nach einem ersten Hinweis immerhin neun von zehn Anbietern nach. Rechtsextreme Überzeugungstäter und Anbieter mit schweren Verstößen werden umgehend an die Strafverfolgungsbehörden weitergeleitet, wonach empfindliche Strafen drohen - zumindest sofern es sich um in Deutschland beheimatete Internet-Angebote handelt." Liegen die Web-Seiten allerdings im Ausland, sind die Möglichkeiten deutlich eingeschränkt: Die deutsche Zentralstelle der Bundesländer kann dann nur die Provider bitten, entsprechende Sites im Hinblick auf die eigenen Allgemeinen Geschäftsbedingungen zu überprüfen und diese bei eventuellen Verletzungen zu entfernen. "Vor allem auf in den USA gehostete Angebote haben wir nur beschränkten -Einfluss", sagt Döring. "Das gilt insbesondere in Bezug auf rechtsextreme Inhalte, da dort das Recht auf freie Meinungsäußerung wesentlich unbeschränkter ist als in Deutschland." - Hardcore-Sex bei Whitehouse.com - Im Zuge der laxeren US-Online-Politik sind auf amerikanischen Internet-Servern Darstellungen von Gewalt, Sex oder Neonazi-Content noch einfacher zu finden. Eine vom Crimes Against Children Research Center der University of New Hampshire Ende Juni veröffentlichte Studie belegte zudem, dass im Cyber-Mutterland USA jedes fünfte Kind während des Surfens oder Chattens sexuell belästigt wird. Eine aktuelle Untersuchung des Washingtoner Pew Internet Projects unterstreicht dieses erschreckende Ergebnis mit der Feststellung, dass fast 60 Prozent der amerikanischen Internet-Kids unaufgefordert E-Mails oder sonstige Online-Mitteilungen von Unbekannten empfangen. Dennoch hat das Jugendschutz.net auch in den Vereinigten Staaten schon einige Erfolge vorzuweisen: Geocities, ein Anbieter von Speicherplatz im Internet, nahm beispielsweise mehrere Web-Seiten vom Netz, nachdem die Initiative der Bundesländer darauf hingewiesen hatte, dass Inhalte gegen die Geschäftsbedingungen des Yahoo-Ablegers verstoßen.
    "Unzählige pornographische Online-Angebote sind auch nur einen Mausklick von konventionellen Angeboten entferne, moniert Döring. "Mit ähnlich lautenden WebAdressen sollen Surfer unfreiwillig auf bestimmte Sites gelockt werden." Eine vermeintliche Internet-Domain des Weißen Hauses gilt bereits seit Jahren als Paradebeispiel hierfür: Die Adresse Whitehou-se.com lädt keineswegs zu einem virtuellen Rundgang im Oval Office, sondern zu handfester Hardcore-Unterhaltung. Der US-Präsidentensitz ist dagegen unter Whitehouse.org zu erreichen. Und auch in Deutschland gibt es genügend derartig irreführender Adressen. "Diese bewusste Falschdeklarierung stößt uns ganz besonders übel auf, wenn dadurch Kinder ungewollt mit diesen Seiten konfrontiert werden", erklärt Döring. Die Jugendschützer laufen bislang vergebens Sturm gegen die bewusst irreführenden - und oftmals deutlich fragen- und auch menschenverachtenden - Domainnamen. "Es wäre absolut unmöglich, unter dem Namen Negervotzen.de beim Ordnungsamt ein Unternehmen einzutragen", kritisiert Döring. "Und dennoch können diese Begriffe problemlos als Web-Adressen registriert werden." Die Registrare argumentieren ihrerseits, nicht genügend Kapazitäten zu haben, alle Anmeldungen prüfen zu können. - Harmlose Seiten werden gesperrt - Ein Blick in die "Wois"-Datenbank der deutschen Internetverwaltung' Denic bestätigt die fast schon skandalöse Praxis der Domainvergabe: Ein Frankfurter konnte etwa die Adresse Kinderficken.de registrieren, eine Mann aus Bad Salzuflen die Domain Vergewaltigung.de. "Also was tun?", fragen beunruhigte Eltern. Verschiedene Experten raten zum Einsatz von Internet-Filterprogrammen. Die bislang erhältliche Software dient dem Ziel des Jugendschutzes jedoch nur unzureichend. Web-Filter wie CyberPatrol, CyberSitter, Cyber Snoop, Net-Nanny oder Surf-Watch zeigten in verschiedenen Testreihen erhebliche Mängel. Grund: Die Sperrung von Seiten mit "einschlägigen" Begriffen ist oft wenig treffgenau, viele problematische Angebote bleiben vom Filter verschont, harmlose wiederum werden grundlos gesperrt.
    "Man muss dabei trennen zwischen Keyword-Blocking-Software wie CyberSitter und Lösungen wie CyberPatrol, die Adressen blockieren", präzisiert Döring die Filterproblematik. "Programme wie CyberSitter haben das Problem mit dem Zuviel an Sperrung, SiteBlocker laufen dagegen der rasanten Entwicklung im Internet immer hinterher." Frühere Versionen von Filterprogrammen zensierten sogar Begriffe wie "Staatsexamen" oder die englische Grafschaft Sussex. Unter die Zensur fielen teilweise auch Sites von Schulen, die die Note "befriedigend" vergeben haben. Beliebte Filterop'fer sind auch Angebote zur Sexualaufklärung. In der Nazi-Online-Szene werden außerdem häufig Codes verbreitet, die sich mit Filtern kaum erfassen lassen. Besonders beliebt ist etwa die Ziffer 88: Die beiden Zahlen stehen hierbei für den achten Buchstaben des Alphabets, also zweimal "H" als Abkürzung für "Heil Hitler". In jüngerer Vergangenheit wurden zudem auch die Indexlisten von Filteranbietern gehackt - so geschehen etwa Anfang des Jahres bei der Firma Surfcontrol aus Massachussetts, dem Anbieter von Cyber Patrol. Und auch im World Wide Web selbst kursieren massenweise Anleitungen zum Cracken der Cybersiebe: "Die vollmundigen Versprechungen der Hersteller nach einem vollständigen Schutz entsprechen nicht unseren Beobachtungen", kritisiert auch Döring. "Filter können eine flankierende Maßnahme sein, sie können die elterliche Aufsicht aber nicht ersetzen."
  15. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.07776335 = product of:
      0.1555267 = sum of:
        0.117071174 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.117071174 = score(doc=6206,freq=2.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.03845553 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.03845553 = score(doc=6206,freq=22.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  16. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.075511366 = product of:
      0.15102273 = sum of:
        0.10034672 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.10034672 = score(doc=1729,freq=2.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.050676003 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.050676003 = score(doc=1729,freq=52.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  17. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.075019315 = product of:
      0.15003863 = sum of:
        0.10034672 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.10034672 = score(doc=195,freq=2.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.049691908 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.049691908 = score(doc=195,freq=50.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  18. Tetens, H.: ¬Der neuronal gläserne Mensch : Hochkomplexes und hypersensitives System: Im Gehirn selbst könnten die Befürworter der Willensfreiheit einen unerwarteten Verbündeten finden (2004) 0.07
    0.072161 = product of:
      0.144322 = sum of:
        0.039753523 = weight(_text_:und in 1036) [ClassicSimilarity], result of:
          0.039753523 = score(doc=1036,freq=72.0), product of:
            0.13519095 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06095451 = queryNorm
            0.29405463 = fieldWeight in 1036, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.015625 = fieldNorm(doc=1036)
        0.10456847 = weight(_text_:harte in 1036) [ClassicSimilarity], result of:
          0.10456847 = score(doc=1036,freq=2.0), product of:
            0.53707606 = queryWeight, product of:
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.06095451 = queryNorm
            0.19469956 = fieldWeight in 1036, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.811096 = idf(docFreq=17, maxDocs=44421)
              0.015625 = fieldNorm(doc=1036)
      0.5 = coord(2/4)
    
    Content
    "Es geht "ans Eingemachte". Mit diesen Worten kommentiert der Physiker und Philosoph Gerhard Vollmer, was er für eine ausgemachte Sache hält: "Bald werden nicht nur, die Hirnforscher einsehen müssen, dass es die traditionelle Willensfreiheit überhaupt nicht gibt.« Mit der gegenwärtigen Debatte zwischen Naturwissenschaftlern und Philosophen über das Ende unseres traditionellen Menschenbildes im allgemeinen und unserer Vorstellung vom freien Willen im besonderen kommt allmählich auch in einer breiteren Öffentlichkeit an, was der Philosoph Immanuel Kant bewundernswert hellsichtig bereits vor über 200 Jahren mit den experimentellen Naturwissenschaften heraufkommen sah: Die Wissenschaften zeichnen ein Bild vom Menschen, welches das traditionelle Bild von uns selbst als vernünftige und selbstverantwortliche Personen tendenziell zu ruinieren droht. Weitsichtig war dies von Kant deshalb gedacht, weil sich die experimentellen Naturwissenschaften zu seiner Zeit weitgehend auf die Analyse der unbelebten nichtmenschlichen Natur beschränkten und jedenfalls um den Menschen selber noch einen großen Bogen machten. Das hat sich inzwischen gründlich geändert. Die experimentelle naturwissenschaftliche Erforschung dessen, was traditionell mit "Seele", "Bewusstsein" oder "Geist" bezeichnet wird, ist im vollen Gange. An die Spitze dieses naturwissenschaftlichen Zugriffs auf das Wichtigste am Menschen hat sich die Hirnforschung gesetzt: Alles, was Menschen tun, bewusst erleben, denken und wollen, ist samt und sonders gehirnproduziert, lautet der harte Kern ihrer Botschaft.
    Die Botschaft der Hirnforscher ist so unerwartet freilich nicht. Die Naturwissenschaften sind experimentelle Wissenschaften. Jedes naturwissenschaftliche Experiment liefert den Prototyp einer Apparatur, mit der Wissenschaftler die Phänomene, die sie untersuchen, kontrolliert hervorrufen und verändern können. Als es den Physikern gelungen war, den Regenbogen zu erklären, hatten sie zugleich mit einer Lichtquelle, einem Prisma und einem Auffangschirm eine Vorrichtung erfunden, um das Sonnenlicht in seine Spektralfarben zu zerlegen und auf diese Weise einen künstlichen Regenbogen im Labor zu erzeugen. Ein Phänomen naturwissenschaftlich erklären zu können, heißt zu wissen, was man tun muss oder im Prinzip tun müsste, um dieses Phänomen oder ein vergleichbares technisch zu erzeugen und zu manipulieren. Wo die naturwissenschaftliche Erforschung des Menschen erfolgreich ist, weiß man dann, wie man tatsächlich, zumindest aber im Prinzip menschliche Eigenschaften und Leistungen auf einer Maschine nachbilden kann. Den Menschen naturwissenschaftlich zu erforschen, läuft auf die Gleichung hinaus: Mensch = Maschine. Sie ist eine methodologische Konsequenz der Naturwissenschaften. - Entzauberung des Menschen - Als Forschungsobjekt empirischer experimenteller Wissenschaften kann der Mensch nicht als das freie Vernunftwesen erscheinen, als das er sich selber gerne sieht. Für Kant lag das so klar auf der Hand, dass er in seiner theoretischen wie praktischen Philosophie ein umfassend angelegtes Programm verfolgte zur Rettung unseres Personseins angesichts der wissenschaftlichen Sicht auf den Menschen, ohne deshalb die Resultate der Naturwissenschaften in Abrede stellen zu müssen. Was bei Kant bei aller Bewunderung für die Naturwissenschaften entschiedene philosophische Gegenwehr auf den Plan rief, läuft heute für den Hirnforscher Gerhard Roth in provokanter "Wertfreiheit" auf die "Entthronung des Menschen als frei denkendes Wesen" hinaus. Es ist auffällig, wie sehr sich die gegenwärtige Debatte um eine sehr unangenehme Wahrheit herumdrückt: Die konsequente Anwendung der Naturwissenschaften auf den Menschen zielt auf den neuronal gläsernen Menschen, bei dem alles, was er tut, empfindet, denkt und will, für den äußeren Beobachter offen zu Tage liegt, kausal aus neuronalen Mechanismen erklärt, vorhergesagt und jederzeit durch neuronale Intervention manipuliert werden kann. Anders als bei der nicht-menschlichen Natur können wir dieses Zielkaum als regulatives Ideal gutheißen, dem sich die Forschung immer weiter annähern sollte. Sollte dieses Ziel einmal in vollem Umfang Realität werden, so wäre dies eine moralische und kulturelle Katastrophe. Die naturwissenschaftliche Erforschung des Menschen ist nur so lange moralisch und kulturell akzeptabel, wie die Wissenschaften weit hinter dem methodologischen Endziel des entzauberten Menschen als neuronal gläserner Maschine zurückbleiben. Das Dilemma dieses Befundes ist offenkundig: Wir müssten es hinbekommen, durch naturwissenschaftliche Forschung Alzheimerpatienten oder Unfallopfern mit Hirntraumata wirksam zu helfen, ohne gleichzeitig den Menschen neuronal zu entzaubern.
    Viele Philosophen meinen, die experimentellen Methoden der Naturwissenschaften erzeugten nur einen systematischen blinden Fleck für einen nichtnaturwissenschaftlichen Blick auf den Menschen. Sie halten den Hirnforschern vor, die Forschungsergebnisse könnten keineswegs den Menschen als freies Vernunftwesen dementieren. Doch sieht es meiner Einschätzung nach nicht danach aus, dass die Philosophen noch erfolgreich theoretisch beweisen werden, der Mensch sei trotz aller Befunde der Hirnforschung ein freies Vernunftwesen. Es kann nur noch darum gehen, die uns bisher vertraute alltägliche Praxis, in der wir uns wechselseitig als vernünftige und selbstverantwortliche Personen respektieren und entsprechend miteinander umgehen, so gut es eben geht zu wahren. Gewahrt werden kann diese Praxis nur, wenn unser Wissen von den neuronalen Mechanismen und unser technisches Know-how für ihre Steuerung durch technische Interventionen in das Gehirn einen gewissen Schwellenwert nicht überschreiten. Würden wir uns nämlich vollkommen in unseren neuronalen Mechanismen durchschauen, würde dieser Umgang miteinander zusammenbrechen. Doch wie ließe sich verhindern, dass unser Wissen von den neuronalen Mechanismen einen bestimmten Schwellenwert überschreitet? Natürlich könnten wir der Hirnforschung ethische Grenzen setzen, doch ob das gelingt, ist fraglich. Aber womöglich gibt es einen anderen unerwarteten Verbündeten: das Gehirn selbst. Das Gehirn ist unbestreitbar ein hochkomplexes hypersensitives System. Hypersensitive Systeme reagieren bereits auf kleinste Änderungen in bestimmten Randbedingungen oder in bestimmten Anfangszuständen mit zum Teil dramatisch unterschiedlichem Verhalten. Die Anfangsbedingungen liegen oft so dicht beieinander, dass es unmöglich ist, diese Unterschiede noch zu messen. Trotzdem entwickeln sich Systeme aus diesen nur minimal verschiedenen Ausgangsbedingungen schon nach kurzer Zeit weit auseinander. Wenn wir die Randund Anfangsbedingungen nicht genau genug messen können, können wir das Systemverhalten langfristig nicht zuverlässig vorhersagen. Diese Systeme lassen sich nicht etwa deshalb nicht voraussagen, weil sie keinen deterministischen Gesetzen gehorchten. Das Gegenteil ist der Fall. Oftmals kennen die Wissenschaftler sogar die exakten mathematischen Gleichungen für die Dynamik solcher Systeme. Trotzdem ist es unmöglich, das Systemverhalten zuverlässig und gar langfristig vorherzusagen. Der Hirnforscher Wolf Singer spricht in Bezug auf die Dynamik neuronaler Wechselwirkungen selbst von einer neuen "Bescheidenheit".
    Wer zweitens wissen will, wie es ein Gehirn anstellt, Bewusstseinserlebnisse auszulösen und das Verhalten zu steuern, muss das Gehirn genau dabei untersuchen. Aber präzise und detailliert dem Gehirn bei der Arbeit zuzuschauen, verlangt mehr oder weniger stark in das Gehirn einzugreifen. Da das Gehirn ein hypersensitives System ist, wird das Gehirn durch jede genauere Beobachtung selber verändert und beeinflusst. Wenn man genau wissen will, was sich im Gehirn einer Person im Detail tut, die zum Beispiel gerade eine stark befahrene Straße überquert, wird man das nur mit Methoden können, die die Testperson nicht daran hindern, die Straße zu überqueren. Wir kennen keine Methoden, das Gehirn während der Ausführung komplexer Handlungen einer Person zu beobachten. Alle Verfahren, Gehirne zu beobachten, lassen sich nur unter Laborbedingungen anwenden. Das Gehirn ist so hypersensitiv und hochkomplex, dass es vielleicht nie gelingen wird, die Aktivitä-ten der einzelnen Neuronen und die Dyna- mik ihrer Schaltkreise unter normalen Alltagsbedingungen detailliert und präzise zu beobachten. Dann aber würden wir Bewusstseinserlebnisse und Verhalten, wie sie für Alltagssituationen typisch sind, auch niemals genau aufgrund neurophysiologischer Daten vorhersagen oder gar technisch manipulieren können. - Neue Bescheidenheit - Eine dritte Überlegung kommt hinzu. Wir Menschen kommen ziemlich unfertig auf die Welt. Die meisten Fähigkeiten, die e ir-, gendwann einmal beherrschen, müssen wir nach der Geburt lernen. Vom neuronalen Standpunkt aus betrachtet lernen wir, indem neue Verschaltungen zwischen den Neuronen aufgebaut und bestehende verstärkt oder abgeschwächt werden. Das Gehirn hat zwischen 10**11° und 10**12 Neuronen. Jedes Neuron ist mit einigen tausendanderen Neuronen verschaltet. Der vollständige Schaltplan eines Gehirns enthält also mindestens 10**15 Informationen. Und das wäre dann auch nur der Schaltplan des Gehirns für einen bestimmten Zeitpunkt. Die zeitlichen Veränderungen der neuronalen Verschalturig wären damit 'überhaupt noch nicht erfasst. Nach allem, was wir wissen, können 10**15 und mehr Informationen auf der DNA überhaupt nicht codiert werden. Deshalb können die neuronalen Verschaltungen des Gehirns und ihre Dynamik, von denen die Leistungen eines Gehirns wesentlich abhängen; nicht vollständig genetisch' festgelegt sein. Das Gehirnentwickelt sich zu dem leistungsfähigen Organ also erst durch eine längere Lerngeschichte in einer natürlichen und sozialen Umgebung. Diese Lerngeschichte kann vermutlich, und so ist zu hoffen, nicht wesentlich verkürzt oder ersetzt werden durch direkte technische Manipulationen des Gehirns. Die Botschaft der drei Argumente dürfte klar geworden sein: Vielleicht schützt uns die Komplexität unserer Gehirne vor den Gefahren, zu viel über Gehirne zu wissen. Ist das Gehirn so komplex und hypersensitiv, dass es sich von uns nicht in die Karten schauen lässt oder, um bei der wissenschaftlichen Wahrheit zu bleiben, dass sich ein Gehirn nicht von einem anderen Gehirn in die Karten schauen lässt? Natürlich, die Komplexität des Gehirns ist ein unsicherer Verbündeter. Wir können nicht mit Sicherheit wissen, was wir in Zukunft wissen werden. Aber wer kennt einen besseren Verbündeten, um die "Putschisten im Labor", wie Hans Magnus Enzensberger sie nennt, noch davon abzuhalten, den Menschen als "frei denkendes Wesen" endgültig vom Thron zu stürzen?"
  19. Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998) 0.07
    0.07095584 = product of:
      0.28382337 = sum of:
        0.28382337 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
          0.28382337 = score(doc=4593,freq=4.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.6607038 = fieldWeight in 4593, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=4593)
      0.25 = coord(1/4)
    
    Abstract
    Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
  20. Reed, D.: Essential HTML fast (1997) 0.07
    0.06689782 = product of:
      0.26759127 = sum of:
        0.26759127 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
          0.26759127 = score(doc=6851,freq=2.0), product of:
            0.42957735 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06095451 = queryNorm
            0.62291753 = fieldWeight in 6851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6851)
      0.25 = coord(1/4)
    
    Abstract
    This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed

Authors

Languages

Types

  • a 9352
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications