Search (13208 results, page 3 of 661)

  1. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.11582125 = product of:
      0.463285 = sum of:
        0.463285 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.463285 = score(doc=5463,freq=8.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  2. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.11582125 = product of:
      0.463285 = sum of:
        0.463285 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.463285 = score(doc=86,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  3. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.11170048 = product of:
      0.22340097 = sum of:
        0.16379598 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16379598 = score(doc=5002,freq=4.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.059604984 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.059604984 = score(doc=5002,freq=54.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  4. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.11
    0.11099322 = product of:
      0.4439729 = sum of:
        0.4439729 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.4439729 = score(doc=6217,freq=10.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  5. Crystal, D.: ¬Die Cambridge Enzyklopädie der Sprache (1993) 0.11
    0.108971074 = product of:
      0.21794215 = sum of:
        0.051089987 = weight(_text_:und in 2885) [ClassicSimilarity], result of:
          0.051089987 = score(doc=2885,freq=54.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.38198817 = fieldWeight in 2885, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2885)
        0.16685216 = weight(_text_:hoffe in 2885) [ClassicSimilarity], result of:
          0.16685216 = score(doc=2885,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.30283564 = fieldWeight in 2885, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2885)
      0.5 = coord(2/4)
    
    Abstract
    Diese Enzyklopädie ist eine zuverlässige Informationsquelle für all jene, die tiefer in die Geheimnisse der Sprache eindringen wollen. Trotz des wissenschaftlichen Anspruchs präsentiert das Werk alle Themen in so überzeugend einfacher und lebendig-anschaulicher Weise, daß es den an Sprache allgemein Interessierten ebenso fesselt wie den beruflich motivierten Leser. Ausgehend von der alltäglichen Spracherfahrung führen 65 in sich abgeschlossene Kapitel in die Strukturen und Zusammenhänge menschlicher Kommunikation ein. Über 1.000 Abbildungen und 30 Karten illustrieren den Mikro- und Makrokosmos der Sprachen. Eine Vielzahl von Querverweisen, ein Glossar, umfangreiche Register und Hinweise auf weiterführende Literatur machen diese Enzyklopädie zu einem äußerst komfortablen Nachschlagewerk, das keine Frage über Sprache und Sprachen offen läßt.
    Content
    "Dieses Buch soll die menschliche Sprache rühmen und jenen Tribut zollen, die sie erforschen. Es soll die gewaltige Sprachenvielfalt auf der Welt ebenso vor Augen führen wie die Vielseitigkeit, Komplexität und Schönheit jeder einzelnen Sprache, ob sie nun von Millionen oder von Hunderten gesprochen wird - von den ausgefeiltesten Formulierungen der hohen Literatur bis hin zu den alltäglichsten Äußerungen. Gleichzeitig möchte ich ein wenig von der Faszination und dem Nutzen der Sprachforschung vermitteln, die unzählige allgemeine Erkenntnisse über Struktur, Entwicklung und Gebrauch von Sprache hervorgebracht und zu vielen wichtigen Anwendungen in individuellen wie sozialen Problembereichen geführt hat. Das Buch hat deshalb zwei Ebenen. Zum einen spiegelt es jenes Interesse für Sprachgeschichte und sprachliches Verhalten wider, dem wir täglich begegnen, wenn sich Menschen über die Herkunft einer Wortbedeutung Gedanken machen oder voller Staunen den ersten Sprechversuchen eines Kindes lauschen. Zum anderen reflektiert sich darin ein tieferes Interesse, das aus dem Bemühen entspringt, das Beobachtete zu erklären und Gesetzmäßigkeiten darin zu erkennen - ein Interesse, das darin münden kann, daß wir die Sprachforschung zu unserem Beruf machen oder eine Laufbahn im Sprachunterricht, der Sprachtherapie oder einem anderen sprachbezogenen Beruf einschlagen. Außerdem habe ich auch praktische Ziele. Ich hoffe, das Buch wird zu einem fundierten Bewußtsein über die Komplexität der menschlichen Sprache beitragen, die Aufmerksamkeit auf die vielfältigen sprachlich bedingten und sprachlich lösbaren Probleme lenken und deutlich machen, daß es sprachliche Rechte gibt, die nicht missachtet werden sollten. Vor mir liegt eine »Deklaration über die Sprachrechte des Individuums, für die Francisco Gomes de Matos von der Bundesuniversität Pernambuca im brasilianischen Recife eintritt. Der Appell verweist darauf, daß es überall auf der Welt sprachbezogene Vorurteile und Diskriminierung gibt, und er nennt auch die Hindernisse, die Menschen in den Weg gestellt werden, wenn sie besondere Hilfe beim Sprachenlernen und beim Sprachgebrauch suchen. Jeder Mensch hat das Recht auf den Gebrauch seiner Muttersprache, auf das Erlernen einer Zweitsprache, auf besondere Behandlung bei sprachlicher Behinderung - Rechte, die in vielen Teilen der Welt nicht oder nur unzureichend gewährleistet sind. Nur bei einem starken Interesse der Öffentlichkeit für solche Fragen haben diese Rechte eine Chance auf Anerkennung, und meine Hoffnung ist es, daß die Enzyklopädie zur Entstehung eines Klimas beitragen wird, in dem die Menschen sich der Bedeutung von Sprache für Individuum und Gesellschaft bewußt werden und entsprechend handeln. Die Bezeichnung "Enzyklopädie" verwende ich nicht ohne Vorbehalte: Gäbe es einen Ausdruck für "embryonale Enzyklopädie" so würde dieser das vorliegende Werk sicherlich treffender charakterisieren. Das Thema Sprache ist derart umfassend, daß es sich auf 478 Seiten im Grunde nur anreißen läßt. Mein persönlicher Hintergrund ist die Linguistik, und ich bin mir darüber im klaren, daß ich andere Bereiche des Wissens und der Forschung, etwa Philosophie, Psychologie und künstliche Intelligenz, nur unzureichend berücksichtigt habe. Zudem schreibe ich zwar aus Sicht eines Linguisten, doch ist das Buch nicht als Einführung in die Sprachwissenschaft angelegt: Ich habe auf eine Diskussion der zahlreichen sprachanalytischen Ansätze der Linguistik verzichtet und gehe nur auf wenige theoretische Unterschiede näher ein. Wer sich intensiver mit dem Thema befassen will, findet in den Quellenangaben hoffentlich reichlich Material."
    Issue
    Übersetzung und Bearbeitung der deutschen Ausgabe von Stefan Röhrich, Ariane Böckler und Manfred Jansen
  6. Lochmann, D.: Vom Wesen der Information : eine allgemeinverständliche Betrachtung über Information in der Gesellschaft, in der Natur und in der Informationstheorie (2004) 0.11
    0.107510135 = product of:
      0.21502027 = sum of:
        0.048168104 = weight(_text_:und in 2581) [ClassicSimilarity], result of:
          0.048168104 = score(doc=2581,freq=48.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.36014193 = fieldWeight in 2581, product of:
              6.928203 = tf(freq=48.0), with freq of:
                48.0 = termFreq=48.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2581)
        0.16685216 = weight(_text_:hoffe in 2581) [ClassicSimilarity], result of:
          0.16685216 = score(doc=2581,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.30283564 = fieldWeight in 2581, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2581)
      0.5 = coord(2/4)
    
    Abstract
    Der Begriff Information ist seit etwa 50 Jahren zu einem Zauberwort geworden, das vielleicht vergleichbar ist mit dem Begriff "Computer". Diese Begriffsprägung hat ihre Ursache in der Entwicklung der menschlichen Gesellschaft, denn im persönlichen Leben und auch in der beruflichen Tätigkeit fühlt man oft instinktiv, dass man in bestimmten Situationen zusätzliches Wissen oder zusätzliche Kenntnisse, eben Information, benötigt. Aber was ist Information? Das Wort "Information" ist abgeleitet aus dem lateinischen Wort "informare", das die Bedeutung von "etwas formen, gestalten, darstellen", "jemanden durch Unterrichtung, Belehrung und Erläuterung bilden" hat. So ist Information in ihrer ursprünglichen Bedeutung etwas, was die Bildung und das Wissen beim Menschen erweitert. Das gilt auch noch heute, denn meist wird Information als Mitteilung von Tatbeständen und Sachverhalten über etwas, aber auch als Unterrichtung oder als Belehrung auf bestimmten Gebieten (z. B. durch ein Informationsbüro) verstanden. Wir sehen, dass der Begriff Information überwiegend auf die menschliche Kommunikation angewendet wird und zusammenhängt mit einer Vergrößerung des Wissens oder der Gewinnung zusätzlicher Kenntnisse und Vorstellungen. Dabei gibt es auch Wertmaßstäbe. Wir bezeichnen Nachrichten, die wir für wichtig halten, als "wertvolle Information", Nachrichten, die zum richtigen Zeitpunkt an uns gelangen, als "aktuelle Information" und solche Nachrichten, die wir anfangs als richtig betrachten und später als falsch erkennen, als "Fehlinformation".
    Außer für die menschliche Kommunikation wird der Begriff Information auch verwendet für die Fülle der auf unsere Sinnesorgane einwirkenden Reize aus der Umwelt. Weiterhin sprechen wir von "Erbinformation", von "Informationsaustausch im Tierreich", von "Computerinformation" und auch von Information bei anderen technischen Systemen. Es entsteht die Frage, ob man in diesen Anwendungsfällen auch von Kenntnisgewinn sprechen kann. Denn, wenn die Anwendung des Begriffs Information in allen aufgezählten Sachgebieten gelten soll, dann muss es für den Begriff "Information" eine allgemein vergleichbare Eigenschaft geben. Diese allgemeine Eigenschaft kann erfolgeich mit einer Wirkung auf Grund von Information und insbesondere mit einer Entscheidung in Verbindung gebracht werden. Bei einer Entscheidung besteht immer das Erfordernis, eine Auswahl zwischen verschiedenen Verhaltensmöglichkeiten oder Auswahlobjekten zu treffen. Und dazu benötigt man eine Zielvorstellung (sonst ergibt sich eine Zufallsentscheidung) und Information. Aber diese Information ist immer nur für eine bestimmte Entscheidung relevant. Wir bezeichnen sie deshalb als relevante Information. Ich habe mich seit über 35 Jahren mit dem faszinierenden Wesen der Information befasst und sehr viele dazu erschienenen Bücher, wissenschaftlichen Veröffentlichungen und getroffenen Äußerungen gesammelt und verarbeitet. Mit der Betrachtung des Zusammenhangs zwischen Information und Entscheidung glaube ich, den Ansatz eines einheitlichen Konzepts für Information gefunden zu haben. Das geläufige Verständnis des Begriffs Information in der menschlichen Kommunikation setzt immer voraus, dass sie aus Nachrichten besteht, die für den Empfänger eine Bedeutung haben. Nachrichten, die ein Empfänger nicht versteht, können für ihn keine Information sein und deshalb zu einer Entscheidung nichts beitragen.
    Damit aber gerade besteht ein grundlegender Unterschied zur Definition der Information in der Informationstheorie, die eine Theorie der Nachrichtenübertragung ist. Hier gilt die Definition, abgeleitet aus der Wahrscheinlichkeit einer Nachricht, dass diese Nachricht um so mehr Information enthält, je seltener sie auftritt. Sie ist somit eine statistische Größe. Die Bedeutung dieser Information für einen Empfänger spielt in der Informationstheorie keine Rolle. Die Menge an dieser statistischen Information kann quantitativ bestimmt werden. Es gab daher viele Versuche, die Ergebnisse der Informationstheorie auch in anderen Wissensgebieten anzuwenden, insbesondere in der Linguistik, in der Kunst und in der Psychologie. Diese Bemühungen haben größtenteils nicht zum Erfolg geführt, da in den genannten Wissensgebieten Information von ihrer Bedeutung für den Empfänger nicht getrennt werden kann. Es wird hier aber anschaulich gezeigt, dass die Informationstheorie für die Nachrichtenübertragung sehr große Fortschritte gebracht und das Verständnis über das Wesen der Nachricht in bedeutendem Maße aufgehellt hat. Auf Grund der völlig anderen Betrachtungsweise der Information in der Informationstheorie gegenüber der Information in der menschlichen Kommunikation wird die Diskussion um den Begriff Information seit Jahrzehnten von einer beträchtlichen Widersprüchlichkeit begleitet. Noch heute findet man in der Literatur viele Spuren der bestehenden Begriffsverwirrung. Ich hoffe, dass ich mit diesem Buch einen kleinen Beitrag zur Diskussion über dieses unerschöpfliche Thema leisten kann, wenn auch befürchtet werden muss, dass ein Autor, der sich an dieses Thema heranwagt, sehr oft nur Schimpf und Schande erntet. Wir werden es erleben. Es hat mich aber der folgende Ausspruch von Albert Einstein immer wieder ermutigt: "Wer es unternimmt, auf dem Gebiet der Wahrheit und der Erkenntnis als Autorität aufzutreten, scheitert am Gelächter der Götter."
    BK
    05.20 / Kommunikation und Gesellschaft
    Classification
    05.20 / Kommunikation und Gesellschaft
  7. nestor-Handbuch : eine kleine Enzyklopädie der digitalen Langzeitarchivierung (2010) 0.11
    0.10595465 = product of:
      0.2119093 = sum of:
        0.045057137 = weight(_text_:und in 703) [ClassicSimilarity], result of:
          0.045057137 = score(doc=703,freq=42.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.33688194 = fieldWeight in 703, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=703)
        0.16685216 = weight(_text_:hoffe in 703) [ClassicSimilarity], result of:
          0.16685216 = score(doc=703,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.30283564 = fieldWeight in 703, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.0234375 = fieldNorm(doc=703)
      0.5 = coord(2/4)
    
    Abstract
    Vorwort Stellen Sie sich vor: Wir befinden uns im Jahre 2030 irgendwo in Deutschland. Irgendwo? Nein, bei Ihnen in der guten Stube, wo Sie Ihren Enkelkindern stolz von Ihrer Weltumsegelung aus dem Jahr 2010 berichten. Untermalen möchten Sie Ihre Geschichte gerne mit anschaulichem Bildmaterial und zeitgenössischer Musik. Diese hatte damals wesentlich zur Mythen- und Legendenbildung im Freundeskreis beigetragen, seitdem genießen Sie den Ruf eines unerschrockenen Helden. Nun ist es an der Zeit, diese kleine Geschichte lebendig zu halten und sie der nächsten Generation, nämlich Ihren Enkelkindern, weiterzugeben. Doch Ihr GODD (Global Omnipresent Digital Device) weigert sich, die aufwändig erstellte Videoschau überhaupt zu lesen. Ganz im Gegenteil, Ihnen wird lapidar mitgeteilt, dass es sich um veraltete Technik handelt, die nicht länger unterstützt wird. Sie möchten sich bitte an einen "Datenarchäologen" Ihres Vertrauens wenden. Aber was ist nun eigentlich ein "Datenarchäologe"? Ein Datenarchäologe stellt nicht mehr lesbare Daten wieder her, um sie wieder nutzbar zu machen. Er - oder sie - kommt zum Einsatz, wenn die Havarie schon erfolgt ist. Doch soweit soll es nicht kommen. Deshalb benötigt man Experten wie den "Digital Curator" oder den "Digital Preservation Specialist", der dafür sorgt, dass bereits bei der Entstehung digitaler Daten perspektivisch ihre langfristige Erhaltung berücksichtigt wird. Er - oder sie - ist in der Lage eine Institution bei der Entwicklung ihrer Langzeitarchivierungsstrategie für die erzeugten Daten zu unterstützen oder Entwicklungen in einem vertrauenswürdigen digitalen Langzeitarchivsystem zu planen und durchzuführen.
    Glücklicher als Sie mit Ihren privaten digitalen Daten sind da die Astronomen, wenn sie nach Daten von Himmels-Beobachtungen fahnden, die bereits Jahrzehnte zurückliegen. Obwohl die Bild- und Datenarchive dieser Beobachtungen in vielfältigen und sehr unterschiedlichen Formaten abgespeichert wurden, gibt es immer die Möglichkeit, über geeignete Interface-Verfahren die Originaldaten zu lesen und zu interpretieren. Dies ist der Fall, weil durch das sogenannte Virtuelle Observatorium weltweit die Archive für astronomische Beobachtungen vernetzt und immer in den neuesten digitalen Formaten zugänglich sind, seien es digitale Aufnahmen von Asteroiden, Planetenbewegungen, der Milchstrasse oder auch Simulationen des Urknalls. Selbst Photoplatten von Beginn des 20. Jahrhunderts wurden systematisch digitalisiert und stehen zur Wiederverwendung bereit. So sind ältere und neue digitale Daten und Bilder gemeinsam nutzbar und gewähren einen Blick in das Universum, der sich über weit mehr Wellenlängen erstreckt als die Sinne des Menschen allein wahrnehmen können. Wir freuen uns, Ihnen mit dem nestor Handbuch "Eine kleine Enzyklopädie der digitalen Langzeitarchivierung" den aktuellen Wissensstand über die Langzeitarchivierung digitaler Objekte im Überblick sowie aus vielen Teilbereichen nun auch in gedruckter Form präsentieren zu können. Schon seit Frühjahr 2007 ist das Handbuch in digitaler Version unter http://nestor.sub.uni-goettingen.de/handbuch/ verfügbar und seitdem in mehreren Intervallen aktualisiert worden. Die nun vorliegende Version 2.0 - hier gedruckt und unter o.g. URL auch weiterhin entgeltfrei herunterladbar - wurde neu strukturiert, um neue Themenfelder ergänzt und bislang schon vorhandene Beiträge wurden, wo fachlich geboten, überarbeitet. Aus seiner Entstehung ergibt sich eine gewisse Heterogenität der einzelnen Kapitel untereinander, z.B. bezüglich der Ausführlichkeit des behandelten Themas oder des Schreibstils. Der Herausgeberkreis hat nicht primär das Ziel verfolgt, dies redaktionell lektorierend auszugleichen oder ein insgesamt kohärentes Gesamtwerk vorzulegen. Vielmehr geht es ihm darum, der deutschsprachigen Gemeinschaft eine möglichst aktuelle "Kleine Enzyklopädie der digitalen Langzeitarchivierung" anbieten zu können.
    Die parallel verfügbare entgeltfreie, digitale Version des Handbuchs wird bei Bedarf aktualisiert und erweitert, eine zweite Druckauflage ist bereits geplant. Gerne nehmen wir Ihre Anregungen auf und berücksichtigen sie bei zukünftigen Aktualisierungen! Unser Dank gilt insbesondere den Autorinnen und Autoren, ohne die es nur bei der Idee eines solchen Handbuches geblieben wäre. Mein Dank gilt aber auch den Mitherausgebern dieser Ausgabe, durch deren engagiertes Stimulieren und "Bändigen" der Autoren die vielen Beiträge erst zu einem Gesamtwerk zusammengeführt werden konnten. Zusammen mit allen Beteiligten hoffe ich, dass dieses Handbuch Ihnen hilfreiche Anregungen und Anleitungen zu einem erfolgreichen Einstieg in die Theorie und Praxis der Langzeitarchivierung digitaler Objekte bietet!
  8. Kolodziejczyk, M.: Sehen Sie ruhig nach : Immer mehr Magazin- und Zeitungsarchive sind offen und kostenlos (2008) 0.10
    0.10369583 = product of:
      0.20739166 = sum of:
        0.0405395 = weight(_text_:und in 2309) [ClassicSimilarity], result of:
          0.0405395 = score(doc=2309,freq=34.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.30310458 = fieldWeight in 2309, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2309)
        0.16685216 = weight(_text_:hoffe in 2309) [ClassicSimilarity], result of:
          0.16685216 = score(doc=2309,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.30283564 = fieldWeight in 2309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2309)
      0.5 = coord(2/4)
    
    Content
    "Ob Hippies oder RAF, ob Mauerfall oder 11. September - wer derlei Phänomenen und Ereignissen in der zeitaktuellen Presse nachspüren will, muss meist einiges an Aufwand und Kosten auf sich nehmen. Recherche in Printmedien heißt entweder in stickigen Bibliotheken stöbern und zahllose Zeitungen zerfleddern oder eben: im Internet Artikel ordern und dafür etliche Euro berappen. Am 14. Januar verkündete nun der Focus, er stelle als "erstes Nachrichtenmagazin Deutschlands" sein Print-Archiv kostenfrei online. Sämtliche Themen können seither über eine Suchmaske recherchiert, alle Artikel und Hefte aus 15 Jahrgängen per Mausklick abgerufen werden. Laut Focus-Herausgeber Helmut Markwort ist dieses Novum eine Art Geschenk an die Leser, pünktlich zum 15. Geburtstag der Zeitschrift. "Focus dankt seinen Lesern. Wir beschenken sie daher mit dem Kostbarsten, was wir besitzen: Alle unsere kompetent recherchierten Artikel", hieß es in der Presseerklärung. Offenbar wird das Präsent gern angenommen, wie Focus-Sprecher Uwe Barfknecht der FR mitteilt: "Die Zugriffszahlen übertreffen unsere Erwartungen um Größenordnungen." Nun hoffe man, dass weitere Verlage nachziehen, je mehr, "desto spannender wird das freie Internet für umfassende historische Recherchen". Die Spannung steigt zwar nicht rasant, aber stetig. Blogger und Online-Foren bejubeln mit zunehmender Frequenz, dass wieder ein Presse-Archiv "geknackt" sei. Es könnte sich zu einem Trend entwickeln. So bietet die New York Times seit vergangenen September auf nytimes.com ihr Material aus neun Dekaden kostenlos an: vom Gründungsjahr 1851 bis 1922 sowie von 1986 bis heute. Auch andere haben ihre Print-Archive entsperrt, komplett oder zumindest teilweise: The Economist zum Beispiel oder die spanischen Tageszeitungen El Mundo und El País.
    In Deutschland war es allerdings de facto nicht der Focus, der in Sachen Öffnung einsam vorangeprescht ist. Bereits seit Juni 2007 stehen sämtliche Beiträge der Zeit von 1995 an im Netz. Die Meldung der Wochenzeitung, im Dezember das vollständige Archiv von 1946 bis heute frei zu schalten, ging etwas unter. Wohl auch, weil zeit.de kein großes Buhei darum machte, sondern die Freigabe der Archive schlicht für "eine Konsequenz bestehender Verhältnisse" hält. Schließlich, so sagt der stellvertretende Chefredakteur Steffen Richter, hätten sich Recherche-Kultur und Medienrezeption grundlegend gewandelt. Der Spiegel geht bald noch einen Schritt weiter: In einem Joint Venture mit der Bertelsmann-Tochter Wissen Media Group werkeln die Mitarbeiter seit vergangenem Herbst an einem umfangreichen Recherche- und Informations-Portal, in dem nicht nur sämtliche bislang kostenpflichtigen Archiv-Inhalte seit Gründung des Blattes 1947 frei zugänglich sein werden. Wer bei Spiegel Wissen ein Suchwort eingibt, bekommt neben den entsprechenden Spiegel-Artikeln zusätzlich Texte aus Bertelsmann-Lexika und -Wörterbüchern serviert. Hinzu kommen Einträge aus der freien Enzyklopädie Wikipedia. Die Plattform soll im Frühjahr online gehen. Der genaue Termin stehe noch nicht fest, nach Einschätzung von Hauke Janssen, Geschäftsführer von Spiegel Wissen, könnte es jedoch eher klappen, als geplant. Bleibt die Frage, was denn eigentlich die Printmedien davon haben, ihre kostbaren Texte nun kostenlos ins Netz zu stellen. "Diese Frage ist so alt wie der Online-Journalismus", sagt Janssen. Spiegel-Online habe selbst lange mit "paid content" (etwa: kostenpflichtiger Inhalt) experimentiert und dann auf ein werbefinanziertes Portal gesetzt. "Die Archiv-Inhalte haben wir allerdings bepreist gelassen."
    Bislang. Doch der Umsatz aus dem paid content stagniere und sei ohnehin kaum relevant. Statt abzusperren, sei es daher "klüger für die Marke Spiegel", den Nutzer im Internet mit Printartikeln zu versorgen und das Angebot über Werbung zu finanzieren. Lediglich das aktuelle Heft soll im Netz weiterhin kostenpflichtig sein. Janssen spricht von "Chancengleichheit" und davon, dass der "gesellschaftliche Mehrwert" wachse. "Jeder, der etwas wissen möchte, hat Zugriff auf die notwendigen Informationsquellen." Ähnlich sieht es der Deutsche Journalisten Verband (DJV). "Aus unserer Sicht ist die Öffnung der Archive generell zu begrüßen, da dem Bürger journalistische Inhalte einfacher zugänglich sind", sagt DJV-Sprecherin Nicole von Stockert. Auch Frank Thomsen, Chefredakteur von stern.de, ist von diesem "spannenden Ansatz" sehr angetan. "Dass wir ihn derzeit nicht verfolgen, hat einen einfachen Grund: Wir haben im Moment andere Prioritäten." Wenn es um Neuerungen im Online-Journalismus geht, dauert es meist nicht lange, bis sich Kritiker erheben, die um den Verkauf der Druckauflage und die Zukunft der Presse überhaupt bangen. Doch die Freigabe der Archive - hierin sind sich die Medienhäuser ebenso einig wie in ihrem Entzücken für die Sache - stellt wohl keine Gefahr dar."
  9. Weigert, M.: Horizobu: Webrecherche statt Websuche (2011) 0.10
    0.10182058 = product of:
      0.20364116 = sum of:
        0.036788996 = weight(_text_:und in 443) [ClassicSimilarity], result of:
          0.036788996 = score(doc=443,freq=28.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.27506292 = fieldWeight in 443, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=443)
        0.16685216 = weight(_text_:hoffe in 443) [ClassicSimilarity], result of:
          0.16685216 = score(doc=443,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.30283564 = fieldWeight in 443, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.0234375 = fieldNorm(doc=443)
      0.5 = coord(2/4)
    
    Abstract
    In einem Artikel bei Netzwertig.com (horizobu: Erkunden statt suchen) bin ich auf eine neue Suchmaschine aus der Schweiz gestoßen: horizobu. Und ich muss gestehen, ich bin beeindruckt. horizobu macht Spaß und bietet etwas, was anderen Suchmaschinen fehlt.
    Content
    "Das Problem mit der Suchmaschinen-Optimierung Suchmaschinen sind unser Instrument, um mit der Informationsflut im Internet klar zu kommen. Wie ich in meinem Artikel Die kürzeste Anleitung zur Suchmaschinenoptimierung aller Zeiten ausgeführt habe, gibt es dabei leider das Problem, dass der Platzhirsch Google nicht wirklich die besten Suchresultate liefert: Habt ihr schon mal nach einem Hotel, einem Restaurant oder einer anderen Location gesucht - und die ersten vier Ergebnis-Seiten sind voller Location-Aggregatoren? Wenn ich ganz spezifisch nach einem Hotel soundso in der Soundso-Strasse suche, dann finde ich, das relevanteste Ergebnis ist die Webseite dieses Hotels. Das gehört auf Seite 1 an Platz 1. Dort aber finden sich nur die Webseiten, die ganz besonders dolle suchmaschinenoptimiert sind. Wobei Google Webseiten als am suchmaschinenoptimiertesten einstuft, wenn möglichst viele Links darauf zeigen und der Inhalt relevant sein soll. Die Industrie der Suchmaschinen-Optimierer erreicht dies dadurch, dass sie folgende Dinge machen: - sie lassen Programme und Praktikanten im Web rumschwirren, die sich überall mit hirnlosen Kommentaren verewigen (Hauptsache, die sind verlinkt und zeigen auf ihre zu pushende Webseite) - sie erschaffen geistlose Blogs, in denen hirnlose Texte stehen (Hauptsache, die Keyword-Dichte stimmt) - diese Texte lassen sie durch Schüler und Praktikanten oder gleich durch Software schreiben - Dann kommt es anscheinend noch auf Keywords im Titel, in der URL etc. an.
    All das führt zu folgenden negativen Begleiterscheinungen: - die meisten Kommentare heutzutage kriegt man nur noch des Links wegen: der eigentliche Sinn ist gleich Null - es gibt mittlerweile haufenweise Inhalte und ganze Blogs im Web, deren Ziel nur ist, von Google-Bots auf ihre Keyword-Dichte geprüft zu werden - aus meiner Sicht funktionieren SEO-Optimierungs-Unternehmen wie Schneeballsysteme: oben wird durch die Geschäftsführer Kohle gescheffelt, unten wird von den Praktikanten für wenig Geld sinnlos geschuftet. Aus meiner Sicht trägt Google zu diesen negativen Folgen sehr viel bei. Google legt nicht offen, sie sein Suchalgorithmus funktioniert - und es fördert damit diese Überflutung des Webs mit sinnlosen Kommentaren und Inhalten. Wie Du langsam aber sicher merkst, bin ich nicht der allergrößte Fan von Google (ich hoffe, die lesen das nicht - in Deutschland erfolgen mehr als 95% aller Suchen mit Google und ich will ja, dass der Denkpass weiterhin gut und leicht gefunden wird). horizobu - Nicht suchen, sondern recherchieren Nun ist horizobu nicht wirklich anders, zumindest in dieser Hinsicht. Aber es ist anders darin, wie es mit Suchergebnissen umgeht. Wenn Du etwas suchst, erscheinen sechs möglichst relevante Ergebnisse in einem großen Rahmen. Falls Dir diese Ergebnisse nicht zusagen, kannst Du sie einzeln (durch Klick auf das Kreuz an jedem Ergebnis) oder mehrere oder alle (durch Klick auf More) austauschen und durch die nächsten Ergebnisse ersetzen lassen. An jedem der sechs Ergebnisse gibt es auch eine Nadel zum Fixieren - dann kannst Du die anderen austauschen und dieses Ergebnis bleibt.
  10. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.10030416 = product of:
      0.40121663 = sum of:
        0.40121663 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.40121663 = score(doc=6014,freq=6.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  11. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.10
    0.10030416 = product of:
      0.40121663 = sum of:
        0.40121663 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.40121663 = score(doc=4612,freq=6.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java
  12. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.10030416 = product of:
      0.40121663 = sum of:
        0.40121663 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.40121663 = score(doc=6896,freq=6.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  13. Seckel, A.: Optische Illusionen (2004) 0.10
    0.09973106 = product of:
      0.19946212 = sum of:
        0.032609962 = weight(_text_:und in 3168) [ClassicSimilarity], result of:
          0.032609962 = score(doc=3168,freq=22.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.24381724 = fieldWeight in 3168, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3168)
        0.16685216 = weight(_text_:hoffe in 3168) [ClassicSimilarity], result of:
          0.16685216 = score(doc=3168,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.30283564 = fieldWeight in 3168, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3168)
      0.5 = coord(2/4)
    
    Abstract
    Für uns alle ist Sehen selbstverständlich. Es benötigt wenig Anstrengung. Doch das Sehen von Bildern, Objekten, Tiefen und Bewegung ist ein komplexer Prozess. Erst im letzten Jahrhundert bzw. den letzten 2O Jahren konnten Wissenschafter Fortschritte im Verstehen von Sehvermögen und Wahrnehmung erzielen. Nehmen Sie sich kurz Zeit und beobachten Sie die Welt um sich. Wenn Sie etwa den Kopf neigen, neigt sich da nicht auch die WeIt? Wenn Sie ein Auge schließen, verringert das nicht Ihre Tiefenwahrnehmung? Beachten Sie, was mit Farbe passiert, wenn Sie unterschiedlich beleuchtet wird. Gehen Sie um ein Objekt herum: Die Form verändert sich, doch die Wahrnehmung bleibt die gleiche. "Dahinterkommen" ist ein wirklich wunderbarer Vorgang. Hauptsächlich spielt sich dieser jedoch im Gehirn ab und nicht in ihrem Auge! Lichtwellen gelangen in die Augen und dringen in die fotorezeptiven Zellen der Netzhaut ein. Die Bilder, die so auf Ihrer Netzhaut entstehen, seien diese nun zwei- oder dreidimensional, werden zu flachen Darstellungen auf einer gewölbten Oberfläche. Diese bewirken eine natürliche Doppeldeutigkeit der Bilder, die auf Ihre Netzhaut gelangen. Für jedes Bild auf der Netzhaut gibt es unendlich viele Möglichkeiten für dreidimensionale Situationen, die genau dieses gleiche Bild verursachen können. Ihr Auge jedoch entscheidet sich gewöhnlich für die korrekte Interpretation. Genau das tut Ihr Gehirn: Es interpretiert! Es gibt einige sehr starke Einschränkungen, wie es dazu kommt. Außerdem muss Ihr Sehapparat die "Antwort" schnell finden. Alles in allem funktionieren diese Einschränkungen. In der realen WeIt sehen Sie nicht viele Illusionen, da Ihr Sehsystem viele Möglichkeiten kennt, Mehrdeutigkeiten auszuschließen. Viele dieser Möglichkeiten stützen sich auf die Regelmäßigkeiten der Welt, in der wir leben. Visuelle Wahrnehmung ist auf jeden Fall ein Prozess, der Mehrdeutigkeiten ausschließt. Doch Fehler können auch hier passieren. Zu Zeiten kommt es zu Illusionen, wenn das Bild, das wir aufnehmen, nicht genügend Information besitzt, um Mehrdeutigkeit auszuschließen. Es fehlen etwa wichtige Hinweise, die in der realen WeIt existieren und Mehrdeutigkeit ausschließen könnten.
    Andere Illusionen entstehen, wenn ein Bild eine Einschränkung verletzt, die auf einer Regelmäßigkeit unserer WeIt basiert. Andere Illusionen treten auf, weil zwei oder mehrere Einschränkungen miteinander in Konflikt stehen. Dies bedeutet, dass unser Auge das Geschehen auf mehrere Arten interpretieren kann. Obwohl das Bild auf Ihrer Netzhaut unverändert bleibt, sehen Sie nie eine Vermischung der beiden Wahrnehmungen, obwohl die beiden Interpretationen zwischen diesen hin- und hergerissen sind. So sind Illusionen sehr nützliche Werkzeuge für Wissenschafter. Sie können die verborgenen Einschränkungen des Sehsystems in einer Weise sichtbar machen, die das normale Sehvermögen nicht schafft. Viele Illusionen in diesem Buch werden Ihre Wahrnehmung wiederholt zum Narren halten, auch wenn Sie wissen, dass Sie hinters Licht geführt werden. Dies geschieht, weil es für Ihren Sehapparat wichtiger ist, seine Einschränkungen zu befolgen als sie zu verletzen, aus dem einfachen Grund, dass Sie auf etwas gestoßen sind, das ungewöhnlich, widersprüchlich oder paradox ist. Die Illusionen sind willkürlich in vier Galerien eingeteilt. Viele sind nicht allgemein bekannt, da sie ihren Ursprung in der Forschung haben. Es werden auch klassische Illusionen angeführt, wobei wir jedoch meist deren Effekt verstärkt bzw. gesteigert haben. Ich habe versucht, wissenschaftliche Erklärungen für die Illusionen zu liefern. Diese sind am Ende jeder Galerie angeführt. In vielen Fällen wissen wir jedoch heute noch keine Antwort. Dies trifft vor allem auf geometrische Illusionen wie etwa die Poggendorf-Illusion oder die Muller-Lyer-Illusion zu. Darum möchte ich betonen, dass die Erklärungen nicht auf allgemeine Gültigkeit plädieren, sondern durchaus skeptisch betrachtet werden sollen. Die Erforschung des Auges ist eines der aufregendsten Gebiete der Wissenschaft und das Studium von visuellen Illusionen bereitet große Freude. Ich hoffe, dass dieses Buch Jung und Alt überraschen und erfreuen wird und es auch zum Nachdenken über das wundersamste Mysterium dieses Universums anregt - dem menschlichen Gehirn.
  14. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.09927536 = product of:
      0.39710143 = sum of:
        0.39710143 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.39710143 = score(doc=1743,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  15. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.09927536 = product of:
      0.39710143 = sum of:
        0.39710143 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.39710143 = score(doc=2137,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  16. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.09927536 = product of:
      0.39710143 = sum of:
        0.39710143 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.39710143 = score(doc=2035,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  17. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.09927536 = product of:
      0.39710143 = sum of:
        0.39710143 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.39710143 = score(doc=2050,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  18. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.09911659 = product of:
      0.19823319 = sum of:
        0.16545895 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.16545895 = score(doc=729,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.032774244 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.032774244 = score(doc=729,freq=8.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  19. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.097619526 = product of:
      0.19523905 = sum of:
        0.13236715 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.13236715 = score(doc=2567,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.0628719 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.0628719 = score(doc=2567,freq=46.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  20. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.09692114 = product of:
      0.19384228 = sum of:
        0.16545895 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.16545895 = score(doc=617,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.028383328 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.028383328 = score(doc=617,freq=6.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können

Authors

Languages

Types

  • a 9351
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications