Search (13209 results, page 3 of 661)

  1. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.11
    0.11481051 = product of:
      0.45924205 = sum of:
        0.45924205 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.45924205 = score(doc=86,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  2. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.11072571 = product of:
      0.22145142 = sum of:
        0.16236658 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16236658 = score(doc=5002,freq=4.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.059084836 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.059084836 = score(doc=5002,freq=54.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  3. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.11
    0.11002461 = product of:
      0.44009843 = sum of:
        0.44009843 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.44009843 = score(doc=6217,freq=10.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  4. Bouhnik, D.; Mor, D.: Gender differences in the moral judgment and behavior of Israeli adolescents in the internet environment (2014) 0.10
    0.10313832 = product of:
      0.41255328 = sum of:
        0.41255328 = weight(_text_:humane in 2220) [ClassicSimilarity], result of:
          0.41255328 = score(doc=2220,freq=4.0), product of:
            0.5618414 = queryWeight, product of:
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.05977747 = queryNorm
            0.73428774 = fieldWeight in 2220, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2220)
      0.25 = coord(1/4)
    
    Abstract
    This study explored differences between genders regarding adolescents' behavioral characteristics and moral judgment in the Internet environment. A questionnaire was administered to 1,048 students in the 7th to 11th grades in six different schools, one class in each grade. The questionnaire included personal data, characteristics of Internet interaction patterns, moral dilemmas in daily life, and moral dilemmas in the virtual environment. No significant differences were found between the genders regarding the age usage of the Internet began, Internet experience, and average daily hours of Internet use. We found that boys prefer, more than girls, to surf at school and in Internet cafés. Girls tend to use the Internet more for doing homework and blogs than boys, whereas boys tend to play Internet games more than girls. Gender differences were found regarding immoral behavior. Boys were involved more frequently than girls in behaviors such as cyberbullying, plagiarism, impersonation, and downloading music and movies illegally from the Internet. A correlation was found between gender and moral judgment. Although both boys and girls made relatively little "humane judgment" in the Internet environment, girls tended to make "humane judgment" more frequently than boys. In the Internet environment, boys tended to make "absence of judgment" evaluations more than girls. Girls tended, relatively more, toward "normative judgment" that reflects adherence to peer-group conventions with minimal reflexivity.
  5. Was kommt nach der Informationsgesellschaft? : 11 Antworten (2002) 0.10
    0.10017201 = product of:
      0.20034403 = sum of:
        0.05448443 = weight(_text_:und in 2504) [ClassicSimilarity], result of:
          0.05448443 = score(doc=2504,freq=90.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.41095388 = fieldWeight in 2504, product of:
              9.486833 = tf(freq=90.0), with freq of:
                90.0 = termFreq=90.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2504)
        0.1458596 = weight(_text_:humane in 2504) [ClassicSimilarity], result of:
          0.1458596 = score(doc=2504,freq=2.0), product of:
            0.5618414 = queryWeight, product of:
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.05977747 = queryNorm
            0.2596099 = fieldWeight in 2504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2504)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: BuB 55(2003) H.4, S.264-265 (H.-D. Kübler): "Noch ist die "Informationsgesellschaft", nicht hinlänglich etabliert, erst recht nicht weltweit, noch streiten sich viele um ihre validen Charakteristika und registrierbaren Indikatoren, noch dürften viele Zeitgenossen mit dem Begriff und vor allem mit seinen konkreten Realia wenig anfangen und in ihrem Bewusstein zumal angesichts vieler vorderhand drängenderen Probleme des Alltags verankert habenda fragt die rührige Bertelsmann Stiftung in diesem (ansprechend gestalteten) Sammelband (schon in zweiter Auflage) internationale Experten danach, was ihres Erachtens oder nach ihrer Fantasie danach kommen wird: die Wissensgesellschaft, die selbstorganisierende Gesellschaft, die Hightouch- (statt Hightech)Society oder einfach mannigfaltige, immer weniger prognostizierbare Formationen und Zukünfte. Denn mindestens in zwei Pole lassen sich die elf, wohl willkürlich gewählten Autoren aus diversen Disziplinen - darunter auch notorische Propheten wie der umtriebige (Seite 46) Trendscout Matthias Horx, der Essener Medienguru Norbert Bolz und der Computer-Visionär John Naisbitt- aufteilen. - Durchwurstelei statt Nachhaltigkeit - Da sind zunächst die einen, die meinen, und just in diesen Aufsätzen meist mit vielen, sich auch widersprechenden Worten begründen, dass und warum Zukunftsprognosen, die über simple und damit irreführende Extrapolationen der Gegenwart hinausreichen wollen, kaum mehr oder gar immer weniger möglich sind. So fragt sich der Kommunikationswissenschaftler Holger Rust zunächst, in welcher Gesellschaft wir leben, zumal für ihn nicht einmal eindeutig ist, wann die Informationsgesellschaft beginnt: War's mit dem Buchdruck oder 1901 mit der Erfindung des Telegrafen oder 1956 mit der Gründung des Shockley Semiconductor Laboratory oder erst mit dem World Wide Web? Genüsslich verweist er auf die kürzlich (2000) erschienene Recherche (»In welcher Gesellschaft leben wir?«) des Münchner Journalisten Achim Pongs, der allein schon für die Bundesrepublik 24 einschlägige Etiketten ausmachte, und schlägt unter den Vorzeichen des wachsenden Naming die sperrige, aber wohl alle ironisch einvernehmende Kompromissformel »informationstechnologiebasierte Wissensdienstleistergesellschaft mit industriellem Kern« (Seite 66) vor. Da fehlt wohl nichts mehr von den wohlfeilen Attributen. Zuvor schon plädieren Eckhard Minx, Leiter der Forschungsgruppe »Gesellschaft und Technik« bei DaimlerChrysler, und seine Mitarbeiter mit nüchternem, aber kritischem Gespür dafür, die vielen eher technisch und ökonomisch formierten »Denkblockaden« weg zu räumen und mehr Utopien in »diskursiven Prozessen« zu entwickeln. Denn nur so ließe sich mit der »Zwickmühle« umgehen, in der wir stecken: »Auf der einen Seite wird der Druck, Aussagen über die Zukunft zu treffen, immer größer, auf der anderen Seite sind verlässliche Vorhersagen meist nicht möglich« (Seite 30).
    Auch die Zukunftsforscher Klaus Burmeister, Andreas Neef und Beate Schulz-Montag versprechen sich von einer »gut entwickelten Diskurskultur« (Seite 116) »kreative Verknüpfungen«, Impulse und auch mehr Verantwortungsbereitschaft in einer generell nicht voraussagbaren, weil überaus widersprüchlichen und risikobehafteten »Crossover Socitey«. Selbst Norbert Bolz kann entgegen seinen früheren gewissen Visionen, »nüchtern betrachtet [...], nichts über die Zukunft sagen, sondern allenfalls etwas über ihre Möglichkeiten- und die Grenzen ihrer Andersartigkeit«. Denn »je mehr das Wissen die Zukunft prägt, desto weniger kann man von der Zukunft wissen« (Seite 210). Gleichwohl nimmt er »nach einem halben Jahrhundert [...] wieder Abschied« von der »Informationsgesellschaft«, und irgendwie im Fortgang seines »Blindfluges ins 21. Jahrhundert« werden ihm seine schon vielfach publizierten Vokabeln wieder gewiss (wie schon jenes Zitat ahnen lässt): »Weltkommunikation« ist eine, bei der man den Raum preisgibt, »um die Zeit zu binden« (Seite 201), oder »Wissensgesellschaft«, weil jetzt Wirtschaft und Bildung konvergiere und die »Produktivität der geistigen Arbeit entdeckt« werde, oder - nun endgültig - das Ende jeder großen Theorie, weil sie der »Inbegriff aller Versuche [ist], der Praxis zu entfliehen« (Seite 216). Nun also vernimmt der Zuhörer aus eitlem wissenschaftlichem Munde: »Kehrtmarsch!«, denn angestimmt wird jetzt das forsche Lied des »Sichdurchwurstelns«, weil eine solche Politik viel erfolgreicher ist »als die Strategie der Nachhaltigkeit und Antizipation« (Seite 214). Ob sich damit auch der visionär und strategisch operierende Think Tank Bertelsmann Stiftung angesprochen fühlt? - Welt als Text - Ungeachtet solcher Bedenken und Warnungen, entwirft die andere Gruppe nach wie vor ihre Zukunftsvisionen undwohlfeilen Etiketten für die nunmehr Nach-Informationsgesellschaft: Gemein ist ihnen fast allen die Abkehr von vorwiegend technischen und ökonomisch bestimmten Formationen, wozu sie die Informationsgesellschaft fast einhellig und erstaunlicherweise zählen; dies auch den hier noch unbelehrbaren Protagonisten ins Stammbuch geschrieben! Denn die Technik integriere sich mit Gen-, Nanound sonstigen Soft-Technologies in die alltäglichen Systeme oder gar in die menschlichen Organe, was selten als problematisch erachtet wird; das »Reich der Notwendigkeiten« und Zwänge eskamotiere. In den Mittelpunkt rücke (wieder) das Individuum, das Humane schlechthin, mindestens die Fähigkeiten der Selbstorganisation, Selbstbestimmung, der Dezentralisierung und weitgehenden Freiheiten. Ideelle Kräfte und Werte werden demnach vorrangig, »Nachhaltigkeit« - so lässt sich Computer-Guru John Naisbitt im Gegensatz zu Norbert Bolz vernehmen - »ist die Zukunft« (Seite 233), aber dafür bedarf es für ihn der Informationstechnologien. Der dänische Autor Rolf Jensen wähnt wie in seinem Buch (1999) die »Dream Society« heraufziehen, weil die Menschen für ihre emotionalen Bedürfnisse gute Geschichten brauchen, selbst wenn sie nur den Waren als Marketingzusatz beigegeben sind - als Gebrauchswertversprechen, wie man das früher nannte. Das Science-Fiction- und Zukunftsforscher-Ehepaar Angela und Karlheinz Steinmüller argumentiert sich in einem sokratischen Dialog in eine eher wunderliche Epoche von Erzählungen und Mythen hinein, und Steve Talbott, Herausgeber der elektronischen Zeitschrift »NetFuture«, verwirft ebenfalls den Informationsgriff und postuliert als lebenswerte Kategorien hingegen Sinn und Bedeutung: Auch Naturwissenschaftler und Okonomen müssten »die Welt« als einen »sinnvollen Text« begreifen und nicht länger mehr als »informationelles System«.
    - Zukünftegestalten - So scheint der Informationsbegriff und mit ihm die Informationsgesellschaft schon mächtig dekonstruiert - oder soll man schon sagen: denunziert? -, ob auf seriösem, realistischem Fundament oder in reichlich spekulativen, idealistischen Höhen, scheint dahingestellt. Das Unbehagen ob ihrer Unschärfe und ihrer semantischen Implikationen seit ihren nachrichtentechnischen Anfängen schwärt ja schon lange - und wurde auch in dieser Zeitschrift diskutiert. Aber so recht etwas Neues und Treffenderes zur Beschreibung des zweifellos stattfindenden Strukturwandels ist (noch) nicht zur Hand, mindestens nicht hinlänglich akzeptiert. Und immerfort mit dem Präfix »Post-« zu operieren, befriedigt auf Dauerebensowenig. So kann sich der Autor des Vorworts, Michael Kühlen, ebenfalls nur für den Plural, für »Zukünfte«, aussprechen, weil dadurch die »Gestaltbarkeit des Kommenden in den Mittelpunkt« gestellt und die »Autonomie des Menschen« betont werden (Seite 14). Aber ist solche Rede nicht wieder maßlos optimistisch und damit unrealistisch - solange solche Ziele und Werte nur beschworen, aber nicht in ihrem realen Wettstreit mit den weniger (oder zumindest nicht von vielen) beeinflussbaren Kräften austariert werden? Solche im guten Sinne pragmatische (und auch einigermaßen taxierbare) Szenarios findet man zu wenige in diesen elf Zukunftsskizzen."
  6. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.099428825 = product of:
      0.3977153 = sum of:
        0.3977153 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.3977153 = score(doc=6014,freq=6.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  7. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.10
    0.099428825 = product of:
      0.3977153 = sum of:
        0.3977153 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.3977153 = score(doc=4612,freq=6.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java
  8. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.099428825 = product of:
      0.3977153 = sum of:
        0.3977153 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.3977153 = score(doc=6896,freq=6.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  9. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.09840901 = product of:
      0.39363605 = sum of:
        0.39363605 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.39363605 = score(doc=1743,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  10. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.09840901 = product of:
      0.39363605 = sum of:
        0.39363605 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.39363605 = score(doc=2137,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  11. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.09840901 = product of:
      0.39363605 = sum of:
        0.39363605 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.39363605 = score(doc=2035,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  12. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.09840901 = product of:
      0.39363605 = sum of:
        0.39363605 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.39363605 = score(doc=2050,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  13. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.098251626 = product of:
      0.19650325 = sum of:
        0.16401502 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.16401502 = score(doc=729,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.032488234 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.032488234 = score(doc=729,freq=8.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  14. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.09676763 = product of:
      0.19353525 = sum of:
        0.13121201 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.13121201 = score(doc=2567,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.062323242 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.062323242 = score(doc=2567,freq=46.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  15. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.09607533 = product of:
      0.19215067 = sum of:
        0.16401502 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.16401502 = score(doc=617,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.028135637 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.028135637 = score(doc=617,freq=6.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  16. Dueck, G.: Supramanie : vom Pflichtmenschen zum Score man (2006) 0.10
    0.09554066 = product of:
      0.19108132 = sum of:
        0.04522171 = weight(_text_:und in 1657) [ClassicSimilarity], result of:
          0.04522171 = score(doc=1657,freq=62.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.34108895 = fieldWeight in 1657, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1657)
        0.1458596 = weight(_text_:humane in 1657) [ClassicSimilarity], result of:
          0.1458596 = score(doc=1657,freq=2.0), product of:
            0.5618414 = queryWeight, product of:
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.05977747 = queryNorm
            0.2596099 = fieldWeight in 1657, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1657)
      0.5 = coord(2/4)
    
    Abstract
    Dueck's kultige Bücher sind ja immer mit einer ziemlich brennenden Fackel geschrieben: Licht und Leidenschaft! Diesmal sieht es mehr nach Rasiermesser aus: Supramanie ist eine Reise ins Dunkle des Menschen, das in ihm nach Dueck's Darstellung planmäßig durch die ökonomischen Turbo- und Anreizsysteme erzeugt wird. Übertriebene Leistungssysteme der Bildung und Arbeit träufeln uns unaufhörlich ein: "Du bist nicht gut genug!" Wir laugen aus oder beginnen im Alltag zu schummeln, zu schönen, zu schmücken und anzugeben. So manipulieren wir heimlich an unserer persönlichen Ich-AG-Bilanz. Wir sind wie ein Abbild der Suprasysteme geworden, über deren Bilanzskandale wir uns empören. Eigenartig, wie der Leser leicht-satirisch-sanft bis zur Fassungslosigkeitsgrenze geführt wird. Antikriegsfilme verstören mit so viel Blut, dass wir nie mehr Grausamkeit mögen. Dieses Buch will für das Wahre und Humane erschrecken.
    Content
    Inhalt: Teil 1: Oben und Unten mit System.- Die Pflicht zum Erfolg: Der Supratrieb.- Der gute Systemdurchschnitt und The Organization Man.- Elemente der Wirksamkeit.- Das Ganze erbauen.- Das Suprasystem.- Der Score-Man.- Das Ganze ist weit weniger als die Summe der Teile.- Zeit der Suprasysteme - Zeit der Raubtiere.- Teil 2: Der punktegepflasterte Umweg.- Die Versuchung der Punkte.- Topimierung: Bestmöglichkeit richtiger Menschen.- Utopimierung: Ideentraum der wahren Menschen.- Ontopimierung: Stolzäußerung des natürlichen Menschen.- Im Strudel von Suprasystem und Supramenschen.- Sacrificium, Martyrium, "Deficior!".- Teil 3: Intellektuelle Tränen.- Gesamtkonzept Supra-Mensch.- Supratrieb und die Pyramidenwerte.- Unweg und Tao.
    Footnote
    Rez. 1. Aufl. in: Spektrum der Wissenschaft (C. Pöppe): "Die herkömmliche Auffassung des menschlichen Arbeitslebens "erfährt in diesen Jahren eine Revolution". Die Arbeitswissenschaftler haben erkannt, dass der Mensch die klassische Forderung nach Disziplin und Pflichttreue zwar erfüllen kann, aber nur durch Unterdrückung seines eigenen Willens und seiner Begierden. Einen wesentlichen Teil seiner Energie setzt er also nicht für die Arbeit ein. Kann man diese Energien mobilisieren? "Lässt sich Gier oder Siegeswille in Arbeit verwandeln?" Ja - und zwar im Prinzip ganz einfach. Man stelle dem Menschen sein Gehalt nicht dafür in Aussicht, dass er tut, was ihm gesagt wird, sondern dafür, dass er auf irgendeiner Leistungsskala möglichst viele Punkte erreicht. Das klingt einleuchtend. Nicht Vernunft noch Intuition, sondern weit gehend unbewusste Triebe und Ängste bestimmen vorrangig das Verhalten des Menschen - Gunter Dueck, Mathematiker und Manager bei IBM, hat das in seinem letzten Buch "Omnisophie" (Spektrum der Wissenschaft 11/2003, S. 88) ausgeführt, indem er nicht drei Seelen in der Brust des Menschen, sondern drei sehr verschiedene Computer in seinem Hirn postulierte. Also appelliere man nicht an seine Vernunft oder sein Pflichtbewusstsein, sondern spreche durch gezielte Anreize die mächtigsten Triebfedern in seinem Innersten an: seine Geldgier und seine Angst vor Minderwertigkeit. Für Verkäufer, die von Provisionen leben, ist das nichts Neues; neu ist, dass dieses Prinzip auf viele andere Berufe übertragen wird, auch solche, in denen die Leistung nicht an der Zahl gefertigter Werkstücke oder verkaufter Versicherungsverträge ablesbar ist. Wo ein solcher quantitativer Maßstab fehlt, wird flugs einer definiert. Und damit beginnt das eigentliche Übel. Dueck beschreibt die Folgen aus profunder Insiderkenntnis. Bei allem, was der Mitarbeiter tut, denkt er an seine Punkte und handelt danach. Für Zusammenarbeit und Hilfe unter Kollegen ist da wenig Platz, denn das System der Punktezumessung ist so ausgelegt, dass alle Leistungen einzelnen Mitarbeitern zugerechnet werden ("accountability"). In der Regel misst ein solches Punktesystem nur einen Teil dessen, auf das es wirklich ankommt, und lädt damit zu widersinnigem Verhalten ein: Ein Verleger, dessen Leistung nur an der Anzahl publizierter Bücher gemessen wird, kann mächtig Punkte machen (und seinen Geschäftsführer positiv beeindrucken), indem er jede Menge Bücher auf den Markt bringt, die mangels Qualität besser ungedruckt geblieben wären.
    Selbst wenn der Leistungsmaßstab an sich nicht zu beanstanden ist, kann die ausschließliche Orientierung an Kennzahlen zu absurden Ergebnissen führen. Beispiel "Mitarbeiterzufriedenheit": Die Anzahl der Kündigungen ist ein guter Indikator. Was macht der Chef, der auf der Skala "Mitarbeiterzufriedenheit" hohe Punktzahlen erzielen will? Er gewährt seinen Leuten reich dotierte Aktienoptionen, die man nur nutzen kann, wenn man in fünf Jahren noch bei der Firma ist. Daraufhin sinkt die Kündigungsrate - die Leute haben jetzt ja mehr zu verlieren -, aber die Zufriedenheit ist nicht angestiegen! Alle Jahre aufs Neue schaut sich die oberste Geschäftsleitung der Firma die zahlreichen Kennzahlen an, mit denen der Zustand der Firma gemessen wird, findet eine, die im Argen liegt (Umsatz, Gewinn, Kundenzufriedenheit .), und gibt die Anweisung aus, diese und nur diese Kennzahl zu verbessern. Da schaudert es jeden Optimierer, und den Autor, der sich durch neue Optimierungsverfahren einen Namen gemacht hat, erst recht. Denn gerade wenn die Firma in einem optimalen Zustand ist, wird jedes Drehen an einer der zahlreichen Stellschrauben diesen Zustand zunächst verschlechtern. Wenn im jährlichen Wechsel der Geschäftsziele die berüchtigte Konzentration auf die Kernkompetenzen angesagt ist, wird das schlechteste Drittel der Mitarbeiter entlassen. Durch die allgegenwärtigen Punktzahlen glaubt man genau zu wissen, wer das ist. Natürlich gibt sich jeder die größte Mühe, nicht zum schlechtesten Drittel zu gehören, und findet die abenteuerlichsten Wege, seine Punktzahl hochzutreiben, wenn ihm das durch ehrliche Arbeit nicht gelingt. Die Sammlung drastischer Beispiele zu diesem Thema - allenfalls leicht übertrieben, beteuert der Autor - war für mich der eindrucksvollste Teil des Buchs. Ich hätte nie gedacht, dass einige Geschichten aus den Hochburgen des Kapitalismus ausgerechnet Honeckerwitzen zum Verwechseln ähnlich sind. Dueck geht so weit, die jüngsten Bilanzskandale dem allgegenwärtigen Zwang zum Punktebetrug zuzuschreiben und die anhaltend hohe Arbeitslosigkeit der Tatsache, dass moderne Firmen für das unterdurchschnittliche Drittel ihrer Mitarbeiter keine Verwendung mehr zu haben glauben.
    In seiner Darstellung ist die "Supramanie", die Sucht, immer der Erste zu sein, eine Krankheit der Gesellschaft. Die Leidenden sind sowohl die "Leistungsträger", die für viel Geld den höchsten Einsatz bringen, dafür alles andere im Leben hintanstellen und vom vorzeitigen "burn-out" bedroht sind, als auch die Unterdurchschnittlichen, die mit dem Makel der persönlichen Minderwertigkeit leben müssen. Dinge, die das Leben lebenswert machen: Selbstachtung, Vertrauen, Identifizieren mit der Arbeit, Begeisterung, gehen unter in der ewigen Jagd nach den Punkten. Aber die Gesellschaft empfindet sich, zumindest in diesem Punkt, nicht als krank: Es florieren ja gerade die Firmen, die Supramanie praktizieren. Was ist die Krankheitsursache? Ist es die "Omnimetrie" selbst, der Versuch, den ganzen Menschen durch Kennzahlen zu erfassen, oder nur die ungeschickte Anwendung der Omnimetrie, wie Dueck noch in seinem Buch "Wild Duck" annahm (Spektrum der Wissenschaft 11/2000, S. 101)? Diesmal spricht er nicht mehr davon, dass eine noch intensivere Verwendung von Kennzahlen dem Unfug mit den Kennzahlen ein Ende machen könne. Was ist die Therapie der Krankheit? Ein "Zurück zu den alten Zeiten" ist illusorisch. Natürlich gibt es eine theoretische Lösung: "Wie wäre dies? Wir verzichteten auf zwanzig Prozent unseres Gehaltes und drehten das Übermaß der geforderten Arbeits- und Leistungsdichte wieder zurück? Wir bekämen wieder Anerkennung und Dank statt immer nur Geld? Wir würden hochleben statt höherwertig?" Aber Dueck beherrscht das Geschäft der Optimierung viel zu gut, um nicht zu wissen, dass die Gesellschaft als Ganzes sich nicht in diese Richtung bewegen wird. Am Ende entlässt er den Leser ohne Trost. "Der Weise ist so ganz zerrissen. Kann der Welt denn überhaupt geholfen werden? Er weiß es nicht. Will sie sich helfen lassen? Definitiv nicht. Ist ihr klar, dass sie Hilfe braucht? Nicht wirklich. Dies ist Teil des Problems." So muss er sich diesmal mit dem Versuch begnügen, der Welt - oder wenigstens dem Leser - das klar zu machen. Denn für den in die Zukunft gerichteten dritten Teil seiner Trilogie aus "Omnisophie", "Supramanie" und "Topothesie" ringt der Autor noch mit Worten."
  17. Ovid announces strategic partnerships : Java-based interface (1997) 0.09
    0.0927809 = product of:
      0.3711236 = sum of:
        0.3711236 = weight(_text_:java in 397) [ClassicSimilarity], result of:
          0.3711236 = score(doc=397,freq=4.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.8809384 = fieldWeight in 397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=397)
      0.25 = coord(1/4)
    
    Abstract
    Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
  18. Blittkowsky, R.: ¬Das World Wide Web gleicht einer Fliege : Studien versuchen zu erklären, warum Suchmaschinen nicht immer fündig werden (2001) 0.09
    0.09063142 = product of:
      0.18126284 = sum of:
        0.035403233 = weight(_text_:und in 2090) [ClassicSimilarity], result of:
          0.035403233 = score(doc=2090,freq=38.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.26703218 = fieldWeight in 2090, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2090)
        0.1458596 = weight(_text_:humane in 2090) [ClassicSimilarity], result of:
          0.1458596 = score(doc=2090,freq=2.0), product of:
            0.5618414 = queryWeight, product of:
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.05977747 = queryNorm
            0.2596099 = fieldWeight in 2090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2090)
      0.5 = coord(2/4)
    
    Abstract
    Einer möchte wissen, auf welchen Webseiten sein Name vorkommt. Die andere sucht nach den neusten Sportergebnissen. Ein Dritter recherchiert den Wissensstand über Schrödingers Katze. Internetnutzer befragen jede Minute zu Hunderttausenden Suchmaschinen und Webkataloge. Die wurden, seit das Internet zum Masseninedium herangereift ist, zu Info- (Mono-) Polen für den Zugang zur heterogenen Welt des Web. Dahinter steckt viel Arbeit. Die Suchmaschinen schicken unentwegt Roboter und Agenten los, die Seiten lesen - und Inhalte oder Verweise an mächtige Datenbankservermelden. Täglich entstehen mehrere hunderttausend Webseiten; die Zahl der Adressen, die verarbeitet werden müsste, ist mittlerweile auf mehr als eine Milliarde gewachsen. Nicht nur deshalb wird die automatische Recherche zunehmend schwierig. Eine Untersuchung der Firmen Altavista, Compac und IBM, die die Verbindungen auf 500 Millionen Seiten auswertete, ergab: Im WWW wächst ein Bereich heran, den konventionelle Suchtechnologien nicht erfassen können. Das widerspricht früheren Studien, nach denen zwei beliebige Webadressen höchstens 19 Hyperlinks voneinander entfernt liegen - sich prinzipiell also alles finden lässt. Die Forscher um Altavista-Chefwissenschaftler Andrei Broder vergleichen den Aufbau des World Wide Weh mit der Form einer Fliege. Das Netz gliedert sich demnach in vier Bereiche. Etwa ein Drittel der Seiten fügen den zentralen Kein, um den sich die anderen Gebiete lagern. Den Knoten beschreiben die Fachleute als Giant Strongly Connected Components (SCC): Die Seiten sind untereinander eng verknüpft; es bestehen gute Linkverbindungen zwischen den Angeboten; sie sind leicht zu finden. Ein Viertel der Adressen macht eine Schicht aus, die sich als eine Schleife der Fliege sehen lässt. Es handelt sich vorwiegend um Anfangsseiten, Einstiegspunkte zu Webseiten und inhaltlich sortierende Kataloge.
    Von dort aus sind die zentralen Seiten im Knoten gut erreichbar. Eine zweite Schleife, ein weiteres Viertel aller Webseiten, bilden die Endpunkte - Angebote ohne Links. Sie sind nur über den Knoten erreichbar. Verbleibt etwa ein Fünftel aller Seiten, die gar nicht oder nur indirekt mit dem Knoten verknüpft sind. Letztere werden als Tendrils bezeichnet. Diese Webangebote basieren beispielsweise auf Datenbanken von Unternehmen, Verbänden oder Organisationen. Sie entstehen erst in den wenn sie abgerufen werden - oft in kryptischen Dateiformaten und mit Animationen, Bildern oder Audiodateien angereichert. Surfer können diese Informationen mit Recherchen in den Webseiten der Schleifen aufspüren. Die Agenten der Suchmaschinen dagegen sind darauf trainiert, ständig verfügbare Dokumente im html-Format zu finden. Ihnen entgeht dieser Teil des World Wide Web. Das US-Softwareunternehmen Bright Planet schätzt, das WWW umfasst 2000-mal so viele Seiten, wie alle Suchsysteme zusammen glauben. Auch wenn sie systembedingt nicht alle Seiten kennen: Insgesamt liefern die automatischen Maschinen mehr Ergebnisse als Kataloge wie Yahoo, Dino-Online oder Looksmart. Deren Macher beschäftigen Redaktionsstäbe, die Inhalte recherchieren, sichten und in die Verzeichnisse einordnen. Webkataloge bauen also auf die humane Intelligenz ihrer Rechercheure, die Themen und Seiten verknüpfen sowie Inhalte kommentieren und einordnen. Yahoo, Lieblingskind der New Economy, bringt es indes gerade einmal auf 15 Millionen katalogisierter Webseiten. Gleichwohl kauft Yahoo bei einigen Themen mancher Suchmaschine den Schneid ab: Eine vorstrukturierte, handverlesene Einarbeitung von Inhalten in die Rubriken eines Katalogs kann genauer Auskunft geben.
    Die Spitzenreiter unter den Suchmaschinen sehen sich im Zugzwang, ihren Service zu verbessern. Schließlich sollen die Kunden immer wieder Anfragen starten und damit indirekt die üppigen Werbepreise rechtfertigen. Alltheweb, Google und Altavista erkunden das Netz unterschiedlich. Alltheweb, betrieben vom norwegisch-amerikanischen Unternehmens Fast, setzt bei der Verwaltung der Index-Datenbank auf superschnelle Rechenleistungen und Servertechnologie, damit die richtigen Hyperlinks oben stehen. Etwa 500 Millionen indizierter Webseiten bedeuten für Alltheweb die Pole-Position. Die rein maschinelle Verarbeitung scheint ein gutes Konzept zu sein: Allthewebs Resultatslisten warten mit den besten mehrsprachigen Kommentaren auf. Die Suchmaschine Google, die ihren Namen der Zahl Googol verdankt und eine eins mit hundert Nullen bezeichnet, speichert alle Webseiten lokal auf einer Computerfarm mit 6000 Zentraleinheiten. Sie verwendet ein mathematisches Verfahren, um Webseiten nach inhaltlichen Kriterien zu ordnen. Larry Page und Sergej Brin, die Entwickler des kalifornischen Projekts an der Stanford University, setzen bei der internen Bewertung von Webseiten, dem Page-Ranking, auf die Einschätzungen der Internet-Surfer: Wenn sie einem Verweis auf eine andere Adresse folgen, treffen sie eine intuitive Entscheidung. Sie rufen ein Angebot auf, von dem sie bessere Informationen, eine konkrete Antwort auf ihre Frage erwarten. Page und Brin überlegten, die Summe der Surfentscheidungen kann ihren Inhalt indirekt qualifizieren: Je häufiger eine Webseite ausgewählt wird, desto höher kann ihre Qualität sein - in Bezug auf die inhaltliche Relevanz hinsichtlich eines Themas. Mit einem komplizierten Bewertungsverfahren filtern die Datenbankserver von Google permanent und ohne menschliches Zutun die Entscheidungen unzähliger Surfer Die Ergebnisse von Google gehören nachweisbar zu den besten, die Maschinen weltweit bieten. Altavista ist schon lange im Geschäft. Auch die Manager dieses Unternehmens setzen auf einen hohen technologischen Aufwand. Sie schicken Suchroboter, genannt Scooter, los, die Tag für Tag ungefähr 24 Millionen Dokumente überprüfen und gegebenenfalls der Datenbank hinzufügen. Das entspricht einer Kapazität von 800 DIN-A4-Seiten pro Sekunde. Die Datenbank erfasst alle Worte eines Dokuments. Der Vorteil der Volltext-Indizierung ist offenkundig: Jedes Dokument kann theoretisch auf Grund eines darin enthaltenen Worts sekundenschnell gefunden werden. Altavista kennt 50 Millionen deutschsprachiger Webseiten. Als Spezialität findet sie auch Produktinformationen und Markenbezeichnungen - und sicher auch das Neueste zu Schrödingers Katze
  19. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.08991797 = product of:
      0.17983595 = sum of:
        0.13121201 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.13121201 = score(doc=2121,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.048623938 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.048623938 = score(doc=2121,freq=28.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  20. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.08991797 = product of:
      0.17983595 = sum of:
        0.13121201 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.13121201 = score(doc=346,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.048623938 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.048623938 = score(doc=346,freq=28.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.

Authors

Languages

Types

  • a 9352
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications