Search (13208 results, page 3 of 661)

  1. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.11
    0.10813549 = product of:
      0.43254197 = sum of:
        0.43254197 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.43254197 = score(doc=6217,freq=10.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  2. E-Learning weltweit : Lernen und Lehren (2005) 0.10
    0.10329348 = product of:
      0.20658696 = sum of:
        0.047225717 = weight(_text_:und in 4224) [ClassicSimilarity], result of:
          0.047225717 = score(doc=4224,freq=70.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.36242723 = fieldWeight in 4224, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4224)
        0.15936124 = weight(_text_:hallen in 4224) [ClassicSimilarity], result of:
          0.15936124 = score(doc=4224,freq=2.0), product of:
            0.5822062 = queryWeight, product of:
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.05875109 = queryNorm
            0.2737196 = fieldWeight in 4224, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4224)
      0.5 = coord(2/4)
    
    Abstract
    E-Learning gilt als Wundermittel in der mobilen Informationssgesellschaft: Wissenszuwachs wann, wo und so oft man will - egal ob Uni-Vorlesung via Handy oder Urlaub mit dem virtuellen Reiseführer. Soweit die Theorie. In der Praxis mangelt es jedoch an Didaktik. Beim Lernen im Netz geht es oft ums Geld, weniger um Bildungserfolge
    Content
    "Im vergangenen Jahr veröffentlichten die Economist Intelligence Unit - der Wirtschaftsinformationsdienst von der Economist Group - und IBM eine weltweite Vergleichsstudie unter, dem Titel "The -2003 e-learning readiness rankings": In dieser bewerteten sie, in welchem Umfang die 60 grössten Volkswirtschaften E-Learning-Strategien und -Lösungen verfolgen und einsetzen. Die Studie basiert auf Daten der Economist Intelligence Unit, der UNESCO, der Weltbank sowie anderer öffentlicher und privater Organisationen. Beurteilt wurden die Länder dabei nach vier verschiedenen Kategorien. Ermittelt wurde zum einen der Grad der Konnektivität, also in welcher Weise die einzelnen Länder technologische Voraussetzungen wie Breitbandvernetzung und Nutzungsmöglichkeiten zur mobilen Kommunikation beim 'E-Learning zur Verfügung stellen. Zum anderen evaluierten die Verfasser die Leistungsfähigkeit der verschiedenen Länder und warfen dabei etwa einen Blick auf deren Ausbildungssysteme und Angebote des betrieblichen Lernens. In einer dritten Kategorie erfassten die Autoren ferner die Bereitstellung und den Zugang zu Online-Inhalten etwa in Form öffentlicher Datenbanken und Bibliotheken. Schließlich wurde die kulturelle Einstellung zum Thema E-Learning in der Studie erfasst. Die Autoren gingen dabei folgenden Fragen nach: In welcher Weise unterstützen und fördern nationale Einrichtungen E-Learning? In welchen Ländern besitzen Lernprozesse insgesamt einen hohen Stellenwert für die Allgemeinheit? Und wo finden progressive Ideen besonderen Zuspruch? Ausgewertet wurden die Ergebnisse für die vier Einzelbereiche Ausbildung, Unternehmen, staatliche Einrichtungen und Gesellschaft. Deutschland konnte sich innerhalb der Studie mit seinem 17. Rang insgesamt im oberen Mittelfeld platzieren. In den Bereichen Staat und Gesellschaft landete es an 11. Stelle, im Ausbildungsbereich auf dem 16. und in der betrieblichen Ausbildung auf dem 24. Platz. An der Spitze der Studie finden sich neben Schweden Kanada und die USA. Gerade hier sind die technologischen Voraussetzungen für den Einsatz von E-Learning gegeben. Zudem schnitten alle drei' Länder aufgrund ihres allgemein starken Ausbildungssystems, in dem, sie etwa lebenslanges Lernen unterstützen und sich durch ein hohes Ausbildungsniveau auszeichnen, beim Ranking besonders gut ab. Die Studie -legt den Schluss nahe, dass Europa und hier insbesondere die skandinavischen Länder sich im E-Learning-Bereich positiv entwickeln. Die südeuröpäischen Länder widmen sich dem Thema dagegen nur zögerlich und rangieren im europäischen Vergleich eher auf hinteren Plätzen. Aus dem asiatischen Raum haben sich vor allem Süd-Korea (Rang 5) und Singapur (Rang 6) gut aufgestellt.
    Bundesweite Förderprogramme und Landesinitiativen zur Verbreitung des computergestützten Lernens in der Aus- und Weiterbildung gaben den Ausschlag für eine Untersuchung des Einsatzes von E-Learning an deutschen Hochschulen. Durchgeführt wurde sie vom Institut für Medien- und Kompetenzforschung und dem Multimedia Kontor Hamburg. Gegründet wurde das Kontor von den staatlichen Hochschulen in Hamburg, die sich in einem gemeinsamen E-Learning-Consortium . zusammengeschlossen hallen. Das Kernergebnis der Studie, an der sich vor allem Hochschulen beteiligt haben, die diese neue Lernform tatsächlich einsetzen, lautet: E-LearnIng ist Bestandteil, aber nicht Alltag in der Hochschule. Danach setzt die Mehrheit von 86 der 95 befragten Hochschulen Computer in Lehrveranstal- tungen ein. Vor allem an großen und staatlichen Einrichtungen werden computergestützte Lernformen angeboten. Bei den Lernangeboten handelt es sich an 63 Hochschulen um Präsenzveranstaltungen mit Online-Unterstützung. Blended-Learning-Arrangements, also allgemein netzgestützte Angebote, und reine Online-Studiengänge werden nur an 40 beziehungsweise 22 Lehrstätten angeboten. Durchschnittlich setzen neun von zehn befragten Hochschulen aktuell E-Learning in ihren Lehrveranstaltungen ein. Ziel der Untersuchung war es auch, zu ermitteln, wie E-Learning-Angebote innerhalb verschiedener Studiengänge genutzt werden. Die Verfasser kommen zu dem Schluss, dass die Differenzierung der E-Learning-Angebote nach Fächergruppen deutliche Schwerpunkte erkennen lässt. So sind Disziplinen mit ausgeprägter Computeraffinität wie Informatik und Ingenieurwissenschaften neben Fächern mit hohen Studierendenzahlen wie etwa Wirtschafts- und Sozialwissenschaften klare Vorreiter in der neuen computergestützten Hochschullehre. Im Mittelfeld finden sich dagegen kreativ-gestalterische Studiengänge wie Kunst, Design und Mediengestaltung sowie Sprach- und Kulturwissenschaften, aber auch Natur- und Umweltwissenschaften. Für diese lässt sich vermuten, dass aufgrund ihres hohen Praxisanteils der Computer hier nur bedingt zum Einsatz kommen kann. Dass Rechtswissenschaften und Technikstudiengänge auf den hinteren Plätzen rangieren, kann kaum überraschen. Denn hier wird der Computer nur selten als LehrLern-Medium eingesetzt. Anders sieht es aus in den medizinisch-pharmazeutischen Disziplinen. Denn in der Medizinerausbildung und -praxis kommen Computer häufig zum Einsatz. Die niedrigen Einsatzzahlen müssen daher erstaunen. Neben der Ermittlung des Umfangs und der Verteilung auf unterschiedliche Studiengänge analysierten die Autoren die Akzeptanzwerte von E-Learning-Angeboten. Befragt wurden, Hochschulvertreter. Die waren selbst weniger im Hochschulbetrieb eingebunden, sondern bekleideten Leitungspositionen. Rund die Hälfte von ihnen denkt, dass Lehrende gegenüber dem Einsatz von E-Learning-Angeboten positiv eingestellt sind. Jeder Neunte glaubt hingegen an eine Befürwortung klassischer Präsenzveranstaltungen. Eine höhere Akzeptanz vermuten die Befragten dabei bei den Lehrenden von Fachhochschulen. Auch den Studierenden insgesamt werden höhere Akzeptanzwerte bescheinigt. Die Befragten schätzen dabei aber, dass nur bis zu fünf Prozent aller Studierenden gegenwärtig mit E-Learning arbeiten. Die Befragten geben ferner Auskunft darüber, wie sie die Lernergebnisse unter Einsatz neuer Techniken einschätzen. Nur ein Viertel schätzt dabei die Qualität von Prüfungsergebnissen beim E-Learning im Vergleich zu Präsenzveranstaltungen als besser ein. Jeder Zweite kann keinen Qualitätsunterschied ausmachen. Allerdings geht die Hälfte der befragten Hochschulmitarbeiter davon aus, dass die Nutzer den neuen Technologie bis 2007 bessere Eregbnisse in Tests erzielen werden. Entsprechend prognostizieren die Befragten einen Anstieg der studentischen E-Learning-Nutzer innerhalb der nächsten Jahre: Drei von vier Hochschulvertretern kommen zu dem Schluss, dass künftig mehr Studierende mit Hilfe des Computers lernen werden."
  3. Körkel, T.: Internet für Hörer aller Fakultäten (2002) 0.10
    0.101541884 = product of:
      0.20308377 = sum of:
        0.04372252 = weight(_text_:und in 2219) [ClassicSimilarity], result of:
          0.04372252 = score(doc=2219,freq=60.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.33554244 = fieldWeight in 2219, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2219)
        0.15936124 = weight(_text_:hallen in 2219) [ClassicSimilarity], result of:
          0.15936124 = score(doc=2219,freq=2.0), product of:
            0.5822062 = queryWeight, product of:
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.05875109 = queryNorm
            0.2737196 = fieldWeight in 2219, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2219)
      0.5 = coord(2/4)
    
    Abstract
    "Mit achtzigprozentiger Wahrscheinlichkeit wurde O. J. Simpsons Frau von ihrem Mann ermordet, und der Beschuss der chinesischen Botschaft im Kosovo-Krieg beruhte höchstwahrscheinlich, nämlich zu 85 Prozent, auf Vorsatz. Reine Vermutungen, geschätzt nach Pi mal Daumen? Nein, solche Wahrscheinlichkeiten lassen sich rechnerisch herleiten. Da nützt es nichts, dass Simpsons Anwalt vor Gericht zutreffend anführt, dass nur einer von tausend Männern, die ihre Frau regelmäßig schlagen, sie auch ermordet. Entscheidend ist die Frage, bei wie vielen ermordeten Frauen, die regelmäßig von ihrem Mann geschlagen wurden, der Mann auch der Täter war. Und im Falle der chinesischen Botschaft bleibt nur wenig Raum für vage Mutmaßungen, wenn man alle Faktoren veranschlagt - wie die Zahl aller Häuser in Belgrad, die Zahl der für einen Beschuss in Frage kommenden Ziele, die Zahl der Geschosse sowie die Vorab-Einschätzung des Vermutenden über die Bereitschaft der Amerikaner, die Botschaft zu beschießen. Mit zahlreichen Fallbeispielen beschreiben die Autoren, beide Physiker und Professoren am Fachbereich Medizin der Universität Hamburg, verblüffende Folgerungen aus der Wahrscheinlichkeitslogik. Die vertraute Wenn-dann-Logik ist auf viele Sachverhalte nicht anwendbar. Erst dadurch, dass ein "wahrscheinlich" in die Rechnung einbezogen wird, kann man alle Faktoren ins Kalkül ziehen - und bekommt daraufhin völlig andere Ergebnisse. Welche Irrtümer und Fehlschlüsse entstehen können, wenn nur einige dieser Zutaten außer Acht bleiben, zeigen die Autoren für die verschiedensten Lebensbereiche. Stück für Stück widerlegen sie unsere für sicher geglaubten Meinungen. In witzigen und spannenden Geschichten führen sie uns von Wettervorhersagen und Bilanzmanipulationen über Börsenbewegungen bis hin zu ihrem Hauptanliegen: der "Lebenslüge der medizinischen Forschung". Es geht um Fehlschlüsse, die durch falsche Interpretationen medizinischer Tests und Studien entstehen. Üblicherweise werden in Doppelblindversuchen Therapien an Patienten getestet und die jeweils positive oder negative Wirkung erfasst. Bei der statistischen Auswertung einer solchen Studie gestehen sich die Forscher sogar eine geringe Irrtumswahrscheinlichkeit zu. Eine Grundfrage aber fehlt: Wurde überhaupt eine bessere Therapie-Idee untersucht?
    Das Buch verdeutlicht das mit einem Angelbeispiel: In einem Teich gibt es zwei Arten Fische, die begehrten Leckerellen und die ungenießbaren Ekelitzen. Um die Wirksamkeit eines Angelköders für Leckerellen zu testen, hängt man ihn ins Wasser und zählt, wie viele Fische jeder Art anbeißen. Weiß man dann, ob und wie sehr die Leckerellen den Köder mögen? Beileibe nicht. Es kommt darauf an, wie viele Fische der einen und der anderen Art überhaupt im Teich sind. Möglicherweise schwimmt dort gerade keine einzige Leckerelle, also beißt auch keine an; man angelte dann nur Ekelitzen, die den - vielleicht für Leckerellen hervorragenden - Köder nur in der Not fressen. Welchen Wert hat also die reine Zählmethode, um eine Aussage über die Qualität des Köders zu bekommen? Auf medizinische Studien übertragen: Wie aussagefähig ist ein Studienergebnis, wenn Therapie-Köder ausgelegt werden, ohne zu wissen, wie viele IdeenFische überhaupt im Forschungsmilieu schwimmen? Eine weitere Schwierigkeit kommt hinzu: Die Wahrscheinlichkeit von guten Ideen für neue Therapien ist nicht bekannt. Man könnte sie höchstens subjektiv schätzen (Vorschlag der Autoren: zwei Prozent). Weil sie also fast nicht quantifizierbar ist, darf sie, so argumentieren die Statistiker, bei der Bewertung wissenschaftlicher Ergebnisse auch nicht veranschlagt werden. Denn Subjektivität soll in der Forschung möglichst ausgeschlossen bleiben. Folglich wird der Faktor IdeenWahrscheinlichkeit ganz aus der Fragestellung und der statistischen Auswertung ausgeklammert. Das Problem existiert also offiziell gar nicht, obwohl es den Fachleuten bekannt ist. Das Buch bietet vergnüglichen Lesestoff als Verpackung für wissenschaftskritischen Zündstoff: Die Autoren weisen nach, dass randomisierte Studien überflüssig oder sogar schädlich sind. Sie zeigen, dass viele der "wissenschaftlich nachgewiesen besseren Therapien" nicht besser und vielfach sogar schlechter sind als das, was sie verbessern sollen. Alles, was man wissen muss: Ein texanischer Universitätsrechner gewährt Zutritt zu den heiligen Hallen der Online-Bildung. Der Online-Boom der 1990er Jahre beförderte auch akademische Bildungsinhalte ins Netz. Das große Projekt einer virtuellen Universität hat sich zwar bislang in finanziellen, technischen und konzeptionellen Unzulänglichkeiten verfangen. Aber die (reale) Universität von Texas in Austin bietet seit 1994 einen Wegweiser zu Online-Vorlesungen aus aller Welt, den sie ständig aktualisiert: den "Welthörsaal" (http:// wnt.cc.utexas.edu/~wlh). In über neunzig natur- und geisteswissenschaftlichen Fächern, von Astronomie über Anthropologie, Geschichte und Religion bis hin zur Zoologie, können Internet-Surfer weit reichende Studien treiben. Ausdauer ist gefragt: So mancher Mausklick fördert nicht viel mehr als Vorlesungspläne zu Tage oder fordert kostenpflichtige Registrierungen. Häufig dienen die Seiten auch nur als Ergänzung zu einer Präsenzvorlesung. Wer trotzdem dranbleibt, den belohnt die Suchmaschine der World Lecture Hall mit faszinierenden Links auf umfassende Text- und Bildersammlungen, abgerundet mit Filmen, Sprachsequenzen und interaktiven Anwendungen. Eine Online-Einführung in die Chemie bietet zum Beispiel www.scidiv.bcc.ctc.edu/ wv/101-online.html. Fachlich anspruchsvoll und dennoch verständlich ist auch http://simons.hec.utah.edu/ TheoryPage/index.html: Jack Simons, theoretischer Chemiker aus Utah, leitet die rasant wachsende Bedeutung seines Fachgebiets aus dessen Funktion als Schnittstelle zwischen Chemie, Mathematik, Physik und Computerwissenschaften ab. Bunt und bewegt geht es in der "Chemist's Art Gallery" (www.csc.fi/them/gallery.phtml) zu, die auch die Links zur Molekül-"Kunst" auf dieser Seite lieferte. Ein reiches Sortiment interaktiver Animationen etwa zur Molekulardynamik stellt einige Ansprüche an die heimische Hardware.
    Ähnlich spektakulär und informativ präsentieren sich auch die Astronomen: Ihr schier unerschöpflicher Fundus von Bildern und Filmen macht das "elektronische Universum" auf http://zebu.uoregon.edu ebenso einen Klick wert wie die Geschichte von "Geburt und Tod der Sterne" auf demselben Server (http://zebu.uoregon.edu/~js/astl22). Schnell gerät der Wissensdurstige auf reizvolle Seitenpfade, denn viele Vorlesungen glänzen mit sorgfältig zusammengestellten Linklisten. Die führen zum Beispiel zu den "Chemischen Briefen" Justus von Liebigs, wie sie im 19. Jahrhundert zunächst als Wissenschaftskolumne in der Augsburger Allgemeinen Zeitung erschienen (www.liebig-museum.de/chbriefe/homepage.htm). Selbst die Alchemie - neunzig ansprechend präsentierte Megabyte auf www.alchemywebsite. com - verleitet zum Verweilen. Historisches ist, weil nicht stets aktualisierungsbedürftig, ohnehin beliebt im Netz. So wartet etwa die Universität Groningen (Niederlande) mit einem voluminösen Hypertext auf, praktisch ein komplettes Lehrbuch der amerikanischen Geschichte mit Texten, Essays und Präsidentenbiografien (http://odur.let.rug.nl/usanew). Noch weiter zurück in die Vergangenheit reicht eine Anthropologen-Website über den Ursprung des Menschen (www.geocities.com/Athens/Acropolis/5579/TA.html). Verspieltere Naturen werden dort zuerst fossile Schädel zuzuordnen versuchen ("Name That Skull") oder einem Anthropologiestudenten beim Wurf des Atlatl zusehen. Dieser frühe Wurfspeer machte schon den Mammuts zu schaffen und drang noch vor wenigen hundert Jahren durch die eiserne Rüstung spanischer Konquistadoren. Selbst Angewandtes bietet die World Lecture Hall. Etwa die "Geschichte der ökonomischen Denkweise" einschließlich eines 22-Minuten-"Interviews" mit Karl Marx auf www.boisestate.edu/econ/lreynol/web/het.htm. Oder Online-Sprachkurse: Wollof und Xhosa, Suaheli und Sanskrit lehrt http://www.word2word.vorn/courscad.html. Surfen allein fördert die akademische Karriere allerdings nicht unbedingt. Wer of fizielle Online-Zertifikate in Deutschland anstrebt, findet in dem Beitrag "Virtuelle Universität im Selbstversuch" (Spektrum der Wissenschaft 11/ 2001, S. 109) gute Startpunkte für das Studieren im Netz, angefangen bei - na wo wohl? - www.studieren-irre-netz.de."
  4. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.09772164 = product of:
      0.39088655 = sum of:
        0.39088655 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.39088655 = score(doc=6014,freq=6.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  5. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.10
    0.09772164 = product of:
      0.39088655 = sum of:
        0.39088655 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.39088655 = score(doc=4612,freq=6.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java
  6. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.09772164 = product of:
      0.39088655 = sum of:
        0.39088655 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.39088655 = score(doc=6896,freq=6.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  7. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.09671933 = product of:
      0.38687733 = sum of:
        0.38687733 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.38687733 = score(doc=1743,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  8. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.09671933 = product of:
      0.38687733 = sum of:
        0.38687733 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.38687733 = score(doc=2137,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  9. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.09671933 = product of:
      0.38687733 = sum of:
        0.38687733 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.38687733 = score(doc=2035,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  10. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.09671933 = product of:
      0.38687733 = sum of:
        0.38687733 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.38687733 = score(doc=2050,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  11. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.09656465 = product of:
      0.1931293 = sum of:
        0.16119888 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.16119888 = score(doc=729,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.031930413 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.031930413 = score(doc=729,freq=8.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  12. Misslbeck, A.: ¬Der Sesam öffnet sich :-) (2003) 0.10
    0.09513886 = product of:
      0.19027773 = sum of:
        0.03091649 = weight(_text_:und in 4768) [ClassicSimilarity], result of:
          0.03091649 = score(doc=4768,freq=30.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.23726434 = fieldWeight in 4768, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4768)
        0.15936124 = weight(_text_:hallen in 4768) [ClassicSimilarity], result of:
          0.15936124 = score(doc=4768,freq=2.0), product of:
            0.5822062 = queryWeight, product of:
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.05875109 = queryNorm
            0.2737196 = fieldWeight in 4768, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4768)
      0.5 = coord(2/4)
    
    Abstract
    Seit einiger Zeit geistert ein neuer Anglizismus durch die Hallen der Wissenschaft: "Open Access". Das Zauberwort steht für die weltweite kostenlose Verbreitung wissenschaftlicher Texte im Internet
    Content
    "Menschenleer sind die asbestsanierten Gänge der Silberlaube an der Freien Universität Berlin in den Semesterferiem. Doch irgendwo im rechtwinkligen Wirrwarr zwischen Gang K und L steht eine Tür offen. Sie führt zum Büro von Katja Mruck am Fachbereich Erziehungswissenschaft und Psychologie. Die zarte Frau mit langem und dichtem Haar tritt ihren Gesprächspartnern selten persönlich gegenüber. Mit Forschungspartnern verkehrt sie meist auf elektronischem Weg - das aber umso reger. Katja Mruck ist geschäftsführende Herausgeberin der Online-Zeitschrift Forum Qualitative Sozialforschung / Forum: Qualitative Social Research / Foro: Investigación Social Cualitativa, kurz FQS. Der Name verweist schon auf die internationale Ausrichtung. "Überall auf der Welt arbeiten Leute an der gleichen Sache", sagt Mruck, "das ist ein Traum, wie Wissenschaft funktionieren kann." Im dreisprachigen OnlineJournal erscheinen regelmäßig wissenschaftliche Texte aus dem Bereich der qualitativen Forschung einer Methode, bei der die Forscher ihre Erkenntnisse unter anderem aus langen, tief gehende Interviews gewinnen statt standardisierte Fragebögen zu verwenden. Jeder kann sie lesen, wenn er des Englischen, Deutschen oder Spanischen mächtig ist und einen Internetzugang besitzt. Psychologen, Soziologen und Kulturforscher arbeiten oft qualitativ: doch meist befinden sie sich damit am Rand. ihrer Disziplinen. Das war einer der Anstöß für Katja Mruck, eine gemeinsame Plattform einzurichten, um die Forschung voranzutreiben. Wichtiger war ihr aber. der internationale Ansatz, denn in anderen Ländern hat die qualitative Forschung teilweise einen höheren Stellenwert. Wenn ihr wollt, dass die Leute euch weltweit wahrnehmen, dann müsst ihr bei uns schreiben", sagt Mruck mitunter zu ihren Autoren. Durch das Feedback aus aller Welt weiß sie, dass FQS überall gelesen wird. "Weil es uns gibt, kann diese deutschsprachige Literatur nach draußen, und das Wissen von draußen kommt nach Deutschland", sagt Mruck. Nichts geht mehr ohne Qualitätssicherung. Damit das möglichwurde, kommt in FQS das Peer-Review-Verfahren zum Einsatz, bei dem zwei unabhängige externe Gutachter den Text vor der Veröffentlichung beurteilen, ohne den; Autor zu kennen. Um-gekehrt kennt auch der Autor die Gutachter. nicht: Damit wird sichergestellt, dass die Beurteilung ohne Ansehen der Person geschieht. Nur begrenzt betreibt die deutsche Sozialforschung diese aufwändige Qualitätssicherung bei Veröffentlichungen von qualitativen Forschungsergebnissen. Mruck sagt: "Ich glaube, unsere Standards sind höher als die von manchen sozialwissenschaftlichen Printzeitschriften im deutschen Raum." Zusätzlich arbeiten deutsche, englisch- und spanischsprachige Wissenschaftler finit den Autoren an den eingereichten Texten, bevor sie im Internet erscheinen. Dann stehen sie weltweit-nicht nur anderen Wissenschaftlern, sondern auch dem breiten Publikum zur Verfügung. Jeder kann seinen Kommentar dazu abgeben. Auch die Deutsche Forschungsgemeinschaft (DFG), die FQS fördert, hält die Qualitätssicherung für extrem wichtig. Der Leiter der Gruppe Wissenschaftliche Literaturversorgungs- und Informationssysteme der DFG, Jürgen Bunzel, ist der Meinung, "dass das Peer-Review-Verfahren letztendlich die Erfolgsbedingung der Open-Access-Bewegung" ist.
    Im naturwissenschaftlichen Bereich sind Peer Reviews längst Gang und. Gäbe. Extrem teure Wissenschaftsmagazine begründen unter anderem damit oft ihre hohen Preise. Mit Open Access im Internet geht es plötzlich auch kostenlos. Das empfinden viele Wissenschaftsverlage als Affront. Einer der: geistigen Väter der Bewegung, Nobelpreisträger Harold Varmus, sagte in einem Zeit-Interview: "Es gibt Zeitschriften, die verlangen für ein institutionelles Abonnement bis zu 15.000 Dollar pro Jahr - das ist irrational, denn es behindert den Aus;tausch von Information zwischen den Forschern:" Varmus ist einer der Gründer der US-amerikanischen Public Library of Science (PLoS), die am 9. Oktober mit einem kostenlosen Biologiejournal an die Internet-Öffentlichkeit getreten ist. Die Nonprofit-Organisation verlangt das nötige Geld nicht von den Lesern, sondern von den Autoren oder den wissenschaftlichen Instituten, die durch die Veröffentlichung ihr Renommee erhöhen. Ohne Peer Review könnte PLoS Biology nicht in Konkurrenz zu den teuren Zeitschriften treten. Die wissenschaftliche Gemeinde würde die Online-Veröffentlichung nicht anerkennen. Für den freien Zugang zu den Erstveröffentlichungen nennt Varmus einleuchtende Gründe: "Der größte Teil der Wissenschaft wird durch Steuern finanziert. Deshalb sind wir der festen Überzeugung, dass die Publikationen allen zugänglich sein sollten." Zwar sind geisteswissenschaftlichen Zeitschriften noch vergleichsweise preisgünstig. Dennoch führt Klaus Graf von der Universität Freiburg auch für diesen Bereich an einem Beispiel vor Augen, dass die öffentliche Hand gleich viermal in ihre eigenen Taschen greifen muss, bis die Ergebnisse einer eingeschränkten Öffentlichkeit zur Verfügung stehen: Die Gehälter der Wissenschaftler, Reisekosten und einiges mehr zahlt der Staat. Auch die redaktionelle Überarbeitung finanziert die öffentliche Hand: Der Verlag will kostendeckend arbeiten und holt sich Druckkostenzuschüsse von öffentlichen Geldgebern dazu. Schließlich sind auch die Bibliotheken, die die Publikation anschaffen, vom Steuerzahler finanziert. Graf fasst zusammen: "Der Staat kauft seine eigenen Forschungsergebnisse zurück."
    Damit wissenschaftliche Veröffentlichungen finanziell künftig besser auf eigenen Beinen stehen können; fördert die DFG seit einigen Jahren auch Open-Ac-, cess-Projekte. "Wir stehen der Open-Access-Bewegung mit großer Sympathie gegenüber, sagt Bunzel von der DFG, "aber wir akzeptieren auch den Wunsch nach Veröffentlichung in namhaften Zeitschriften." Ein "Paradeprojekt" der Open-Access-Bewegung in Deutschland seien die German Academic Publishers (GAP), eine Publikationsplattform, die es Hochschulen ermöglichen soll, im Netz zu publizieren. Viele Universitätsbibliotheken, allen voran die Universitäten Hamburg und Karlsruhe; haben sich GAP ange-schlossen. Sie arbeiten mit dem FQS von Katja Mruck zusammen. GAP entwickeln technische Komponenten für den elektronischen Publikationsprozess. Dazu steht FQS gewissermaßen als Übungsterrain zur Verfügung. FQS arbeitet nicht nur, selbst international und vernetzt, sondern engagiert sich: auch in der breit angelegten Budapest Open Access Initiative (BOAI). Sie wird nicht nur von- wissenschaftlichen Projekten unterstützt, sondern zum Beispiel auch von. der Berliner Rosa-Luxemburg-Stiftung. Die Mitglieder unterzeichneten am 17. Januar 2002 die Budapest Open Access Declaration. Sie enthält im Schlusssatz die Vision der Bewegung: "Unsere gemeinsame Anstrengung wird auch zu einer Entwicklung beitragen, in deren Verlauf Wissenschaft und Bildung sich in der Zukunft überall auf der Welt freier und offener entfalten können, als dies bisher der Fall war."
  13. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.095106125 = product of:
      0.19021225 = sum of:
        0.1289591 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.1289591 = score(doc=2567,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.061253153 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.061253153 = score(doc=2567,freq=46.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  14. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.09
    0.094425716 = product of:
      0.18885143 = sum of:
        0.16119888 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.16119888 = score(doc=617,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.027652549 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.027652549 = score(doc=617,freq=6.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  15. Ovid announces strategic partnerships : Java-based interface (1997) 0.09
    0.09118786 = product of:
      0.36475143 = sum of:
        0.36475143 = weight(_text_:java in 397) [ClassicSimilarity], result of:
          0.36475143 = score(doc=397,freq=4.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.8809384 = fieldWeight in 397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=397)
      0.25 = coord(1/4)
    
    Abstract
    Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
  16. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.088374086 = product of:
      0.17674817 = sum of:
        0.1289591 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.1289591 = score(doc=2121,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.047789063 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.047789063 = score(doc=2121,freq=28.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  17. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.088374086 = product of:
      0.17674817 = sum of:
        0.1289591 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.1289591 = score(doc=346,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.047789063 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.047789063 = score(doc=346,freq=28.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  18. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.08660159 = product of:
      0.17320319 = sum of:
        0.1289591 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.1289591 = score(doc=6889,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.044244077 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.044244077 = score(doc=6889,freq=24.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  19. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.08660159 = product of:
      0.17320319 = sum of:
        0.1289591 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.1289591 = score(doc=1642,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.044244077 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.044244077 = score(doc=1642,freq=24.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  20. Tsai, B.-s.: Infomapping in information retrieval (1997) 0.08
    0.0837614 = product of:
      0.3350456 = sum of:
        0.3350456 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
          0.3350456 = score(doc=3877,freq=6.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.8091937 = fieldWeight in 3877, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3877)
      0.25 = coord(1/4)
    
    Abstract
    Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested

Authors

Languages

Types

  • a 9351
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications