Search (13261 results, page 4 of 664)

  1. Kemp, A. de: DOI (Digital Object Identifier) ermöglicht Online-Veröffentlichungen vor Drucklegung (1998) 0.11
    0.111602895 = product of:
      0.22320579 = sum of:
        0.03472892 = weight(_text_:und in 2509) [ClassicSimilarity], result of:
          0.03472892 = score(doc=2509,freq=8.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.24504554 = fieldWeight in 2509, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2509)
        0.18847688 = weight(_text_:hyperlinks in 2509) [ClassicSimilarity], result of:
          0.18847688 = score(doc=2509,freq=2.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.40365952 = fieldWeight in 2509, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2509)
      0.5 = coord(2/4)
    
    Abstract
    Schon seit über 12 Jahren setzt sich die wissenschaftliche Verlagsgruppe Springer mit den sich ständig weiterentwickelnden und effektiveren Wegen und Möglichkeiten der elektronische Informationsverarbeitung auseinander - zunächst primär mit Offline-Produkten, dann auch immer stärker im Online-bereich. 1995 erschien die erste von zwischenzeitlich 10 rein elektronischen Zeitschriften. Seit Anfang 1997 gibt es LINK - den Springer Online Informationsservice, in dem derzeit bereits mehr als 290 der mehr als 400 Springer-Zeitschriften als Volltext online verfügbar sind. LINK bietet gezielte Recherchen in den aufgelegten Informationen: Blättern in den Inhaltsverzeichnissen, differenzierte Suchfunktionalitäten, FAQ-Seiten, Testabos und vieles andere mehr runden das LINK-Servicepaket ab. Neu in LINK ist 'Online First' zur Publikation freigegebene Artikel werden lange noch vor ihrem Erscheinen in der gedruckten Zeitschrift online publiziert. Der LINK-Vorabservice LINK alert bietet allen LINK-Nutzern kostenlos die Möglichkeit, sich per Mailingliste die bibliographischen Angaben und Hyperlinks zu den Abstracts der Artikel zuschicken zu lassen, wenn von einer Zeitschrift z.B. ein neues Heft erschienen ist. Schließlich eröffnen sich mit dem LINK Alliance-Konzept auch verlagsfremden Informationsanbietern vielfältige Publikationsmöglichkeiten von Zeitschriften, elektronischen Büchern etc. in LINK als Online-Publikationsplattform in einem wissenschaftlichen Umfeld
  2. Lehmann, K.; Machill, M.; Sander-Beuermann, W.: Blackbox Suchmaschine : Politik für Neue Medien. Interview mit Marcel Machill und Wolfgang Sander-Beuermann (2005) 0.11
    0.1092765 = product of:
      0.218553 = sum of:
        0.030076126 = weight(_text_:und in 4490) [ClassicSimilarity], result of:
          0.030076126 = score(doc=4490,freq=6.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.21221566 = fieldWeight in 4490, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4490)
        0.18847688 = weight(_text_:hyperlinks in 4490) [ClassicSimilarity], result of:
          0.18847688 = score(doc=4490,freq=2.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.40365952 = fieldWeight in 4490, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4490)
      0.5 = coord(2/4)
    
    Abstract
    Google & Co. sind die zentralen Marktplätze im Internet; ohne sie würden sich nur wenige Menschen im Web zurechtfinden. Über 90 Prozent aller Internet-Nutzer greifen deshalb auf Suchmaschinen zurück - nicht immer als kundige Verbraucher, denn sowohl das WWW als auch die Suchmaschinen haben ihre Untiefen. Es beginnt beim Netz der Hyperlinks: Die Zahl der weltweit vorhandenen Webseiten ist technisch nicht zu bestimmen. Die Universität Bielefeld schätzt die Größe des frei zugänglichen WWW Anfang 2005 auf 10-15 Milliarden Seiten; Informationen in Datenbanken, auf geschlossenen und dynamischen Webseiten sowie die mit Webseiten verknüpften Dokumente hier nicht mit eingerechnet. Bei dieser Zahl wird klar, wie wichtig Suchmaschinen sind, um Informationen zu finden. Doch erfassen diese bei weitem nicht alles: Zwar verzeichnete Google im Januar 2005 laut eigener Aussage rund 8 Milliarden Webseiten, doch dürfte ein erheblicher Teil des WWW fehlen. Für Deutschland errechnete Andreas Pothe in einer Untersuchung für das Regionale Rechenzentrum für Niedersachsen, dass von den geschätzten 320 Millionen deutschen Webseiten nur 60 Prozent beim Marktführer Google zu finden seien. Schlusslicht Fireball kennt gerade einmal jede zweite deutsche Domain - und entsprechend weniger Webseiten.
  3. Mainberger, C.: Aktuelles aus der Digital Library (2003) 0.11
    0.10722034 = product of:
      0.21444067 = sum of:
        0.06365916 = weight(_text_:und in 2547) [ClassicSimilarity], result of:
          0.06365916 = score(doc=2547,freq=42.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.4491759 = fieldWeight in 2547, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2547)
        0.15078151 = weight(_text_:hyperlinks in 2547) [ClassicSimilarity], result of:
          0.15078151 = score(doc=2547,freq=2.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.32292762 = fieldWeight in 2547, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.03125 = fieldNorm(doc=2547)
      0.5 = coord(2/4)
    
    Abstract
    Digitales Bibliotheksgut bildet neben dem Verbundsystem und Lokalsystemen schon seit einigen Jahren einen der Schwerpunkte des Bibliotheksservice-Zentrum Baden-Württemberg (BSZ). Dazu wurden in einer Reihe von Projekten unterschiedliche Gesichtspunkte dieser vergleichsweise neuen Medien berücksichtigt. Viele dieser Projekte sind mittlerweile abgeschlossen, einige in einen regelrechten Routinebetrieb übergegangen. Video- und Audiofiles, aber auch Image- und Textdateien stellen zunächst durch ihre technische Form spezielle Anforderungen an ihre Erzeugung, Aufbewahrung und Nutzung. Daran schließt sich die Entwicklung geeigneter Verfahren und Hilfsmittel zur Verzeichnung und Erschließung an. Spezielle Suchmaschinen und Austauschprotokolle ermöglichen ein adäquates Retrieval elektronischer Ressourcen und ihre Distribution. Ein eigenes Feld stellt der Einsatz von multimedialen Lehr- und Lernmaterialien im Hochschulunterricht dar. Die technischen Eigenschaften und Möglichkeiten führen darüber hinaus zu anderen inhaltlichen Strukturen als bei "konventioneller" Literatur und schließlich zu einer andersartigen rechtlichen Verortung dieser Bestände. Zu allen diesen Themen war das BSZ tätig, meist in Kooperationen mit Partnern wie z.B. den OPUS-Anwendern oder der DLmeta-Initative. Im Mittelpunkt dieses Engagements steht der Virtuelle Medienserver, der die Metadaten der dezentral vorgehaltenen Objekte enthält, diese über Hyperlinks erreichen kann und der mit der Verbunddatenbank synchronisiert ist. Die "digitale" Bibliotheksarbeit orientiert sich dabei an den Methoden und Prinzipien der "analogen" Bibliotheksarbeit, passt diese teils den neuen, digitalen Möglichkeiten an, insbesondere der Online-Zugänglichkeit, vermeidet aber Brüche in den Nachweisinstrumenten. Im Folgenden soll dies an vier zentralen Aspekten deutlich gemacht werden, die Teil jeder Bibliotheksarbeit sind und entsprechend in aktuellen Projekten der Digital Library im BSZ ihren Niederschlag finden: Recherche- und Zugangsmöglichkeiten oder "Portale", Inhalte und Medien oder "Content", Regelwerke und Formate oder "Metadaten", Sprachverwendung oder "Normvokabular und Klassifikationen". Illustriert werden diese Themen anhand aktueller Projekte, zunächst die Sprachverwendung anhand des BAM-Portals: Das BAM-Portal wird in einem DFG-Projekt in Kooperation des BSZ mit der Landesarchivdirektion Baden-Württemberg und dem Landesmuseum für Technik und Arbeit entwickelt. Es zielt darauf ab, in Bibliotheken, Archiven und Museen vorhandene digitale Bestände unter einer einheitlichen Oberfläche übers World Wide Web zugänglich zu machen. Eine Recherche im BAMPortal führt auf eine fachübergreifende Trefferliste, in der jeder Treffer über Internetlinks mit einer ausführlichen, herkunftsgerechten Beschreibung verknüpft ist. Von dort ist gegebenenfalls ein zugehöriges Digitalisat bzw. eine multimediale Veranschaulichung erreichbar. Da übliche Suchaspekte, wie der Autor für Literatur oder die Provenienz für das Archivalien im gemeinsamen Kontext nicht fachübergreifende Resultate ergeben, treten hier themenbezogene Recherchen in den Vordergrund. Daher widmen wir im BAM-Portal der thematischen Erschließung der verschiedenen Datenbestände die größte Aufmerksamkeit.
  4. Sieverts, E.: Liever browsen dan zoeken (1998) 0.11
    0.10661863 = product of:
      0.4264745 = sum of:
        0.4264745 = weight(_text_:hyperlinks in 5722) [ClassicSimilarity], result of:
          0.4264745 = score(doc=5722,freq=4.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.9133773 = fieldWeight in 5722, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.0625 = fieldNorm(doc=5722)
      0.25 = coord(1/4)
    
    Abstract
    Despite development of the WWW searchers still experience difficulties following links between sites and cannot be sure that a site contains the required information. 3 software programs developed to guide users through the maze of hyperlinks are: Dynamic diagrams, the Hyperbolic tree, and the Brain. in contrast to the other programs which operate on webservers and display hyperlinks in diagrammatic form the Brain is installed on individual PCs and can be customised to meet users' requirements
  5. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.11
    0.10628635 = product of:
      0.4251454 = sum of:
        0.4251454 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.4251454 = score(doc=6014,freq=6.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA
  6. Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998) 0.11
    0.10628635 = product of:
      0.4251454 = sum of:
        0.4251454 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
          0.4251454 = score(doc=4612,freq=6.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.94405925 = fieldWeight in 4612, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4612)
      0.25 = coord(1/4)
    
    Abstract
    Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
    Object
    Java
  7. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.11
    0.10628635 = product of:
      0.4251454 = sum of:
        0.4251454 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.4251454 = score(doc=6896,freq=6.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  8. Picard, J.; Savoy, J.: Enhancing retrieval with hyperlinks : a general model based on propositional argumentation systems (2003) 0.11
    0.10536178 = product of:
      0.42144713 = sum of:
        0.42144713 = weight(_text_:hyperlinks in 2427) [ClassicSimilarity], result of:
          0.42144713 = score(doc=2427,freq=10.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.9026102 = fieldWeight in 2427, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2427)
      0.25 = coord(1/4)
    
    Abstract
    Fast, effective, and adaptable techniques are needed to automatically organize and retrieve information an the ever-increasing World Wide Web. In that respect, different strategies have been suggested to take hypertext links into account. For example, hyperlinks have been used to (1) enhance document representation, (2) improve document ranking by propagating document score, (3) provide an indicator of popularity, and (4) find hubs and authorities for a given topic. Although the TREC experiments have not demonstrated the usefulness of hyperlinks for retrieval, the hypertext structure is nevertheless an essential aspect of the Web, and as such, should not be ignored. The development of abstract models of the IR task was a key factor to the improvement of search engines. However, at this time conceptual tools for modeling the hypertext retrieval task are lacking, making it difficult to compare, improve, and reason an the existing techniques. This article proposes a general model for using hyperlinks based an Probabilistic Argumentation Systems, in which each of the above-mentioned techniques can be stated. This model will allow to discover some inconsistencies in the mentioned techniques, and to take a higher level and systematic approach for using hyperlinks for retrieval.
  9. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.11
    0.1051962 = product of:
      0.4207848 = sum of:
        0.4207848 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.4207848 = score(doc=1743,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  10. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.11
    0.1051962 = product of:
      0.4207848 = sum of:
        0.4207848 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.4207848 = score(doc=2137,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  11. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.11
    0.1051962 = product of:
      0.4207848 = sum of:
        0.4207848 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.4207848 = score(doc=2035,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  12. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.11
    0.1051962 = product of:
      0.4207848 = sum of:
        0.4207848 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.4207848 = score(doc=2050,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  13. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.11
    0.10502796 = product of:
      0.21005592 = sum of:
        0.175327 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.175327 = score(doc=729,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.03472892 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.03472892 = score(doc=729,freq=8.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  14. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.10344161 = product of:
      0.20688322 = sum of:
        0.1402616 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.1402616 = score(doc=2567,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.06662162 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.06662162 = score(doc=2567,freq=46.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  15. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.10270157 = product of:
      0.20540313 = sum of:
        0.175327 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.175327 = score(doc=617,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.030076126 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.030076126 = score(doc=617,freq=6.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  16. Ovid announces strategic partnerships : Java-based interface (1997) 0.10
    0.09917992 = product of:
      0.3967197 = sum of:
        0.3967197 = weight(_text_:java in 397) [ClassicSimilarity], result of:
          0.3967197 = score(doc=397,freq=4.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.8809384 = fieldWeight in 397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=397)
      0.25 = coord(1/4)
    
    Abstract
    Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
  17. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.10
    0.096119545 = product of:
      0.19223909 = sum of:
        0.1402616 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.1402616 = score(doc=2121,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.051977485 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.051977485 = score(doc=2121,freq=28.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  18. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.10
    0.096119545 = product of:
      0.19223909 = sum of:
        0.1402616 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.1402616 = score(doc=346,freq=2.0), product of:
            0.45033762 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06390027 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.051977485 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.051977485 = score(doc=346,freq=28.0), product of:
            0.14172435 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06390027 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  19. Wood, A.: Dialog on the Web (1997) 0.09
    0.09423844 = product of:
      0.37695375 = sum of:
        0.37695375 = weight(_text_:hyperlinks in 2888) [ClassicSimilarity], result of:
          0.37695375 = score(doc=2888,freq=2.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.80731905 = fieldWeight in 2888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.078125 = fieldNorm(doc=2888)
      0.25 = coord(1/4)
    
    Abstract
    Reviews the online database service Dialog's WWW version. The best way to start searching is via the database listings (DIALINDEX) which uses hyperlinks. Once a database has been selected information about it can be found on Bluesheets. This service will be useful for new users
  20. Orduña-Malea, E.; Torres-Salinas, D.; López-Cózar, E.D.: Hyperlinks embedded in twitter as a proxy for total external in-links to international university websites (2015) 0.09
    0.09423844 = product of:
      0.37695375 = sum of:
        0.37695375 = weight(_text_:hyperlinks in 3043) [ClassicSimilarity], result of:
          0.37695375 = score(doc=3043,freq=8.0), product of:
            0.46692044 = queryWeight, product of:
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.06390027 = queryNorm
            0.80731905 = fieldWeight in 3043, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.3070183 = idf(docFreq=80, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3043)
      0.25 = coord(1/4)
    
    Abstract
    Twitter as a potential alternative source of external links for use in webometric analysis is analyzed because of its capacity to embed hyperlinks in different tweets. Given the limitations on searching Twitter's public application programming interface (API), we used the Topsy search engine as a source for compiling tweets. To this end, we took a global sample of 200 universities and compiled all the tweets with hyperlinks to any of these institutions. Further link data was obtained from alternative sources (MajesticSEO and OpenSiteExplorer) in order to compare the results. Thereafter, various statistical tests were performed to determine the correlation between the indicators and the possibility of predicting external links from the collected tweets. The results indicate a high volume of tweets, although they are skewed by the performance of specific universities and countries. The data provided by Topsy correlated significantly with all link indicators, particularly with OpenSiteExplorer (r?=?0.769). Finally, prediction models do not provide optimum results because of high error rates. We conclude that the use of Twitter (via Topsy) as a source of hyperlinks to universities produces promising results due to its high correlation with link indicators, though limited by policies and culture regarding use and presence in social networks.

Authors

Languages

Types

  • a 9400
  • m 2236
  • el 1014
  • x 592
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications