Search (13375 results, page 4 of 669)

  1. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.11
    0.107684575 = product of:
      0.21536915 = sum of:
        0.17976178 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.17976178 = score(doc=729,freq=2.0), product of:
            0.4617286 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06551658 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.035607364 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.035607364 = score(doc=729,freq=8.0), product of:
            0.14530917 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06551658 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  2. Bates, M.E.: Compton's New Media (1995) 0.11
    0.106100656 = product of:
      0.42440262 = sum of:
        0.42440262 = weight(_text_:home in 3846) [ClassicSimilarity], result of:
          0.42440262 = score(doc=3846,freq=4.0), product of:
            0.4218467 = queryWeight, product of:
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.06551658 = queryNorm
            1.0060589 = fieldWeight in 3846, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.078125 = fieldNorm(doc=3846)
      0.25 = coord(1/4)
    
    Abstract
    Describes a number of CD-ROM databases from Compton's New Media for home use: Interactive encyclopedia, Encyclopedia of American history, Sporting new pro football guide, The pill book, The Bernstein bears learning at home, Haight-Asbury in the sixites, and Life styles of the rich and famous cookbook
  3. Balas, J.: Dewey and the net (1996) 0.11
    0.106100656 = product of:
      0.42440262 = sum of:
        0.42440262 = weight(_text_:home in 4772) [ClassicSimilarity], result of:
          0.42440262 = score(doc=4772,freq=4.0), product of:
            0.4218467 = queryWeight, product of:
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.06551658 = queryNorm
            1.0060589 = fieldWeight in 4772, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.078125 = fieldNorm(doc=4772)
      0.25 = coord(1/4)
    
    Abstract
    The DDC home page, the Electronic Dewey, produced by OCLC Forest Press, is available on the WWW. Details the information available on the home page and the links available through it
  4. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.11
    0.10529933 = product of:
      0.21059866 = sum of:
        0.17976178 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.17976178 = score(doc=617,freq=2.0), product of:
            0.4617286 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06551658 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.03083688 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.03083688 = score(doc=617,freq=6.0), product of:
            0.14530917 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06551658 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  5. Bradley, P.: World Wide Web : how do design and construct home pages (2000) 0.11
    0.1050343 = product of:
      0.4201372 = sum of:
        0.4201372 = weight(_text_:home in 5492) [ClassicSimilarity], result of:
          0.4201372 = score(doc=5492,freq=2.0), product of:
            0.4218467 = queryWeight, product of:
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.06551658 = queryNorm
            0.9959476 = fieldWeight in 5492, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.109375 = fieldNorm(doc=5492)
      0.25 = coord(1/4)
    
  6. Harizan, A.; Khoon, L.K.: Technical service and the World Wide Web : Building the NTU library cataloging home page (1998) 0.11
    0.1050343 = product of:
      0.4201372 = sum of:
        0.4201372 = weight(_text_:home in 3364) [ClassicSimilarity], result of:
          0.4201372 = score(doc=3364,freq=2.0), product of:
            0.4218467 = queryWeight, product of:
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.06551658 = queryNorm
            0.9959476 = fieldWeight in 3364, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.109375 = fieldNorm(doc=3364)
      0.25 = coord(1/4)
    
  7. Gillham, M.; Buckner, K.: User evaluation of hypermedia encyclopedias (1997) 0.10
    0.103957 = product of:
      0.415828 = sum of:
        0.415828 = weight(_text_:home in 1458) [ClassicSimilarity], result of:
          0.415828 = score(doc=1458,freq=6.0), product of:
            0.4218467 = queryWeight, product of:
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.06551658 = queryNorm
            0.9857325 = fieldWeight in 1458, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.0625 = fieldNorm(doc=1458)
      0.25 = coord(1/4)
    
    Abstract
    Details the use of multimedia CD-ROMs by people in their homes. Investigates how users interact with the systems and gather data which they consider to be relevant evaluation criteria. Defines what is considered to be interactive multimedia in relation to home products and considers the characteristics of home users. Reviews systems evaluation methods in the fields of computer assisted learning, human computer interaction, and information retrieval. Gives factors considered to be specifically relevant to the home use situation, and details the methods employed in the study
  8. Wisniewski, J.: Authority work, Internet resources, and a cataloguer's home page (1998) 0.10
    0.103957 = product of:
      0.415828 = sum of:
        0.415828 = weight(_text_:home in 3534) [ClassicSimilarity], result of:
          0.415828 = score(doc=3534,freq=6.0), product of:
            0.4218467 = queryWeight, product of:
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.06551658 = queryNorm
            0.9857325 = fieldWeight in 3534, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.0625 = fieldNorm(doc=3534)
      0.25 = coord(1/4)
    
    Abstract
    Argues that a cataloguer's personal home page, with a list of links to most used sites, simplifies the task of retrieving WWW base documentation for name and subject heading authority records. Highlights selected WWW sites for geographic names, historic buildings and topics in art, suggests reasons for creating one's own site, and offers an example of a personal home page
  9. Lobe, A.: Speichern und Strafen : die Gesellschaft im Datengefängnis (2019) 0.10
    0.10173001 = product of:
      0.20346002 = sum of:
        0.05341104 = weight(_text_:und in 448) [ClassicSimilarity], result of:
          0.05341104 = score(doc=448,freq=18.0), product of:
            0.14530917 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06551658 = queryNorm
            0.36756828 = fieldWeight in 448, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=448)
        0.15004899 = weight(_text_:home in 448) [ClassicSimilarity], result of:
          0.15004899 = score(doc=448,freq=2.0), product of:
            0.4218467 = queryWeight, product of:
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.06551658 = queryNorm
            0.35569555 = fieldWeight in 448, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.0390625 = fieldNorm(doc=448)
      0.5 = coord(2/4)
    
    Abstract
    Wie sehr Algorithmen unser Leben steuern, haben wir schon lange nicht mehr im Blick - geschweige denn unter Kontrolle. Das Smartphone zählt unsere Schritte, die Smartwatch misst unsere Herzfrequenz, und das Smart Home detektiert Zigarettenrauch und Schimpfwörter. Endlich gibt es all diese klugen kleinen Helfer, die uns liebevoll behüten und umsorgen, unser Leben erleichtern. Falsch! Adrian Lobe zeigt, wie uns die Digitaltechnik geradewegs in ein Datengefängnis führt, das wir selbst gebaut haben und so bald nicht wieder verlassen werden. Die schicken Gadgets der großen Tech-Konzerne führen laufend Protokoll über unser Getanes, Gesagtes, Geschriebenes und Gedachtes. Überall installieren wir Mikrofone, Kameras und Sensoren, die uns wie im Strafvollzug 24/7 überwachen. Jedes Speichern ist Arrest, jede biometrische Erkennung eine Festnahme mit darauffolgender erkennungsdienstlicher Behandlung - eine automatisierte Leibesvisitation. Kommissar Technik sperrt uns in ein Gefängnis, das nicht einmal Mauern braucht, denn wir begeben uns freiwillig in den offenen Vollzug. Und mit von der Partie sind Siri, Alexa und Cortana - die freundlichsten Kerkermeister, die die Menschheit je hatte. Adrian Lobe zeichnet anhand von zahlreichen Beispielen aus unserem technisierten Alltag die reale Dystopie einer Gesellschaft im Datengefängnis.
  10. Ovid announces strategic partnerships : Java-based interface (1997) 0.10
    0.101688616 = product of:
      0.40675446 = sum of:
        0.40675446 = weight(_text_:java in 397) [ClassicSimilarity], result of:
          0.40675446 = score(doc=397,freq=4.0), product of:
            0.4617286 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06551658 = queryNorm
            0.8809384 = fieldWeight in 397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=397)
      0.25 = coord(1/4)
    
    Abstract
    Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
  11. Stover, M.; Zink, S.D.: World Wide Web home page design : patterns and anomalies of higher education library home pages (1996) 0.10
    0.10065593 = product of:
      0.4026237 = sum of:
        0.4026237 = weight(_text_:home in 6601) [ClassicSimilarity], result of:
          0.4026237 = score(doc=6601,freq=10.0), product of:
            0.4218467 = queryWeight, product of:
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.06551658 = queryNorm
            0.95443135 = fieldWeight in 6601, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.046875 = fieldNorm(doc=6601)
      0.25 = coord(1/4)
    
    Abstract
    The WWW has become the most visible application of the Internet. In this article the authors provide background on hypermedia in general and review the emerging and still fragmentary literature related to WWW home page design. hrough the construction of a rating system, the authors measure the relative quality of a particular genre of home pages (those of higher education libraries) in terms of design and organization. The decision to study higher education library home pages was based on a variety of reasons, not the least of which is libarians's claimed expertise in the organization of information. If this is to be one of their strengths as they vie for leadership among the information professionals of the 21st century, one might expect that such a widely visible product of librarians' work would epitomize skillful packaging and presentation of information
  12. Stock, W.G.: Hochschulmanagement, Information Appliances, Fairness als Grundsatz : Information und Mobilität (2002) 0.10
    0.1002027 = product of:
      0.2004054 = sum of:
        0.050356418 = weight(_text_:und in 2364) [ClassicSimilarity], result of:
          0.050356418 = score(doc=2364,freq=16.0), product of:
            0.14530917 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06551658 = queryNorm
            0.34654674 = fieldWeight in 2364, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2364)
        0.15004899 = weight(_text_:home in 2364) [ClassicSimilarity], result of:
          0.15004899 = score(doc=2364,freq=2.0), product of:
            0.4218467 = queryWeight, product of:
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.06551658 = queryNorm
            0.35569555 = fieldWeight in 2364, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2364)
      0.5 = coord(2/4)
    
    Abstract
    Was hat Information mit Mobilität zu tun? Nun, zunächst kann Information Mobilität unterstützen, Fahrerinformationssysteme sind ein bekanntes Beispiel. Information kann darüber hinaus unnötige Mobilität vermeiden helfen, indem die Information mobil wird und seinen Empfänger ortsungebunden findet. Die ' "ubiquitäre" Information erreicht den Außendienstmitarbeiter fern vom Back Office, den Studenten fern von der Hochschule oder einen Kollegen in seinem Home Office fern vom Standort der Firma. Information kann auch zu mehr Mobilität führen, denken wir nur an Lieferungen im Anschluss an Bestellungen im E-Commerce. (Dieser Aspekt wird allerdings in Regensburg nicht angesprochen). Letztendlich muss auch die "geistige Mobilität" beim Lehren und Lernen mit den neuen digitalen Medien genannt werden, eine Mobilität, die sich eher im Hintergrund abspielt, die aber einer 'stillen Revolution" gleichkommt. Das Generalthema "Information und Mobilität" des achten Internationalen Symposiums für Informationswissenschaft (ISI) wurde nicht zufällig beim diesjährigen Tagungsort in Regensburg gewählt, denn an der Universität Regensburg existiert seit Jahren ein interdisziplinäres Forschungszentrum für Information und Mobilität. Außerhalb des Generalthemas bringt das ISI - wie gewohnt - ein zusätzliches Spektrum informationswissenschaftlicher Themen und - auch wie gewohnt - mit dem "Best Student Paper Award" den Wettbewerb um die beste studentische Leistung der letzten zwei Jahre - diesmal mit einem Sieger und mit einem Sonderpreis. Fahrerinformationssysteme: akustische und/oder visuelle Metainformationen?
  13. OIliges-Wieczorek, U.: Retrokonversion der Thomas-Mann-Sammlung : DFG finanziert Projekt an der Universitäts- und Landesbibliothek Düsseldorf (2008) 0.10
    0.098576546 = product of:
      0.19715309 = sum of:
        0.047104113 = weight(_text_:und in 2669) [ClassicSimilarity], result of:
          0.047104113 = score(doc=2669,freq=14.0), product of:
            0.14530917 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06551658 = queryNorm
            0.32416478 = fieldWeight in 2669, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2669)
        0.15004899 = weight(_text_:home in 2669) [ClassicSimilarity], result of:
          0.15004899 = score(doc=2669,freq=2.0), product of:
            0.4218467 = queryWeight, product of:
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.06551658 = queryNorm
            0.35569555 = fieldWeight in 2669, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2669)
      0.5 = coord(2/4)
    
    Abstract
    Seit Januar 2008 fördert die Deutsche Forschungsgemeinschaft (DFG) das Projekt »Retrokonversion von Beständen der Thomas-Mann-Sammlung der Universitäts- und Landesbibliothek Düsseldorf mit Catalogue Enrichment, Einbindung von Volltexten und Integration eines Dokumentliefersystems«.
    Content
    "Im Rahmen des Projekts sollen die circa 13.000 konventionellen Titelaufnahmen der vor 1990 erworbenen Bestände der Thomas-Mann-Sammlung, die zurzeit nur als Zettelkatalog vorliegen, in den Online-Katalog der Thomas-Mann-Sammlung überführt werden. In der zweijährigen Projektlaufzeit werden ferner die Inhaltsverzeichnisse der monografischen Sekundärliteratur zu Thomas Mann eingescannt und die Katalogisate damit angereichert. Außerdem sollen die Aufsätze zum Thema »Thomas Mann«, die im Rahmen der DFG-Nationallizenzen verfügbar sind, mit den Katalogaufnahmen verlinkt werden, sodass die Nutzer von der Titelanzeige den direkten Zugriff auf die Volltexte erhalten. Des Weiteren soll ein Dokumentliefersystem in die Datenbank integriert werden, damit Zeitschriftenaufsätze, Zeitungsartikel oder einzelne Kapitel aus Monografien direkt aus dem System heraus elektronisch bestellt und geliefert werden können. Der im Internet frei zugängliche Online-Katalog der Thomas-Mann-Sammlung umfasst derzeit 11000 Titelnachweise. Dabei handelt es sich um seit 1990 erworbene Monografien, Aufsätze aus Fachzeitschriften und aus Sammelbänden sowie Zeitungsartikel. Dazu gehören auch Übersetzungen der Werke Thomas Manns in mehr als 40 Sprachen und audiovisuelle Medien."
    Footnote
    Weitere Informationen: www.ub.uni-duesseldorf.de/home/ueber_uns/sonder/mann
  14. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.10
    0.09855082 = product of:
      0.19710164 = sum of:
        0.14380942 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.14380942 = score(doc=2121,freq=2.0), product of:
            0.4617286 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06551658 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.05329222 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.05329222 = score(doc=2121,freq=28.0), product of:
            0.14530917 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06551658 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  15. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.10
    0.09855082 = product of:
      0.19710164 = sum of:
        0.14380942 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.14380942 = score(doc=346,freq=2.0), product of:
            0.4617286 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06551658 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.05329222 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.05329222 = score(doc=346,freq=28.0), product of:
            0.14530917 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06551658 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  16. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.10
    0.09657422 = product of:
      0.19314843 = sum of:
        0.14380942 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.14380942 = score(doc=6889,freq=2.0), product of:
            0.4617286 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06551658 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.04933901 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.04933901 = score(doc=6889,freq=24.0), product of:
            0.14530917 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06551658 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  17. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.10
    0.09657422 = product of:
      0.19314843 = sum of:
        0.14380942 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.14380942 = score(doc=1642,freq=2.0), product of:
            0.4617286 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06551658 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.04933901 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.04933901 = score(doc=1642,freq=24.0), product of:
            0.14530917 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06551658 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  18. Thomas, N.: Wissenschaft in der digitalen Welt (2005) 0.09
    0.09492961 = product of:
      0.18985923 = sum of:
        0.03981024 = weight(_text_:und in 4521) [ClassicSimilarity], result of:
          0.03981024 = score(doc=4521,freq=10.0), product of:
            0.14530917 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06551658 = queryNorm
            0.27396923 = fieldWeight in 4521, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4521)
        0.15004899 = weight(_text_:home in 4521) [ClassicSimilarity], result of:
          0.15004899 = score(doc=4521,freq=2.0), product of:
            0.4218467 = queryWeight, product of:
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.06551658 = queryNorm
            0.35569555 = fieldWeight in 4521, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4521)
      0.5 = coord(2/4)
    
    Abstract
    Die neuen Informations- und Kommunikationstechnologien haben die Wissenschaft verändert: So bewegt sich der moderne Wissenschaftler wie selbstverständlich in einer virtuellen Welt, die durch Schnelligkeit und Globalität gekennzeichnet ist. Von der Organisation, über die Wissenssammlung und -produktion bis hin zur Kommunikation, Publikation und Lehre ist mittlerweile vieles digital - und manches wird noch folgen. Der typische Arbeitsalltag eines Hochschullehrers müsste demnach so aussehen: Nachdem er in seinem Home-Office früh morgens per E-Mail ein paar studentische Anfragen beantwortet hat, sieht er auf der Webseite einer Fachzeitschrift schnell die Kommentare zu einem von ihm elektronisch publizierten Artikel durch. Hektisch diskutiert er dann auf der Online-Plattform seiner Disziplin mit Kollegen aus der ganzen Welt über die neuesten Ergebnisse eines afrikanischen Forschungsteams. Es geht hoch her, denn zwei junge Wissenschaftler aus Korea stellen die von ihm vertretenen Ansichten immer wieder in Frage. Um seinen Argumenten Nachdruck zu verleihen, verlinkt er seine Kommentare mit der dezentralen Datenbank seiner Forschungsgruppe. Nach der Mittagspause fordert er auf einer Online-Konferenz finanzielle Unterstützung für seine digitale Universität ein. Am späten Nachmittag füllt er elektronisch das Antragsformular für ein EU-Projekt aus, um sich anschließend offline mit Kollegen seines Instituts zu treffen. Sind diese Vorstellungen im Jahr 2005 nur Utopie - oder längst praktischer Alltag?
  19. Tsai, B.-s.: Infomapping in information retrieval (1997) 0.09
    0.09340697 = product of:
      0.37362787 = sum of:
        0.37362787 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
          0.37362787 = score(doc=3877,freq=6.0), product of:
            0.4617286 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06551658 = queryNorm
            0.8091937 = fieldWeight in 3877, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3877)
      0.25 = coord(1/4)
    
    Abstract
    Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
  20. Hartel, J.: Managing documents at home for serious leisure : a case study of the hobby of gourmet cooking (2010) 0.09
    0.091885865 = product of:
      0.36754346 = sum of:
        0.36754346 = weight(_text_:home in 154) [ClassicSimilarity], result of:
          0.36754346 = score(doc=154,freq=12.0), product of:
            0.4218467 = queryWeight, product of:
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.06551658 = queryNorm
            0.8712726 = fieldWeight in 154, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              6.4387774 = idf(docFreq=192, maxDocs=44421)
              0.0390625 = fieldNorm(doc=154)
      0.25 = coord(1/4)
    
    Abstract
    Purpose - This paper aims to describe the way participants in the hobby of gourmet cooking in the USA manage culinary information in their homes. Design/methodology/approach - The study utilizes domain analysis and serious leisure as a conceptual framework and employs an ethnographic approach. In total 20 gourmet cooks in the USA were interviewed at home and then their culinary information collections were documented through a guided tour and photographic inventory. The resulting ethnographic record was analyzed using grounded theory and NVivo software. Findings - The findings introduce the personal culinary library (PCL): a constellation of cooking-related information resources and information structures in the home of the gourmet cook, and an associated set of upkeep activities that increase with the collection's size. PCLs are shown to vary in content, scale, distribution in space, and their role in the hobby. The personal libraries are characterized as small, medium or large and case studies of each extreme are presented. Larger PCLs are cast as a bibliographic pyramid distributed throughout the home in the form of a mother lode, zone, recipe collection, and binder. Practical implications - Insights are provided into three areas: scientific ethnography as a methodology; a theory of documents in the hobby; and the changing role of information professionals given the increasing prevalence of home-based information collections. Originality/value - This project provides an original conceptual framework and research method for the study of information in personal spaces such as the home, and describes information phenomena in a popular, serious leisure, hobby setting.

Authors

Languages

Types

  • a 9490
  • m 2252
  • el 1023
  • x 591
  • s 559
  • i 170
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications