Search (1208 results, page 2 of 61)

  • × language_ss:"e"
  1. Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998) 0.09
    0.08772578 = product of:
      0.35090312 = sum of:
        0.35090312 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
          0.35090312 = score(doc=2673,freq=4.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.7708211 = fieldWeight in 2673, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2673)
      0.25 = coord(1/4)
    
    Abstract
    The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
  2. Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998) 0.08
    0.075193524 = product of:
      0.3007741 = sum of:
        0.3007741 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
          0.3007741 = score(doc=4593,freq=4.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.6607038 = fieldWeight in 4593, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=4593)
      0.25 = coord(1/4)
    
    Abstract
    Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
  3. Hedden, H.: Indexing specialities : Web Sites (2007) 0.07
    0.07326168 = product of:
      0.14652336 = sum of:
        0.043424252 = weight(_text_:und in 2146) [ClassicSimilarity], result of:
          0.043424252 = score(doc=2146,freq=34.0), product of:
            0.14326492 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06459488 = queryNorm
            0.30310458 = fieldWeight in 2146, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2146)
        0.10309911 = weight(_text_:hohen in 2146) [ClassicSimilarity], result of:
          0.10309911 = score(doc=2146,freq=2.0), product of:
            0.44824284 = queryWeight, product of:
              6.939294 = idf(docFreq=116, maxDocs=44421)
              0.06459488 = queryNorm
            0.23000726 = fieldWeight in 2146, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.939294 = idf(docFreq=116, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2146)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: IWP 60(2009) H.4, S.245 (J. Fassbender): "Heather Heddens Buch über Website-Indexing gehört zur Indexing Specialties-Serie, die vom Information Today-Verlag in Zusammenarbeit mit der American Society of Indexers herausgegeben wird. Der Bereich Website-Indexing befasst sich mit der Index-Erstellung und -Pflege für Websites und Intranets - ähnlich zu Registern für Printpublikationen. Ein Website-Index hat oft die Bezeichnung Site Index oder A-Z Index und sollte zudem nicht mit Site Maps verwechselt werden. Das Buch füllt gerade auch hierzulande eine Riesenlücke aus: Nach Einschätzung des Deutschen Netzwerks der Indexer (DNI) ist das Wissensdefizit über Website-Indexing in der deutschen Web- und IT-Szene enorm. Die Autorin beginnt in diesem Sinne auch gleich mit zwei Kernaussagen des Buches: 1. Website-Indexing sei deshalb in der Web-Szene nicht so verbreitet, weil die Kenntnisse der Methoden zur Index-Erstellung fehlen und/oder die nötigen Tools unbekannt sind. 2. Ein guter Index stelle für viele Sites die effektivste Suchmethode dar - trotz der Konkurrenz zu Navigationsmenüs und Sucheingabe. Verdeutlicht werden sodann die Unterschiede zu Print-Registern, der bedeutendste betrifft die Locators (Fundstellen), die in der Regel keine Seitenangaben, sondern Links sind.
    Ein Kapitel über HTML-Grundlagen ist für diejenigen Indexer gedacht, die sich in diesem Bereich bisher nicht oder wenig auskennen. Ein weiteres Kapitel verdeutlicht die HTML-Tags, die speziell für die Website-Index-Erstellung von Bedeutung sind. Die Erläuterungen zu Cascading Style Sheets (CSS) ist ausreichend, aber etwas knapp; hier wären einige CSS-Techniken für Fortgeschrittene von Interesse gewesen. Auf die Möglichkeiten von Konvertierungs-Tools (wie HTML/Prep), mit denen Dokumente ins HTML-Format umgewandelt werden können, sowie von Online Help Authoring Tools wird ebenfalls eingegangen. Sie bilden eine gute Ergänzung zu den indexspezifischen HTML-Erläuterungen. Das Thema XML ist bewusst ausgeschlossen worden, um sich vom Fokus des Buches nicht zu weit zu entfernen. Dennoch hätte man sich als Leser zumindest ein paar grundsätzliche Erläuterungen im Kontext zum Website-Indexing gewünscht. Ein Kapitel über Dedicated-IndexingSoftware behandelt deren Möglichkeiten einer Index-Erstellung für Websites. Die Autorin argumentiert überzeugend, dass die großen Vorteile dieser von Indexern weltweit am meisten eingesetzten Software deren mächtige Möglichkeiten zur Erstellung, Bearbeitung, Veränderung und Kontrolle von Index-Einträgen sind, was einer hohen Index-Qualität zugute kommt. Die HTML-Ausgabe-Optionen dieser Software-Art sind allerdings etwas eingeschränkter, so dass der Output oft einer Nachbearbeitung bedarf. Es folgen zwei Kapitel über spezielle Website-Indexing-Software. XRefHT (gesprochen: Shreft) ist eine Freeware, die von Prof. Timothy Craven (University of Western Ontario) entwickelt wurde. HTML Indexer ist eine kommerziell erhältliche Software. Detailliert erläutert werden, welche Elemente von Web-Seiten von den beiden Programmen für Index-Einträge berücksichtigt werden, wie Index-Einträge und Querverweise erstellt und bearbeitet und wie die Register aktualisiert werden können.
    Zwei Kapitel behandeln die Vorgehensweise bei der Index-Erstellung sowie die vielfältigen Aspekte der Index-Gestaltung. Anhand vieler Beispiele werden die Besonderheiten, aber auch Parallelen zu Printregistern beleuchtet, z. B. bestehende und neu einzufügende Anker, Berücksichtigung verschiedener Seiten-Arten und -Formate, Umgang mit mehreren Locatorn pro Eintrag, Navigation innerhalb des Site Indexes. Das Schlusskapitel widmet sich den Business-Aspekten des Website-Indexing, auch aus Freelancer-Sicht. Erläutert werden z. B., welche Arten von Websites in Frage kommen und wie die Fortführung der Indexierung berücksichtigt wird. Der Index des Buches ist insgesamt von guter Qualität, wie man es von den Indexing-Büchern des Information Today-Verlages gewöhnt ist - ja sogar von exzellenter Qualität im Vergleich zu vielen unzureichenden Registern deutschsprachiger Fachbücher. Mit fünf Prozent Umfang im Verhältnis zur Anzahl der inhaltlichen Seiten hat der Index eine gute Standardlänge. Wesentliche Indexierungstechniken, wie Untereinträge, siehe- und siehe auch-Querverweise, vollständige Seitenbereichsangaben (d. h. ohne die wenig hilfreichen ff.-Angaben) kommen zum Einsatz. Einige Untereinträge tauchen allerdings nicht auch als Haupteintrag auf; so findet man z. B. "indexing rates" nur als Untereintrag des Haupteintrages "Business and index market". Die typographische und satztechnische Qualität des Registers ist ebenfalls gut, z. B. unterschiedliche Einrückungen von Untereinträgen und deren Zeilenumbrüchen. Insgesamt gesehen ist Indexing Specialties: Web Sites ein sehr empfehlenswertes Buch, das ein wichtiges (und bisher vernachlässigtes) Thema abdeckt."
  4. Reed, D.: Essential HTML fast (1997) 0.07
    0.07089314 = product of:
      0.28357255 = sum of:
        0.28357255 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
          0.28357255 = score(doc=6851,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.62291753 = fieldWeight in 6851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6851)
      0.25 = coord(1/4)
    
    Abstract
    This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
  5. Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997) 0.07
    0.07089314 = product of:
      0.28357255 = sum of:
        0.28357255 = weight(_text_:java in 171) [ClassicSimilarity], result of:
          0.28357255 = score(doc=171,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.62291753 = fieldWeight in 171, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=171)
      0.25 = coord(1/4)
    
    Abstract
    Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
  6. Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996) 0.07
    0.07089314 = product of:
      0.28357255 = sum of:
        0.28357255 = weight(_text_:java in 604) [ClassicSimilarity], result of:
          0.28357255 = score(doc=604,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.62291753 = fieldWeight in 604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=604)
      0.25 = coord(1/4)
    
    Abstract
    Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
  7. Ameritech releases Dynix WebPac on NT (1998) 0.07
    0.07089314 = product of:
      0.28357255 = sum of:
        0.28357255 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
          0.28357255 = score(doc=2782,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.62291753 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=2782)
      0.25 = coord(1/4)
    
    Abstract
    Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
  8. OCLC completes SiteSearch 4.0 field test (1998) 0.07
    0.07089314 = product of:
      0.28357255 = sum of:
        0.28357255 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
          0.28357255 = score(doc=3078,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.62291753 = fieldWeight in 3078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=3078)
      0.25 = coord(1/4)
    
    Abstract
    OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
  9. Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998) 0.07
    0.07089314 = product of:
      0.28357255 = sum of:
        0.28357255 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
          0.28357255 = score(doc=4618,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.62291753 = fieldWeight in 4618, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=4618)
      0.25 = coord(1/4)
    
    Abstract
    Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
  10. Bates, C.: Web programming : building Internet applications (2000) 0.07
    0.07089314 = product of:
      0.28357255 = sum of:
        0.28357255 = weight(_text_:java in 130) [ClassicSimilarity], result of:
          0.28357255 = score(doc=130,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.62291753 = fieldWeight in 130, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=130)
      0.25 = coord(1/4)
    
    Object
    Java
  11. Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003) 0.07
    0.07063508 = product of:
      0.14127016 = sum of:
        0.10633971 = weight(_text_:java in 55) [ClassicSimilarity], result of:
          0.10633971 = score(doc=55,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.23359407 = fieldWeight in 55, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
        0.034930456 = weight(_text_:und in 55) [ClassicSimilarity], result of:
          0.034930456 = score(doc=55,freq=22.0), product of:
            0.14326492 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06459488 = queryNorm
            0.24381724 = fieldWeight in 55, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=55)
      0.5 = coord(2/4)
    
    Content
    "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
    Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
  12. Slatin, J.M.; Rush, S.: Maximum accessibility : Making your Web site more usable for everyone (2003) 0.07
    0.06891952 = product of:
      0.13783903 = sum of:
        0.051923107 = weight(_text_:und in 3996) [ClassicSimilarity], result of:
          0.051923107 = score(doc=3996,freq=70.0), product of:
            0.14326492 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06459488 = queryNorm
            0.36242723 = fieldWeight in 3996, product of:
              8.3666 = tf(freq=70.0), with freq of:
                70.0 = termFreq=70.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3996)
        0.08591593 = weight(_text_:hohen in 3996) [ClassicSimilarity], result of:
          0.08591593 = score(doc=3996,freq=2.0), product of:
            0.44824284 = queryWeight, product of:
              6.939294 = idf(docFreq=116, maxDocs=44421)
              0.06459488 = queryNorm
            0.19167273 = fieldWeight in 3996, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.939294 = idf(docFreq=116, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3996)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 55(2004) H.7, S.431-432 (W. Schweibenz): "Maximum Accessibility ist ein Buch, das die barrierefreie Zugänglichkeit (engl. accessibility) von Web-Sites für Menschen mit Behinderungen behandelt - ein Thema das im deutschsprachigen Raum noch zu wenig öffentliche Beachtung findet. Dabei gewinnt das Thema zunehmend an Aktualität. In Deutschland sind beispielsweise die Einrichtungen des Bundes bzw. der Länder betroffen, die Internet-Angebote unterhalten. Denn die Barrierefreie Informationstechnik-Verordnung - BITV für Bundesbehörden bzw. die Landesverordnungen für Landesbehörden und teilweise für Kommunen und Landkreise schreiben vor, dass bis zum 31. Dezember 2005 die Internet-Angebote der öffentlichen Hand (soweit die Verordnungen für sie gelten), barrierefrei zu gestalten sind. Weiterführende Informationen zu den juristischen Aspekten der Barrierefreiheit für die Bundesrepublik Deutschland bietet Drewes (2004a, 2004b) sowie die Web-Angebote der Initiativen Einfach für alle und WoB11. In der Schweiz regeln das Bundesgesetz über die Beseitigung von Benachteiligungen von Menschen mit Behinderungen sowie die zugehörige Behindertengleichstellungsverordnung Fragen zur Barrierefreiheit von Web-Angeboten. Dabei ist zu beachten, dass die schweizerischen Bestimmungen weiterreichend sind als die deutschen. So dürfen in der Schweiz private Anbieter, die Dienstleistungen öffentlich anbieten, Behinderte nicht diskriminieren. Daraus lässt sich jedoch kein direkter Anspruch auf Barrierefreiheit gegen private Anbieter ableiten. Für Österreich steht derzeit eine detaillierte gesetzliche Regelung der Barrierefreiheit noch aus, bisher ist im E-GovernmentGesetz lediglich eine Absichtserklärung ab dem Jahr 2008 enthalten. Eine gesetzliche Regelung ist aber zu erwarten, weil entsprechende Vorschriften der Europäischen Union barrierefreie Web-Angebote für die Verwaltungen ihrer Mitgliedsstaaten vorsehen. Umfangreiche und verständliche Informationen zum Thema Barrierefreiheit in deutscher Sprache bietet der Leitfaden des deutschen Bundesamts für Sicherheit in der Informationstechnik (2003). Einen Einstieg in die barrierefreie Web-Entwicklung bietet das Online-Tutorial von Jan Eric Hellbusch, das im Oktober 2004 als Buch erscheinen wird. Die Mailingliste Web Accessibility des Kompetenzzentrum BIKA-FIT des Fraunhofer-Instituts ist eine deutschsprachige Plattform für den Austausch zwischen Praktikern und Interessierten. Soweit die einführenden Worte, nun zum eigentlichen Thema, dem Buch Maximum Accessibility. Die Autoren, der blinde John Slatin und und die Web-Designerin Sharron Rush, legen Wert darauf festzustellen, dass es nicht darum geht, für eine kleine Gruppe von Benutzern einen zusätzlichen Aufwand bei der Erstellung von Web-Angeboten zu betreiben, sondern dass vielmehr eine sehr große Zahl von Benutzern betroffen ist, nämlich rund 54 Millionen Amerikaner und 37 Millionen Europäer. Darüber hinaus betonen die Autoren, dass Barrierefreiheit für alle Benutzer gleichermaßen wichtig ist, denn Web-Sites, die für Menschen mit Behinderungen einfach zu benutzen sind, sind es auch für alle Benutzer. Dies gilt auch für den Zugang mit mobilen Geräten, die auf textbasiertes Browsen angewiesen sind. Darüber hinaus sind barrierefreie Web-Seiten auch suchmaschinenoptimiert, weil ihre Inhalte für die Volltextindexierung optimal aufbereitet sind.
    Das Buch besteht aus zwei Teilen: Section 1 - Accessibility and Why It Matters Section 2 - Strategies and Techniques for Maximum Accessibility Im ersten Teil geben die Autoren eine knappe Einführung, in der sie erläutern, was Accessibility bedeutet, und stellen die gesetzlichen Grundlagen in den USA vor. Daneben werfen sie aber auch einen kurzen Blick auf die Situation in Kanada, Australien, der Europäischen Union (EU) und Großbritannien (das interessanterweise nicht zur EU gezählt, sondern gesondert behandelt wird). Der Schwerpunkt USA und die dortige Gesetzeslage ist auch für Leser aus dem deutschsprachigen Raum durchaus interessant dargestellt, erlaubt er doch den Vergleich mit der gesetzlichen Lage in der EU, die durchaus nicht einheitlich ist-in einigen Staaten gelten die Vorschriften der Barrierefreiheit auch für kommerzielle Web-Angebote, z. B. in Großbritannien. In den weiteren Kapiteln wird ein breites Spektrum abgedeckt: Es werden verschiedene Initiatitiven zur Barrierefreiheit in den USA vorgestellt ebenso wie ein business case, der zeigt wie der return an Investment für Barrierefreiheit in einem konkreten Fall aussehen kann. Slatin und Rush gehen davon aus, dass Barrierefreiheit für jedes Unternehmen aus Geschäftsinteresse sinnvoll ist, weil immer mehr Menschen immer älter werden und damit die Wahrscheinlichkeit von körperlichen Beeinträchtigungen zunimmt. Dann liefern sie eine Reihe von Argumenten, warum sich Barrierefreiheit für Unternehmen rechnet. Im Anschluss geben sie einen Überblick, wie man WebSites auf Barrierefreiheit testet, wobei sie betonen, dass automatisierte Prüfwerkzeuge nur in Kombination mit einer Evaluation durch Gutachter bzw. UsabilityTests verwendet werden sollten. Allerdings, so räumen Slatin und Rush ein, helfen diese Werkzeuge und Methoden nicht, die absolute Barrierefreiheit für jeden einzelnen Benutzer oder unter allen Umständen zu erreichen. Anhand von Beispielen zeigen Slatin und Rush, dass Textversionen der Inhalte keine wirkliche Alternative zu tatsächlich barrierefreien Inhalten sind und wie Alternativen für die barrierefreie Präsentation multimedialer Inhalte zur Verfügung stehen. Im ersten Teil sind verschiedene Kapitel mit Erfahrungsberichte des blinden John Slatin eingebunden, die praxisbezogen und anschaulich zeigen, auf welche Probleme Blinde und Sehbehinderte im Web stoßen, so zum Beispiel - dass es für einen blinden Benutzer in der beschriebenen Version praktisch unmöglich war, bei der beschriebenen Version von Amazon online einzukaufen. - dass sich bei ÖPNV-Web-Angeboten trotz des Einsatzes assistiver Technologien wie beispielsweise eines Bildschirmvorleseprogramms (screen reader) erhebliche Probleme mit Tabellen ergeben, die durch ihre zweidimensionale Struktur zwar für die Wahrnehmung mit dem Auge geeignet sind, nicht aber für die Wahrnehmung mit dem Ohr. Allerdings zeigen Screenshots, dass einige dieser Fahrpläne auch sehende Benutzer vor visuelle und intellektuelle Herausforderungen stellen, weil ihr Informationsdesign schlecht gemacht ist.
    - dass der Zugriff auf verschiedene bekannte Museums-Web-Sites durchdie eingesetzten Programmiertechniken effektiv verhindert wird, weil bestimmte Funktionen für ein Bildschirmvorleseprogramm oder eine Braillezeile nicht darstellbar sind. Dazu gehören unter anderem: die beschriebenen Flash-Animationen, automatische refreshs und redirects, server-side image maps. Weitere Problempunkte sind inkonsistentes Design und die sequenzielle Anordnung der Texte, die in einer Reihenfolge vorgelesen werden, die nicht der logischen Struktur entspricht. Verschiedene Kapitel im zweiten Teil bieten eine stark technisch ausgerichtete Handreichung, wie Inhalte und HTMLCode von Web-Angeboten barrierefrei gestaltet werden können. Slatin und Rush behandeln unter anderem folgende Aspekte: - wie Alternativtexte und Langbeschreibungstexte sinnvoll eingesetzt werden und wo besser auf sie verzichtet wird - wie visuelle Inhalte von Grafiken für Blinde sinnvoll und ansprechend beschrieben werden - welche Rolle die Vorlesereihenfolge spielt - welche Alternativen es für textuelle Beschreibungen gibt - wie HTML-Eingabeformulare und HTML-Tabellen barrierefrei gestaltet werden können - dass PDF-Dokumente nicht per se zugänglich sind und wie sie gestaltet werden müssen, damit sie tatsächlich barrierefrei sind - wie Multimedia-Material aufbereitet werden muss - wie Cascading Style Sheets eingesetzt werden können Das Buch zeichnet sich durch ein leicht lesbares Englisch und einen gut verständlichen Stil aus. Die zahlreichen Beispiele aus dem Web-Alltag machen es interessant zu lesen und geben ihm einen hohen Praxisbezug. Die Bezugnahme auf die Richtlinien der Web Accessibility Initiative (WAI) des World Wide Web Consortiums und auf die U.S. Section 508 ziehen sich wie ein roter Faden durch das Buch. Bereits die Einführung enthält eine übersichtliche Tabelle, welche die WAIRichtlinien und die Section 508 den Buchkapiteln gegenüberstellt, in denen sie behandelt werden. Jedes Kapitel listet am Anfang nochmals die WAI-Richtlinien und Absätze der Section 508 auf, die dort vertieft behandelt werden. Darüber hinaus wird dem Leser in sogenannten user experience chapters aus der Perspektive des blinden John Slatin als Betroffenem ebenso einfühlsam wie praxisbezogen nahegebracht, mit welchen Problemen Menschen mit Behinderungen im Web konfrontiert werden. Dies hilft auf anschauliche Weise, das Bewusstsein für die Notwendigkeit von Barrierefreiheit zu wecken, ohne dass der moralische Zeigefinger erhoben wird. Diese Aspekte machen die Lektüre des Buchs gleichermaßen lehrreich wie angenehm."
  13. New directions in cognitive information retrieval (2005) 0.07
    0.0669937 = product of:
      0.1339874 = sum of:
        0.04807146 = weight(_text_:und in 1338) [ClassicSimilarity], result of:
          0.04807146 = score(doc=1338,freq=60.0), product of:
            0.14326492 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06459488 = queryNorm
            0.33554244 = fieldWeight in 1338, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1338)
        0.08591593 = weight(_text_:hohen in 1338) [ClassicSimilarity], result of:
          0.08591593 = score(doc=1338,freq=2.0), product of:
            0.44824284 = queryWeight, product of:
              6.939294 = idf(docFreq=116, maxDocs=44421)
              0.06459488 = queryNorm
            0.19167273 = fieldWeight in 1338, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.939294 = idf(docFreq=116, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1338)
      0.5 = coord(2/4)
    
    Classification
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
    Footnote
    Rez. in: Mitt. VÖB 59(2006) H.3, S.95-98 (O. Oberhauser): "Dieser Sammelband der Herausgeber A. Spink & C. Cole ist kurz vor ihrem im letzten Heft der Mitteilungen der VÖB besprochenen zweiten Buch erschienen. Er wendet sich an Informationswissenschaftler, Bibliothekare, Sozialwissenschaftler sowie Informatiker mit Interesse am Themenbereich Mensch-Computer-Interaktion und präsentiert einen Einblick in die aktuelle Forschung zum kognitiv orientierten Information Retrieval. Diese Richtung, die von der Analyse der Informationsprobleme der Benutzer und deren kognitivem Verhalten bei der Benutzung von Informationssystemen ausgeht, steht in einem gewissen Kontrast zum traditionell vorherrschenden IR-Paradigma, das sich auf die Optimierung der IR-Systeme und ihrer Effizienz konzentriert. "Cognitive information retrieval" oder CIR (natürlich geht es auch hier nicht ohne ein weiteres Akronym ab) ist ein interdisziplinärer Forschungsbereich, der Aktivitäten aus Informationswissenschaft, Informatik, Humanwissenschaften, Kognitionswissenschaft, Mensch-Computer-Interaktion und anderen informationsbezogenen Gebieten inkludiert.
    New Directions ist nach demselben, durchaus ansprechenden Muster "gestrickt" wie das oben erwähnte zweite Buch (tatsächlich war es ja wohl umgekehrt) Der vorliegende Band beinhaltet ebenfalls zwölf Beiträge ("Kapitel"), die in fünf Sektionen dargeboten werden, wobei es sich bei den Sektionen 1 und 5 (=Kapitel 1 und 12) um Einleitung und Zusammenschau der Herausgeber handelt. Erstere ist eine Übersicht über die Gliederung und die Beiträge des Buches, die jeweils mit Abstracts beschrieben werden. Letztere dagegen möchte ein eigenständiger Beitrag sein, der die in diesem Band angesprochenen Aspekte in einen gemeinsamen Bezugsrahmen stellt; de facto ist dies aber weniger gut gelungen als im zweiten Buch, zumal hier hauptsächlich eine Wiederholung des früher Gesagten geboten wird. Die Beiträge aus den drei verbleibenden Hauptsektionen sollen im Folgenden kurz charakterisiert werden:
    CIR Concepts - Interactive information retrieval: Bringing the user to a selection state, von Charles Cole et al. (Montréal), konzentriert sich auf den kognitiven Aspekt von Benutzern bei der Interaktion mit den bzw. der Reaktion auf die vom IR-System ausgesandten Stimuli; "selection" bezieht sich dabei auf die Auswahl, die das System den Benutzern abverlangt und die zur Veränderung ihrer Wissensstrukturen beiträgt. - Cognitive overlaps along the polyrepresentation continuum, von Birger Larsen und Peter Ingwersen (Kopenhagen), beschreibt einen auf Ingwersens Principle of Polyrepresentation beruhenden methodischen Ansatz, der dem IR-System ein breiteres Bild des Benutzers bzw. der Dokumente vermittelt als dies bei herkömmlichen, lediglich anfragebasierten Systemen möglich ist. - Integrating approaches to relevance, von Ian Ruthven (Glasgow), analysiert den Relevanzbegriff und schlägt anstelle des gegenwärtig in IR-Systemverwendeten, eindimensionalen Relevanzkonzepts eine multidimensionale Sichtweise vor. - New cognitive directions, von Nigel Ford (Sheffield), führt neue Begriffe ein: Ford schlägt anstelle von information need und information behaviour die Alternativen knowledge need und knowledge behaviour vor.
    CIR Processes - A multitasking framework for cognitive information retrieval, von Amanda Spink und Charles Cole (Australien/Kanada), sieht - im Gegensatz zu traditionellen Ansätzen - die simultane Bearbeitung verschiedener Aufgaben (Themen) während einer Informationssuche als den Normalfall an und analysiert das damit verbundene Benutzerverhalten. - Explanation in information seeking and retrieval, von Pertti Vakkari und Kalervo Järvelin (Tampere), plädiert anhand zweier empirischer Untersuchungen für die Verwendung des aufgabenorientierten Ansatzes ("task") in der IR-Forschung, gerade auch als Bindeglied zwischen nicht ausreichend mit einander kommunizierenden Disziplinen (Informationswissenschaft, Informatik, diverse Sozialwissenschaften). - Towards an alternative information retrieval system for children, von Jamshid Beheshti et al. (Montréal), berichtet über den Stand der IR-Forschung für Kinder und schlägt vor, eine Metapher aus dem Sozialkonstruktivismus (Lernen als soziales Verhandeln) als Gestaltungsprinzip für einschlägige IR-Systeme zu verwenden. CIR Techniques - Implicit feedback: using behavior to infer relevance, von Diane Kelly (North Carolina), setzt sich kritisch mit den Techniken zur Analyse des von Benutzern von IR-Systemen geäußerten Relevance-Feedbacks - explizit und implizit - auseinander. - Educational knowledge domain visualizations, von Peter Hook und Katy Börner (Indiana), beschreibt verschiedene Visualisierungstechniken zur Repräsentation von Wissensgebieten, die "Novizen" bei der Verwendung fachspezifischer IR-Systeme unterstützen sollen. - Learning and training to search, von Wendy Lucas und Heikki Topi (Massachusetts), analysiert, im breiteren Kontext der Information- Seeking-Forschung, Techniken zur Schulung von Benutzern von IRSystemen.
    Sämtliche Beiträge sind von hohem Niveau und bieten anspruchsvolle Lektüre. Verallgemeinert formuliert, fragen sie nach der Verknüpfung zwischen dem breiteren Kontext des Warum und Wie der menschlichen Informationssuche und den technischen bzw. sonstigen Randbedingungen, die die Interaktion zwischen Benutzern und Systemen bestimmen. Natürlich liegt hier kein Hand- oder Lehrbuch vor, sodass man - fairerweise - nicht von einer systematischen Behandlung dieses Themenbereichs oder einem didaktischen Aufbau ausgehen bzw. derlei erwarten darf. Das Buch bietet jedenfalls einen guten und vielfältigen Einstieg und Einblick in dieses interessante Forschungsgebiet. Fachlich einschlägige und größere allgemeine Bibliotheken sollten es daher jedenfalls in ihren Bestand aufnehmen. Schon die Rezension des oben zitierten zweiten Buches des Herausgeber-Duos Spink-Cole enthielt einen kritischen Hinweis auf das dortige Sachregister. Der vorliegende Band erfordert noch stärkere Nerven, denn der hier als "Index" bezeichnete Seitenfüller spottet geradezu jeder Beschreibung, umso mehr, als wir uns in einem informationswissenschaftlichen Kontext befi nden. Was soll man denn tatsächlich mit Einträgen wie "information" anfangen, noch dazu, wenn dazu über 150 verschiedene Seitenzahlen angegeben werden? Ähnlich verhält es sich mit anderen allgemeinen Begriffen wie z.B. "knowledge", "model", "tasks", "use", "users" - allesamt mit einer gewaltigen Menge von Seitenzahlen versehen und damit ohne Wert! Dieses der Leserschaft wenig dienliche Register ist wohl dem Verlag anzulasten, auch wenn die Herausgeber selbst seine Urheber gewesen sein sollten. Davon abgesehen wurde wieder einmal ein solide gefertigter Band vorgelegt, der allerdings wegen seines hohen Preis eher nur institutionelle Käufer ansprechen wird."
    RVK
    ST 270 [Informatik # Monographien # Software und -entwicklung # Datenbanken, Datenbanksysteme, Data base management, Informationssysteme]
  14. Spink, A.; Jansen, B.J.: Web searching : public searching of the Web (2004) 0.07
    0.066589706 = product of:
      0.13317941 = sum of:
        0.047263477 = weight(_text_:und in 2443) [ClassicSimilarity], result of:
          0.047263477 = score(doc=2443,freq=58.0), product of:
            0.14326492 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06459488 = queryNorm
            0.32990265 = fieldWeight in 2443, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2443)
        0.08591593 = weight(_text_:hohen in 2443) [ClassicSimilarity], result of:
          0.08591593 = score(doc=2443,freq=2.0), product of:
            0.44824284 = queryWeight, product of:
              6.939294 = idf(docFreq=116, maxDocs=44421)
              0.06459488 = queryNorm
            0.19167273 = fieldWeight in 2443, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.939294 = idf(docFreq=116, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2443)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: Information - Wissenschaft und Praxis 56(2004) H.1, S.61-62 (D. Lewandowski): "Die Autoren des vorliegenden Bandes haben sich in den letzten Jahren durch ihre zahlreichen Veröffentlichungen zum Verhalten von Suchmaschinen-Nutzern einen guten Namen gemacht. Das nun erschienene Buch bietet eine Zusammenfassung der verstreut publizierten Aufsätze und stellt deren Ergebnisse in den Kontext eines umfassenderen Forschungsansatzes. Spink und Jansen verwenden zur Analyse des Nutzungsverhaltens query logs von Suchmaschinen. In diesen werden vom Server Informationen protokolliert, die die Anfragen an diesen Server betreffen. Daten, die aus diesen Dateien gewonnen werden können, sind unter anderem die gestellten Suchanfragen, die Adresse des Rechners, von dem aus die Anfrage gestellt wurde, sowie die aus den Trefferlisten ausgewählten Dokumente. Der klare Vorteil der Analyse von Logfiles liegt in der Möglichkeit, große Datenmengen ohne hohen personellen Aufwand erheben zu können. Die Daten einer Vielzahl anonymer Nutzer können analysiert werden; ohne dass dabei die Datenerhebung das Nutzerverhalten beeinflusst. Dies ist bei Suchmaschinen von besonderer Bedeutung, weil sie im Gegensatz zu den meisten anderen professionellen Information-Retrieval-Systemen nicht nur im beruflichen Kontext, sondern auch (und vor allem) privat genutzt werden. Das Bild des Nutzungsverhaltens wird in Umfragen und Laboruntersuchungen verfälscht, weil Nutzer ihr Anfrageverhalten falsch einschätzen oder aber die Themen ihrer Anfragen nicht nennen möchten. Hier ist vor allem an Suchanfragen, die auf medizinische oder pornographische Inhalte gerichtet sind, zu denken. Die Analyse von Logfiles ist allerdings auch mit Problemen behaftet: So sind nicht alle gewünschten Daten überhaupt in den Logfiles enthalten (es fehlen alle Informationen über den einzelnen Nutzer), es werden keine qualitativen Informationen wie etwa der Grund einer Suche erfasst und die Logfiles sind aufgrund technischer Gegebenheiten teils unvollständig. Die Autoren schließen aus den genannten Vor- und Nachteilen, dass sich Logfiles gut für die Auswertung des Nutzerverhaltens eignen, bei der Auswertung jedoch die Ergebnisse von Untersuchungen, welche andere Methoden verwenden, berücksichtigt werden sollten.
    Den Autoren wurden von den kommerziellen Suchmaschinen AltaVista, Excite und All the Web größere Datenbestände zur Verfügung gestellt. Die ausgewerteten Files umfassten jeweils alle an die jeweilige Suchmaschine an einem bestimmten Tag gestellten Anfragen. Die Daten wurden zwischen 199'] und 2002 erhoben; allerdings liegen nicht von allen Jahren Daten von allen Suchmaschinen vor, so dass einige der festgestellten Unterschiede im Nutzerverhalten sich wohl auf die unterschiedlichen Nutzergruppen der einzelnen Suchmaschinen zurückführen lassen. In einem Fall werden die Nutzergruppen sogar explizit nach den Suchmaschinen getrennt, so dass das Nutzerverhalten der europäischen Nutzer der Suchmaschine All the Web mit dem Verhalten der US-amerikanischen Nutzer verglichen wird. Die Analyse der Logfiles erfolgt auf unterschiedlichen Ebenen: Es werden sowohl die eingegebenen Suchbegriffe, die kompletten Suchanfragen, die Such-Sessions und die Anzahl der angesehenen Ergebnisseiten ermittelt. Bei den Suchbegriffen ist besonders interessant, dass die Spannbreite der Informationsbedürfnisse im Lauf der Jahre deutlich zugenommen hat. Zwar werden 20 Prozent aller eingegebenen Suchbegriffe regelmäßig verwendet, zehn Prozent kamen hingegen nur ein einziges Mal vor. Die thematischen Interessen der Suchmaschinen-Nutzer haben sich im Lauf der letzten Jahre ebenfalls gewandelt. Während in den Anfangsjahren viele Anfragen aus den beiden Themenfeldern Sex und Technologie stammten, gehen diese mittlerweile zurück. Dafür nehmen Anfragen im Bereich E-Commerce zu. Weiterhin zugenommen haben nicht-englischsprachige Begriffe sowie Zahlen und Akronyme. Die Popularität von Suchbegriffen ist auch saisonabhängig und wird durch aktuelle Nachrichten beeinflusst. Auf der Ebene der Suchanfragen zeigt sich weiterhin die vielfach belegte Tatsache, dass Suchanfragen in Web-Suchmaschinen extrem kurz sind. Die durchschnittliche Suchanfrage enthält je nach Suchmaschine zwischen 2,3 und 2,9 Terme. Dies deckt sich mit anderen Untersuchungen zu diesem Thema. Die Länge der Suchanfragen ist in den letzten Jahren leicht steigend; größere Sprünge hin zu längeren Anfragen sind jedoch nicht zu erwarten. Ebenso verhält es sich mit dem Einsatz von Operatoren: Nur etwa in jeder zehnten Anfrage kommen diese vor, wobei die Phrasensuche am häufigsten verwendet wird. Dass die SuchmaschinenNutzer noch weitgehend als Anfänger angesehen werden müssen, zeigt sich auch daran, dass sie pro Suchanfrage nur drei oder vier Dokumente aus der Trefferliste tatsächlich sichten.
    In Hinblick auf die Informationsbedürfnisse ergibt sich eine weitere Besonderheit dadurch, dass Suchmaschinen nicht nur für eine Anfrageform genutzt werden. Eine "Spezialität" der Suchmaschinen ist die Beantwortung von navigationsorientierten Anfragen, beispielsweise nach der Homepage eines Unternehmens. Hier wird keine Menge von Dokumenten oder Fakteninformation verlangt; vielmehr ist eine Navigationshilfe gefragt. Solche Anfragen nehmen weiter zu. Die Untersuchung der Such-Sessions bringt Ergebnisse über die Formulierung und Bearbeitung der Suchanfragen zu einem Informationsbedürfnis zutage. Die Sessions dauern weit überwiegend weniger als 15 Minuten (dies inklusive Sichtung der Dokumente!), wobei etwa fünf Dokumente angesehen werden. Die Anzahl der angesehenen Ergebnisseiten hat im Lauf der Zeit abgenommen; dies könnte darauf zurückzuführen sein, dass es den Suchmaschinen im Lauf der Zeit gelungen ist, die Suchanfragen besser zu beantworten, so dass sich brauchbare Ergebnisse öfter bereits auf der ersten Ergebnisseite finden. Insgesamt bestätigt sich auch hier das Bild vom wenig fortgeschrittenen Suchmaschinen-Nutzer, der nach Eingabe einer unspezifischen Suchanfrage schnelle und gute Ergebnisse erwartet. Der zweite Teil des Buchs widmet sich einigen der bei den Suchmaschinen-Nutzern populären Themen und analysiert das Nutzerverhalten bei solchen Suchen. Dabei werden die eingegebenen Suchbegriffe und Anfragen untersucht. Die Bereiche sind E-Commerce, medizinische Themen, Sex und Multimedia. Anfragen aus dem Bereich E-Commerce sind in der Regel länger als allgemeine Anfragen. Sie werden seltener modifiziert und pro Anfrage werden weniger Dokumente angesehen. Einige generische Ausdrücke wie "shopping" werden sehr häufig verwendet. Der Anteil der E-Commerce-Anfragen ist hoch und die Autoren sehen die Notwendigkeit, spezielle Suchfunktionen für die Suche nach Unternehmenshomepages und Produkten zu erstellen bzw. zu verbessern. Nur zwischen drei und neun Prozent der Anfragen beziehen sich auf medizinische Themen, der Anteil dieser Anfragen nimmt tendenziell ab. Auch der Anteil der Anfragen nach sexuellen Inhalten dürfte mit einem Wert zwischen drei und knapp 1'7 Prozent geringer ausfallen als allgemein angenommen.
    Der relativ hohe Wert von 17 Prozent stammt allerdings aus dem Jahr 1997; seitdem ist eine deutliche Abnahme zu verzeichnen. Betont werden muss außerdem, dass Anfragen nach sexuellen Inhalten nicht mit denen nach Pornographie gleichzusetzen sind. Die Suche nach Multimedia-Inhalten hat sich von den allgemeinen Suchinterfaces der Suchmaschinen hin zu speziellen Suchmasken verschoben, die inzwischen von allen großen Suchmaschinen angeboten werden. Die wichtigste Aussage aus den untersuchten Daten lautet, dass die Suche nach Multimedia-Inhalten komplexer und vor allem interaktiver ist als die übliche Websuche. Die Anfragen sind länger und enthalten zu einem deutlich größeren Teil Operatoren. Bei der Bildersuche stellen weiterhin sexuell orientierte Anfragen den höchsten Anteil. Bei der Bilderund Video-Suche sind die Anfragen deutlich länger als bei der regulären Suche; bei der Audio-Suche sind sie dagegen kürzer. Das vorliegende Werk bietet die bisher umfassendste Analyse des Nutzerverhaltens bezüglich der Web-Suche; insbesondere wurden bisher keine umfassenden, auf längere Zeiträume angelegten Studien vorgelegt, deren Ergebnisse wie im vorliegenden Fall direkt vergleichbar sind. Die Ergebnisse sind valide und ermöglichen es Suchmaschinen-Anbietern wie auch Forschern, künftige Entwicklungen stärker als bisher am tatsächlichen Verhalten der Nutzer auszurichten. Das Buch beschränkt sich allerdings auf die US-amerikanischen Suchmaschinen und deren Nutzer und bezieht nur bei All the Web die europäischen Nutzer ein. Insbesondere die Frage, ob die europäischen oder auch deutschsprachigen Nutzer anders suchen als die amerikanischen, bleibt unbeantwortet. Hier wären weitere Forschungen zu leisten."
  15. Dewey-Dezimalklassifikation : DDC 22 (2005) 0.06
    0.063540936 = product of:
      0.12708187 = sum of:
        0.04116594 = weight(_text_:und in 1302) [ClassicSimilarity], result of:
          0.04116594 = score(doc=1302,freq=44.0), product of:
            0.14326492 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06459488 = queryNorm
            0.2873414 = fieldWeight in 1302, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1302)
        0.08591593 = weight(_text_:hohen in 1302) [ClassicSimilarity], result of:
          0.08591593 = score(doc=1302,freq=2.0), product of:
            0.44824284 = queryWeight, product of:
              6.939294 = idf(docFreq=116, maxDocs=44421)
              0.06459488 = queryNorm
            0.19167273 = fieldWeight in 1302, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.939294 = idf(docFreq=116, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1302)
      0.5 = coord(2/4)
    
    Content
    Zum ersten Mal liegt die Dewey Decimal Classification (DDC) auf Deutsch vor. Die Deutsche Bibliothek und die Fachhochschule Köln haben im Rahmen eines von der Deutschen Forschungsgemeinschaft finanzierten Projekts die 2003 erschienene Standard Edition der DDC 22 übersetzt und damit die Grundlage für die Nutzung der DDC im deutschsprachigen Raum geschaffen. In vier Bänden verzeichnet die DDC in etwa 60.000 Hauptklassen das gesamte Weltwissen in einer hierarchisch gegliederten Form, ergänzt durch umfangreiche Hilfstafeln für alle geografischen, ethnografischen und sprachlichen Einheiten und ein alphabetisches Register mit etwa 80.000 Einträgen.
    Footnote
    Rez. in: Informationsmittel für Bibliotheken (Online-Ausgabe) 06-2-176 (H. Wiesenmüller): "Die erste Version der Dewey Decimal Classification (DDC) erschien 1876 - bis zur ersten deutschen Ausgabe hat es mithin fast 130 Jahre gedauert, obwohl die DDC schon in mehr als 30 Sprachen vorliegt. Dies zeigt deutlich, wie gering das Interesse an dieser Klassifikation im deutschsprachigen Raum noch bis vor kurzem gewesen ist. Kein Wunder, wurde doch der DDC - häufig sehr pauschal - eine rein amerikanische Weltsicht und ein antiquiertes Wissenschaftsbild unterstellt. Nichtsdestoweniger war der Einsatz einer deutschen DDC bereits 1998 von der Expertengruppe Klassifikation empfohlen worden. Eine Machbarkeitsstudie aus dem Jahr 2000 unterstützte diese Beurteilung und machte konkrete Vorgaben für die praktische Umsetzung. Zu den Vorteilen der DDC gehört ihre weltweite Verbreitung (wobei einschränkend zu sagen ist, daß die meisten 'academic libraries' in den USA nicht die DDC, sondern die Library of Congress Classification anwenden) sowie ihre kontinuierliche Pflege und dadurch verhältnismäßig hohe Aktualität, die sich freilich i.d.R. erst auf den tieferen Ebenen zeigt. In jüngerer Zeit hat sie außerdem große Bedeutung bei der sachlichen Erschließung von Online-Ressourcen gewonnen und wird von vielen Dokumentenservern und Fachportalen zumindest für ein grobes Klassifizieren eingesetzt. Die seit Oktober 2005 vorliegende deutsche Übersetzung der 22. Standard Edition von 2003 ist das Ergebnis eines an der Fachhochschule Köln und der Deutschen Nationalbibliothek (DNB) angesiedelten und von der Deutschen Forschungsgemeinschaft (DFG) finanzierten Projekts (Laufzeit: 2002-2005). Das Projekt wurde von einer vom Standardisierungsausschuß eingesetzten Expertengruppe begleitet; über das Konsortium DDC Deutsch waren außerdem mehrere deutsche Bibliotheksverbünde sowie der Österreichische Bibliothekenverbund und die Schweizerische Landesbibliothek eingebunden.
    Die hier anzuzeigende Druckausgabe wurde mit Hilfe eines speziell dafür entwickelten, datenbankgestützten Editionssystems erstellt. Parallel wurde ein Online-Dienst ('Melvil') aufgebaut, der im Vergleich zur Printversion mancherlei Vorteile besitzt. So wird Melvil halbjährlich aktualisiert und erweitert: Dabei werden nicht nur die amerikanischen Ergänzungslieferungen eingespielt, sondern auch synthetische, d.h. 'zusammengebaute' Notationen aus der praktischen Anwendung der DNB. Auch die Suchfunktionalitäten gehen deutlich über die Möglichkeiten der Druckausgabe hinaus - nicht zuletzt auf Grund einer sukzessiven Anreicherung mit Suchbegriffen aus der Schlagwortnormdatei (SWD) im Rahmen eines weiteren DFG-Projekts ('CrissCross'). So könnte man sich durchaus fragen, warum überhaupt eine Druckausgabe produziert wurde. Diese hat jedoch den unschätzbaren Vorteil, mit einer einmaligen Zahlung (wenn auch eines stattlichen Preises!) abgegolten zu sein, während für die Nutzung von Melvil jährliche Lizenzgebühren anfallen. Trotz ihres Umfangs von zusammen über 4000 Seiten sind die vier Bände vom Gewicht her erfreulich leicht ausgefallen. Das sehr dünne Papier hat allerdings den Nachteil, daß der Text der Rückseite deutlich durchschlägt. Als ausgesprochen gelungen empfand die Rezensentin die Umschlaggestaltung, bei der das klassische Dunkelgrün der DDC-Ausgaben mit dem bekannten (um nicht zu sagen: berüchtigten) Orange des Saur-Verlags kombiniert wurde. Der erste Band enthält - neben verschiedenen Vorworten und Begleittexten - eine kurz gefaßte Einführung in die DDC (im Original: Introduction to Dewey Decimal Classification; im Deutschen etwas unglücklich wiedergegeben als Einleitung in die Dewey-Dezimalklassifikation), die Praxishilfe und die Hilfstafeln. In der Praxishilfe (im Original: Manual) werden schwierige Fälle erläutert, z.B. die Abgrenzung inhaltlich eng verwandter Klassen. Obwohl die Praxishilfe für die 22. Auflage komplett überarbeitet wurde, ist der Text noch immer recht schwer zu lesen. In der deutschen Fassung ergeben sich dabei z.T. komplizierte Schachtelsätze, die sich über fünf oder gar sechs Zeilen erstrecken.3 Die Haupttafeln finden sich im zweiten und dritten Band, das Register im abschließenden vierten Band.
    Wer die deutsche DDC das erste Mal in die Hand nimmt, wird vielleicht überrascht sein vom hohen Grad der Übereinstimmung mit dem amerikanischen Vorbild. Dies zeigt sich nicht nur im identischen Aufbau, sondern auch im bis ins kleinste Detail kopierten Layout. Dazu muß man wissen, daß OCLC als Copyright-Inhaber für Übersetzungen der DDC äußerst strenge Vorgaben macht und deren Einhaltung genauestens kontrolliert. Das Projektteam arbeitete daher in einem sehr engen 'Korsett' und besaß nur wenig Spielraum für Anpassungen an deutsche Gepflogenheiten und das Setzen eigener Akzente. Die gewaltige Übersetzungsleistung, die im Laufe des Projekts erbracht wurde, zerfällt in zwei Bereiche: Zum einen mußten die Klassenbenennungen und Registerbegriffe übertragen werden, zum anderen die Erläuterungen und Anweisungen (sozusagen die 'Metatexte'). Beim ersten Teil der Aufgabe wurde das Team von ca. 70 Fachreferenten unterstützt, wobei man sich bemüht hat, jedes Fach doppelt zu besetzen. Durch dieses Verfahren ist eine ausgesprochen gute Qualität gewährleistet. Wieviel Arbeit in diesem Bereich geleistet wurde, läßt sich schon erahnen, wenn man nur die obersten 1000 Klassen der DDC (d.h. die ersten drei Ebenen) betrachtet: Diese wurden 2003 erstmals in deutscher Fassung herausgegeben. In der zweiten Auflage der kleinen Broschüre, die zum Ende des Übersetzungsprojekts erschien, waren in mehr als der Hälfte der Fälle die Klassenbenennungen geändert worden!
    Issue
    Begründet von Melvil Dewey. Herausgegeben von Joan S. Mitchell unter Mitwirkung von Julianne Beall, Giles Martin, Winton E. Matthews, Jr. und Gregory R. New. Deutsche Ausgabe.
  16. Braeckman, J.: ¬The integration of library information into a campus wide information system (1996) 0.06
    0.062031493 = product of:
      0.24812597 = sum of:
        0.24812597 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.24812597 = score(doc=729,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.5450528 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=729)
      0.25 = coord(1/4)
    
    Abstract
    Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven
  17. Chang, S.-F.; Smith, J.R.; Meng, J.: Efficient techniques for feature-based image / video access and manipulations (1997) 0.06
    0.062031493 = product of:
      0.24812597 = sum of:
        0.24812597 = weight(_text_:java in 756) [ClassicSimilarity], result of:
          0.24812597 = score(doc=756,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.5450528 = fieldWeight in 756, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=756)
      0.25 = coord(1/4)
    
    Abstract
    Describes 2 research projects aimed at studying the parallel issues of image and video indexing, information retrieval and manipulation: VisualSEEK, a content based image query system and a Java based WWW application supporting localised colour and spatial similarity retrieval; and CVEPS (Compressed Video Editing and Parsing System) which supports video manipulation with indexing support of individual frames from VisualSEEK and a hierarchical new video browsing and indexing system. In both media forms, these systems address the problem of heterogeneous unconstrained collections
  18. Lo, M.L.: Recent strategies for retrieving chemical structure information on the Web (1997) 0.06
    0.062031493 = product of:
      0.24812597 = sum of:
        0.24812597 = weight(_text_:java in 3611) [ClassicSimilarity], result of:
          0.24812597 = score(doc=3611,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.5450528 = fieldWeight in 3611, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3611)
      0.25 = coord(1/4)
    
    Abstract
    Discusses various structural searching methods available on the Web. some databases such as the Brookhaven Protein Database use keyword searching which does not provide the desired substructure search capabilities. Others like CS ChemFinder and MDL's Chemscape use graphical plug in programs. Although plug in programs provide more capabilities, users first have to obtain a copy of the programs. Due to this limitation, Tripo's WebSketch and ACD Interactive Lab adopt a different approach. Using JAVA applets, users create and display a structure query of the molecule on the web page without using other software. The new technique is likely to extend itself to other electronic publications
  19. Kirschenbaum, M.: Documenting digital images : textual meta-data at the Blake Archive (1998) 0.06
    0.062031493 = product of:
      0.24812597 = sum of:
        0.24812597 = weight(_text_:java in 4287) [ClassicSimilarity], result of:
          0.24812597 = score(doc=4287,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.5450528 = fieldWeight in 4287, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4287)
      0.25 = coord(1/4)
    
    Abstract
    Describes the work undertaken by the Wiliam Blake Archive, Virginia University, to document the metadata tools for handling digital images of illustrations accompanying Blake's work. Images are encoded in both JPEG and TIFF formats. Image Documentation (ID) records are slotted into that portion of the JPEG file reserved for textual metadata. Because the textual content of the ID record now becomes part of the image file itself, the documentary metadata travels with the image even it it is downloaded from one file to another. The metadata is invisible when viewing the image but becomes accessible to users via the 'info' button on the control panel of the Java applet
  20. Priss, U.: ¬A graphical interface for conceptually navigating faceted thesauri (1998) 0.06
    0.062031493 = product of:
      0.24812597 = sum of:
        0.24812597 = weight(_text_:java in 658) [ClassicSimilarity], result of:
          0.24812597 = score(doc=658,freq=2.0), product of:
            0.4552329 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06459488 = queryNorm
            0.5450528 = fieldWeight in 658, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=658)
      0.25 = coord(1/4)
    
    Abstract
    This paper describes a graphical interface for the navigation and construction of faceted thesauri that is based on formal concept analysis. Each facet of a thesaurus is represented as a mathematical lattice that is further subdivided into components. Users can graphically navigate through the Java implementation of the interface by clicking on terms that connect facets and components. Since there are many applications for thesauri in the knowledge representation field, such a graphical interface has the potential of being very useful

Languages

  • d 32
  • m 3
  • nl 1
  • More… Less…

Types

  • a 773
  • m 309
  • el 102
  • s 92
  • i 21
  • n 17
  • x 12
  • r 10
  • b 7
  • ? 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications