Search (13243 results, page 5 of 663)

  1. Pieschel, K.: Einsatz von EDV-Bibliothekssystemen in Bibliotheken : Ergebnisse der DBI-Umfrage von 1998 (1999) 0.09
    0.08520774 = product of:
      0.34083095 = sum of:
        0.34083095 = weight(_text_:horizon in 3380) [ClassicSimilarity], result of:
          0.34083095 = score(doc=3380,freq=2.0), product of:
            0.49245608 = queryWeight, product of:
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.06289136 = queryNorm
            0.6921043 = fieldWeight in 3380, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.0625 = fieldNorm(doc=3380)
      0.25 = coord(1/4)
    
    Content
    Enthält Daten über den Einsatz der Bibliothekssysteme: BIBLIOTHECA(WIN), Allegro, BIBLIOTHECA III, SISIS, BIAP, BIBLIS, Library 2000, BBCOM, URICA, BIBDIA, BIS-LOK, BBV, BIS, DATALIBRIS, MERITUS, Bibliomatik, BIBLIOTHECA-Light, WIN-BIAP, BASIS, BIS (EXL), DOBIS/LIBIS, BIBLOS, BIWES, COMPRIS, HORIZON, BIBLIX, LITTERA, BIBAS, BUBIS, COMBO, EASYLIB, LARS II, BISMAS, URICA, aDIS/BMS, FAUST, PICA, TINLIB, LIDOS, AUGIAS, CDS/ISIS, CTO-BIBLIO, MIDOS
  2. Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000) 0.08
    0.080234304 = product of:
      0.16046861 = sum of:
        0.120791145 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
          0.120791145 = score(doc=6206,freq=2.0), product of:
            0.4432273 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06289136 = queryNorm
            0.2725264 = fieldWeight in 6206, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
        0.03967747 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
          0.03967747 = score(doc=6206,freq=22.0), product of:
            0.13948669 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06289136 = queryNorm
            0.28445345 = fieldWeight in 6206, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6206)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
  3. Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000) 0.08
    0.07791076 = product of:
      0.15582152 = sum of:
        0.10353527 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
          0.10353527 = score(doc=1729,freq=2.0), product of:
            0.4432273 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06289136 = queryNorm
            0.23359407 = fieldWeight in 1729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
        0.05228625 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
          0.05228625 = score(doc=1729,freq=52.0), product of:
            0.13948669 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06289136 = queryNorm
            0.3748476 = fieldWeight in 1729, product of:
              7.2111025 = tf(freq=52.0), with freq of:
                52.0 = termFreq=52.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1729)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
    Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
    Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen
  4. Pianos, T.: "Alles sofort, jederzeit und kostenlos" : Bericht über die 9. InetBib-Tagung in Münster (2006) 0.08
    0.07740308 = product of:
      0.15480617 = sum of:
        0.10353527 = weight(_text_:java in 195) [ClassicSimilarity], result of:
          0.10353527 = score(doc=195,freq=2.0), product of:
            0.4432273 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06289136 = queryNorm
            0.23359407 = fieldWeight in 195, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
        0.051270887 = weight(_text_:und in 195) [ClassicSimilarity], result of:
          0.051270887 = score(doc=195,freq=50.0), product of:
            0.13948669 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06289136 = queryNorm
            0.3675683 = fieldWeight in 195, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=195)
      0.5 = coord(2/4)
    
    Abstract
    Die 9. InetBib-Tagung im 10. Jubiläumsjahr war insgesamt eine sehr positiv gestimmte Veranstaltung. Großer Optimismus bei den Vorträgen wird zwangsläufig von ein wenig Skepsis aus dem Publikum begleitet, aber wenn in den nächsten Jahren nur ein Teil der Visionen und projektierten Dienstleistungen Wirklichkeit wird, könnten viele Bibliotheken als nutzerorientierte Innovationszentren sehr gut dastehen. Die Auswahl des Ortes für die diesjährige Tagung war gelungen. Auch wenn die Räumlichkeiten des Hörsaalgebäudes maximal mit 1970er-Jahre-Charme beeindruckten, so wurde dies vielfältig ausgeglichen durch den Charme des Organisationskomitees sowie durch den Rahmen für die Abendveranstaltung im Schlossgarten. Beate Träger (ULB Münster) verwies in ihren Eröffnungsgrußworten darauf, dass man mit einem geisteswissenschaftlichen Hintergrund zu Zeiten der ersten InetBib 1996 noch die ersten Gehversuche mit E-Mails auf dem heimischen Rechner machte, während 10 Jahre später das Leben und Arbeiten in großem Maße von den Möglichkeiten des Internets geprägt ist. Vieles scheint derzeit möglich, aber es gibt auch viele Einschränkungen durch technische und lizenzrechtliche Hürden. Aber man muss ja nicht die Hürden in den Mittelpunkt stellen, und so schloss Beate Tröger ihre Eröffnungsworte mit einem Zitat aus dem zugegebenermaßen unbescheidenen digitalen Traum von Martin Grötschel "Ich will alles und zwar sofort, jederzeit, überall und kostenlos zur Verfügung haben", um damit den Rahmen des Möglichen dieser Tagung abzustecken.
    Content
    Darin auch Aussagen zur Zukunft der Kataloge: "Peter Kostädt (USB Köln) beschrieb "Die Zukunft des OPAC, indem er den OPAC zumindest verbal abschaffte und seine Planungen für ein umfassendes, nutzerfreundliches (das Wort wird zu oft missbraucht, aber hier scheint es wirklich zu passen) Dienstleistungsangebot präsentierte. Konsequent soll dabei alles was stört (Barrieren, Java-Skript, Cookies, Systemanforderungen, Timeouts) über Bord geworfen werden und durch banale Dinge ersetzt werden, die Nutzerinnen und Nutzer oft einfordern, aber selten bekommen (schnelle Antwortzeiten, einfache Oberfläche, Hilfestellung bei Fehlern in der Suche, Rechtschreibkorrektur, Ranking nach auswählbaren Kriterien, Tools zur Verfeinerung der Suche, Zusatzinformationen wie Cover, Inhaltsverzeichnis, Rezensionen und schließlich Personalisierung und Alert-Dienste). Schön auch in diesem Zusammenhang die Randbemerkung zu RSS-Feeds: "Bibliothekare wissen meist nicht, was das Logo bedeutet und lassen sich dann durch die Nutzer belehren." Ziel ist also eine serviceorientierte Architektur - und wir warten gespannt auf die Umsetzung." (S.1278-1279)
    sowie zur Wikipedia: ""Wikipedia als Referenzorgan" hieß der Beitrag von Jacob Voß (Wikimedia Organisation), und nach eigenen Worten hat Voß sich lange gesträubt, einen solchen Vortrag zu halten. Sehr offen wies er auf mögliche Problemfelder bei der Benutzung von Wikipedia als Referenzorgan hin. (Böse Menschen können ziemlich leicht falsche und despektierliche Dinge unterbringen, die bis zu einer nächsten Korrektur für alle so zu lesen sind). Eine andere Erkenntnis lautet: "Es gibt viele kleine Dörfer in Deutschland.", d.h., es gibt auch viele selbsternannte Experten, die die Dorfchroniken aufzeichnen - oftmals mit hohem Sachverstand und guter Recherche, oft genug aber auch mit mehr Leidenschaft als Sachkenntnis. Die Zahlen sagen, dass Wikipedia viel genutzt wird: "Wikipedia ist unter den TOP 15 der weltweiten Seitenaufrufe", "95% der Schülerinnen und Schüler nutzen Wikipedia". Man mag dies beklagen und auf (vermeintliche) Vorzüge gedruckter Expertenlexika hinweisen oder man kann ein paar hilfreiche Tipps des Vortrags zum sinnvollen Umgang mit der Wikipedia entgegen nehmen und diese Erkenntnisse streuen. Zur Überlegenheit anderer Lexika sei nur soviel gesagt: Die meisten von uns werden von dem Vergleich zwischen Wikipedia und der Encyclopedia Britannica gehört haben, der für Wikipedia gar nicht so schlecht ausfiel, u.a. deshalb, weil auch in der Encyclopedia eine Reihe von sachlichen Fehlern gefunden wurden. Beachten sollte man zudem folgende Hinweise: Einige Artikel in Wikipedia sind als exzellent bzw. lesenswert ausgezeichnet. Bei diesen Artikeln kann man von einem weitreichenden Prüfprozess ausgehen. Ferner gibt es gesichtete und geprüfte Versionen, die zumindest frei von Vandalismus und sachlichen Fehlern sind. Abgesehen von derartigen Auszeichnungen korreliert die Qualität der Artikel einer Untersuchung zufolge wohl ganz allgemein mit der Aufmerksamkeit, die einem bestimmten Thema zuteil wird und der entsprechenden Autorenzahl. Ausnahmen mögen hier allerdings die Regel bestätigen. Trotzdem kann man bei den meisten Artikeln, an denen viele Personen mitgearbeitet haben, auf eine gewisse Qualität schließen. Voß rät dazu, sich die Versionsgeschichte und Autoren von Einträgen genauer anzusehen, um daraus entsprechende Schlüsse auf die Qualität der Beiträge zu ziehen. Verwiesen sei auch auf das richtige Zitieren von Wikipedia-Artikeln."
  5. Albrechtsen, H.; Hjoerland, B.: Toward a new horizon in information science : domain analysis (1995) 0.08
    0.07531372 = product of:
      0.30125487 = sum of:
        0.30125487 = weight(_text_:horizon in 2341) [ClassicSimilarity], result of:
          0.30125487 = score(doc=2341,freq=4.0), product of:
            0.49245608 = queryWeight, product of:
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.06289136 = queryNorm
            0.6117396 = fieldWeight in 2341, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2341)
      0.25 = coord(1/4)
    
    Abstract
    This article is a programmatic article, which formulates a new approach to information science (IS): domain analysis. This approach states that the most fruitful horizon for IS is to study the knowledge-domains as thought or discourse communities, which are parts of society's division of labor. The article is also a review article, providing a multidisciplinary description of research, illuminating this theoretical view. The first section presents contemporary research in IS, sharing the fundamental viewpoint that IS should be seen as a social rather than as a purely mental discipline. In addition, important predecessors to this view are mentioned and the possibilities as well as the limitations of their approaches are discussed. The second section describes recent transdisciplinary tendencies in the understanding of knowledge. In bordering disciplines to IS, such as educational research, psychology, linguistics, and the philosophy of science, an important new view of knowledge is appearing in the 1990s. This new view of knowledge stresses the social ecological, and content-oriented nature of knowledge. This is opposed to the more formal, computer-like approaches that dominated in the 1980s. The third section compares domain-analysis to other major approaches in IS, such as the cognitive approach. The final section outlines important problems to be investigates, such as how different knowledge-doamins affect the informational value of different subject access points in databases
  6. Savolainen, R.: Source preferences in the context of seeking problem-specific information (2008) 0.08
    0.07531372 = product of:
      0.30125487 = sum of:
        0.30125487 = weight(_text_:horizon in 3034) [ClassicSimilarity], result of:
          0.30125487 = score(doc=3034,freq=4.0), product of:
            0.49245608 = queryWeight, product of:
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.06289136 = queryNorm
            0.6117396 = fieldWeight in 3034, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3034)
      0.25 = coord(1/4)
    
    Abstract
    The study focuses on the ways in which people define their source preferences in the context of seeking problem-specific information for non-work purposes. The conceptual framework draws on two major concepts, that is, information source horizon and information pathways. The former denotes the ways information sources are mapped in preference order in an imaginary field, while information pathways refers to the sequences in which sources placed on the information source horizon are actually used. The empirical part of the study draws on semi-structured interviews with 18 individuals active in environmental issues. Human sources and the Internet were preferred most strongly in seeking for problem-based information. The major source preferences were content of information, and availability and accessibility. Usability of information sources and user characteristics were mentioned less frequently as preference criteria. Typically, information pathways consisted of the use of 3-4 sources. On average, human and networked sources were favored in the early phases of information seeking. Printed media such as magazines and organizational sources were often used to complement information received from human sources and the Internet. However, the source preferences varied considerably, depending on the requirements of the problem at hand.
  7. Leydesdorff, L.; Johnson, M.W.; Ivanova, I.: Toward a calculus of redundancy : signification, codification, and anticipation in cultural evolution (2018) 0.08
    0.07531372 = product of:
      0.30125487 = sum of:
        0.30125487 = weight(_text_:horizon in 463) [ClassicSimilarity], result of:
          0.30125487 = score(doc=463,freq=4.0), product of:
            0.49245608 = queryWeight, product of:
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.06289136 = queryNorm
            0.6117396 = fieldWeight in 463, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.0390625 = fieldNorm(doc=463)
      0.25 = coord(1/4)
    
    Abstract
    This article considers the relationships among meaning generation, selection, and the dynamics of discourse from a variety of perspectives ranging from information theory and biology to sociology. Following Husserl's idea of a horizon of meanings in intersubjective communication, we propose a way in which, using Shannon's equations, the generation and selection of meanings from a horizon of possibilities can be considered probabilistically. The information-theoretical dynamics we articulate considers a process of meaning generation within cultural evolution: information is imbued with meaning, and through this process, the number of options for the selection of meaning in discourse proliferates. The redundancy of possible meanings contributes to a codification of expectations within the discourse. Unlike hardwired DNA, the codes of nonbiological systems can coevolve with the variations. Spanning horizons of meaning, the codes structure the communications as selection environments that shape discourses. Discursive knowledge can be considered as meta-coded communication that enables us to translate among differently coded communications. The dynamics of discursive knowledge production can thus infuse the historical dynamics with a cultural evolution by adding options, that is, by increasing redundancy. A calculus of redundancy is presented as an indicator whereby these dynamics of discourse and meaning may be explored empirically.
  8. White, H.S.: Librarians and information specialists on the information superhighway (1994) 0.07
    0.07455677 = product of:
      0.29822707 = sum of:
        0.29822707 = weight(_text_:horizon in 1720) [ClassicSimilarity], result of:
          0.29822707 = score(doc=1720,freq=2.0), product of:
            0.49245608 = queryWeight, product of:
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.06289136 = queryNorm
            0.60559124 = fieldWeight in 1720, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1720)
      0.25 = coord(1/4)
    
    Abstract
    As governmental, academic, and corporate organizations prepare themselves for accessing the information superhighway, it is becoming clear that there has been little planning about what to do about the huge quantities of unevaluated and perhaps unwanted information which threatens to engulf the unsuspecting user. The development of information intermediaries, who can be trusted to shield the end user from information he does not want and that only will waste his time, is already on the horizon. Discusses the role that librarians and information professionals could play in this process of giving the user the important and shielding him from the trivial
  9. Valauskas, E.J.: Libraries as multimedia machines : the impossibility of digital collections (1995) 0.07
    0.07455677 = product of:
      0.29822707 = sum of:
        0.29822707 = weight(_text_:horizon in 3741) [ClassicSimilarity], result of:
          0.29822707 = score(doc=3741,freq=2.0), product of:
            0.49245608 = queryWeight, product of:
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.06289136 = queryNorm
            0.60559124 = fieldWeight in 3741, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3741)
      0.25 = coord(1/4)
    
    Abstract
    The concept of a digital library has been stimulated by recent advances in computing technology. These developments hold the promise of transforming libraries into interactive centres of learning and research by virtue of inexpensive digital storage, easy-to-use search engines, and powerful computing hardware. However, libraries are handicapped in their move to digital collections by enormous legal problems in securing rights to much of the current literature. Solutions to this dilemma are not on the immediate horizon, but eventually will include changes in the current copyright law and technological arrangements to protect the interests of the owners of intellectual property. Suggests that librarians might find a more valuable role not in getting information to an electronic state, but in being its organizers and facilitators
  10. Chatterjee, A.; Choudhury, G.G.: CC7: an evaluation of its development in three planes (1989) 0.07
    0.07455677 = product of:
      0.29822707 = sum of:
        0.29822707 = weight(_text_:horizon in 517) [ClassicSimilarity], result of:
          0.29822707 = score(doc=517,freq=2.0), product of:
            0.49245608 = queryWeight, product of:
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.06289136 = queryNorm
            0.60559124 = fieldWeight in 517, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.0546875 = fieldNorm(doc=517)
      0.25 = coord(1/4)
    
    Abstract
    Reviews the new edition of CC, which has incorporated most of the developments in the idea plane and notational plane reported in the literature during the previous 20 years, making it a 'freely faceted' scheme. However, some errors have crept in which are bound to create problems for the users. Both these aspects have been critically examined here drawing comparison, where necessary, with the previous edition of the scheme. Reveals the enormously improved capabilities of the scheme in meeting the challenge posed by the ever expanding horizon of the universe of subjects as also the inconsistencies and lack of cohesion in various schedules
  11. Long, C.E.: Improving subject searching in Web-based OPACs : evaluation of the problem and guidelines for design (2000) 0.07
    0.07455677 = product of:
      0.29822707 = sum of:
        0.29822707 = weight(_text_:horizon in 110) [ClassicSimilarity], result of:
          0.29822707 = score(doc=110,freq=2.0), product of:
            0.49245608 = queryWeight, product of:
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.06289136 = queryNorm
            0.60559124 = fieldWeight in 110, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.0546875 = fieldNorm(doc=110)
      0.25 = coord(1/4)
    
    Abstract
    Online catalog users search predominately by subject, yet it is the most difficult search to perform and retrieves records only about one-half of the time. A new generation of OPACs (online public access catalogs) is on the horizon, the Web-based OPAC. Web-based OPACs allow users to access online catalogs through a WWW (World Wide Web) interface and have the potential to improve patrons' ability to search by subject. But will this potential be realized? This article proposes some basic guidelines that can be incorporated into Web-based OPAC interface design to help users perform subject searches more effectively, and evaluates how well Web-based OPACs currently in operation address the subject searching problem
  12. Oehlschläger, S.: Aus der 48. Sitzung der Arbeitsgemeinschaft der Verbundsysteme am 12. und 13. November 2004 in Göttingen (2005) 0.07
    0.07329499 = product of:
      0.14658998 = sum of:
        0.040080298 = weight(_text_:und in 4556) [ClassicSimilarity], result of:
          0.040080298 = score(doc=4556,freq=44.0), product of:
            0.13948669 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06289136 = queryNorm
            0.2873414 = fieldWeight in 4556, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4556)
        0.10650968 = weight(_text_:horizon in 4556) [ClassicSimilarity], result of:
          0.10650968 = score(doc=4556,freq=2.0), product of:
            0.49245608 = queryWeight, product of:
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.06289136 = queryNorm
            0.21628259 = fieldWeight in 4556, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.8302665 = idf(docFreq=47, maxDocs=44421)
              0.01953125 = fieldNorm(doc=4556)
      0.5 = coord(2/4)
    
    Content
    Enthält u.a. folgende Aussagen aus einzelnen Bibliotheken oder Verbünden: MARC21 als Austauschformat Die Expertengruppe Datenformate des Standardisierungsausschusses hat am 11. April 2005 getagt, dabei wurden die Arbeitspakete aus einem von der Arbeitsstelle für Standardisierung Der Deutschen Bibliothek vorgelegten Projektund Zeitplan in überschaubare Einheiten aufgegliedert. Ziel ist es, das bestehende MARC21 weitgehend zu übernehmen. Sollten nationale Abweichungen von MARC21 dennoch notwendig sein, so müssen diese einheitlich für alle Verbünde gelten. Bibliotheksservicezentrum Baden-Württemberg (BSZ) SWBPIus "Catalogue enrichment", die Anreicherung von Katalogdaten durch ergänzende Materialien, wie z. B. Rezensionen und Inhaltsverzeichnisse, wird als eine der wichtigsten Möglichkeiten diskutiert, die Nutzung von OPACs zu erleichtern und zu verbessern. Ganz im Trend liegt daher die Anwendung SWBplus, in der das BSZ weiterführende Texte zu Titeln in Verbund- und lokalen OPACs auflegt. Nach ca. 2.500 Dokumenten im Jahr 2003 ist der Bestand mittlerweile bei 12.300 angelangt. Mit 6.900 haben dabei die Inhaltsverzeichnisse die Rezensionen anteilsmäßig überholt. Erreicht wurde dies durch die Mitarbeit der Universitätsbibliotheken Konstanz und Heidelberg, die Inhaltsverzeichnisse scannen und an das BSZ liefern. In diese Kooperation werden nun auch die Universitätsbibliothek Mannheim, die Bibliotheken der PH Ludwigsburg und PH Freiburg sowie die Bibliothek des Bundesgerichtshofs in Karlsruhe eintreten. Vorbereitet wird zudem die Zusammenarbeit mit dem Bibliotheksverbund Bayern, so dass Inhaltsverzeichnisse auch aus Bayern in die Datenbank eingebracht und gemeinsam genutzt werden können. Fehlertolerante Suche in OPACs Gemeinsam mit der Bibliothek der Fachhochschule Konstanz und der Firma exorbyte führt das BSZ derzeit einen Test durch, in dem OPAC-Nutzer bei Unsicherheiten hinsichtlich der Schreibweise von Suchbegriffen unterstützt werden. Dazu wurde dem Horizon-WebPac der FH Konstanz die RechercheSoftware Matchmaker vorgeschaltet, die dem Nutzer neben exakten auch näherungsweise Treffer sowie Alternativen zu den Suchbegriffen anbietet. Sucht man dort nun z. B. nach "Pronnstein", so findet man dennoch unter den ersten Treffern die bekannte mathematische Formelsammlung von Ilja Bronstejn. In einer Befragung, die den Test begleitet, fanden ca. 70% der Nutzer den Einsatz dieser Technologie hilfreich und gaben an, auch die Alternativvorschläge zu nutzen. Weitere Informationen stehen unter der Adresse http://cms.bsz-bw.de/cms/entwicki/ftolsuche/ zur Verfügung. Interessenten an einem Einsatz der Software melden sich bitte beim BSZ, das die Einführung koordiniert.
    Die Deutsche Bibliothek Retrieval von Content In dem Projekt wird angestrebt, Verfahren zu entwickeln und einzuführen, die automatisch und ohne intellektuelle Bearbeitung für das Content-Retrieval ausreichend Sucheinstiege bieten. Dabei kann es sich um die Suche nach Inhalten von Volltexten, digitalen Abbildern, Audiofiles, Videofiles etc. von in Der Deutschen Bibliothek archivierten digitalen Ressourcen oder digitalen Surrogaten archivierter analoger Ressourcen (z. B. OCR-Ergebnisse) handeln. Inhalte, die in elektronischer Form vorhanden sind, aber dem InternetBenutzer Der Deutschen Bibliothek bisher nicht oder nur eingeschränkt zur Verfügung stehen, sollen in möglichst großem Umfang und mit möglichst großem Komfort nutzbar gemacht werden. Darüber hinaus sollen Inhalte benutzt werden, die für ein in ILTIS katalogisiertes Objekt beschreibenden Charakter haben, um auf das beschriebene Objekt zu verweisen. Die höchste Priorität liegt dabei auf der Erschließung von Inhalten in Textformaten. In einem ersten Schritt wurde der Volltext aller Zeitschriften, die im Projekt "Exilpresse digital" digitalisiert wurden, für eine erweiterte Suche genutzt. In einem nächsten Schritt soll die PSI-Software für die Volltextindexierung von Abstracts evaluiert werden. MILOS Mit dem Einsatz von MILOS eröffnet sich die Möglichkeit, nicht oder wenig sachlich erschlossene Bestände automatisch mit ergänzenden Inhaltserschließungsinformationen zu versehen, der Schwerpunkt liegt dabei auf der Freitext-Indexierung. Das bereits in einigen Bibliotheken eingesetzte System, das inzwischen von Der Deutschen Bibliothek für Deutschland lizenziert wurde, wurde in eine UNIX-Version überführt und angepasst. Inzwischen wurde nahezu der gesamte Bestand rückwirkend behandelt, die Daten werden im Gesamt-OPAC für die Recherche zur Verfügung stehen. Die in einer XMLStruktur abgelegten Indexeinträge werden dabei vollständig indexiert und zugänglich gemacht. Ein weiterer Entwicklungsschritt wird in dem Einsatz von MILOS im Online-Verfahren liegen.
    Hessisches BibliotheksinformationsSystem (HEBIS) Personennamendatei (PND) Vor dem Hintergrund der Harmonisierungsbestrebungen bei den Normdateien hat der HeBIS-Verbundrat nach erneuter Diskussion mehrheitlich entschieden, künftig neben SWD und GKD auch die PND als in HeBIS integrierte Normdatei obligatorisch zu nutzen. Im Zuge der wachsenden Vernetzung der regionalen Verbundsysteme kommt der Homogenität der Datensätze eine zunehmend wichtigere Bedeutung zu. Konkret wird dies speziell für HeBIS mit dem Produktionsbeginn des HeBIS-Portals und der integrierten verbundübergreifenden Fernleihe. Nur wenn die Verfasserrecherche in den einzelnen Verbunddatenbanken auf weitgehend einheitliche Datensätze einschließlich Verweisungsformen trifft, kann der Benutzer gute Trefferergebnisse erwarten und damit seine Chancen erhöhen, die gewünschte Literatur über Fernleihe bestellen zu können. Das Gesamtkonzept ist ausgelegt auf eine pragmatische und aufwandsreduzierte Vorgehensweise. Mit der Umsetzung wurde begonnen. Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (HBZ) FAST-Suchmaschine Das HBZ hat die Suchmaschinentechnologie des norwegischen Herstellers FAST lizenziert. Ziel ist es, die Produkte des HBZ mit Hilfe innovativer Suchmaschinentechnologien in einer neuen Ausrichtung zu präsentieren. Die Präsentation soll einen schnellen Recherche-Zugang zu den NRWVerbunddaten mittels FAST-Suchmaschinentechnologie mit folgenden Eigenschaften beinhalten: - Eine Web-Oberfläche, um für Laien eine schnelle Literatursuche anbieten zu können. - Eine Web-Oberfläche, um für Expertinnen und Experten eine schnelle Literatur-Suche anbieten zu können. - Präsentation von Zusatzfunktionen, die in gängigen Bibliothekskatalogen so nicht vorhanden sind. - Schaffung einer Zugriffsmöglichkeit für den KVK auf die Verbunddaten mit sehr kurzen Antwortzeiten Digitale Bibliothek Die Mehrzahl der Bibliotheken ist inzwischen auf Release 5 umgezogen. Einige befinden sich noch im Bearbeitungsstatus. Von den letzten drei Bibliotheken liegen inzwischen die Umzugsanträge vor. Durch die Umstrukturierung der RLB Koblenz zum LBZ Rheinland-Pfalz werden die Einzelsichten der RLB Koblenz, PLB Speyer und der Bipontina in Zweibrücken mit den Büchereistellen Koblenz und Neustadt zu einer Sicht verschmolzen.
  13. Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998) 0.07
    0.073210485 = product of:
      0.29284194 = sum of:
        0.29284194 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
          0.29284194 = score(doc=4593,freq=4.0), product of:
            0.4432273 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06289136 = queryNorm
            0.6607038 = fieldWeight in 4593, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=4593)
      0.25 = coord(1/4)
    
    Abstract
    Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
  14. Reed, D.: Essential HTML fast (1997) 0.07
    0.06902351 = product of:
      0.27609405 = sum of:
        0.27609405 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
          0.27609405 = score(doc=6851,freq=2.0), product of:
            0.4432273 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06289136 = queryNorm
            0.62291753 = fieldWeight in 6851, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6851)
      0.25 = coord(1/4)
    
    Abstract
    This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
  15. Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997) 0.07
    0.06902351 = product of:
      0.27609405 = sum of:
        0.27609405 = weight(_text_:java in 171) [ClassicSimilarity], result of:
          0.27609405 = score(doc=171,freq=2.0), product of:
            0.4432273 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06289136 = queryNorm
            0.62291753 = fieldWeight in 171, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=171)
      0.25 = coord(1/4)
    
    Abstract
    Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
  16. Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996) 0.07
    0.06902351 = product of:
      0.27609405 = sum of:
        0.27609405 = weight(_text_:java in 604) [ClassicSimilarity], result of:
          0.27609405 = score(doc=604,freq=2.0), product of:
            0.4432273 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06289136 = queryNorm
            0.62291753 = fieldWeight in 604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=604)
      0.25 = coord(1/4)
    
    Abstract
    Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
  17. Ameritech releases Dynix WebPac on NT (1998) 0.07
    0.06902351 = product of:
      0.27609405 = sum of:
        0.27609405 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
          0.27609405 = score(doc=2782,freq=2.0), product of:
            0.4432273 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06289136 = queryNorm
            0.62291753 = fieldWeight in 2782, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=2782)
      0.25 = coord(1/4)
    
    Abstract
    Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
  18. OCLC completes SiteSearch 4.0 field test (1998) 0.07
    0.06902351 = product of:
      0.27609405 = sum of:
        0.27609405 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
          0.27609405 = score(doc=3078,freq=2.0), product of:
            0.4432273 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06289136 = queryNorm
            0.62291753 = fieldWeight in 3078, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=3078)
      0.25 = coord(1/4)
    
    Abstract
    OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
  19. Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998) 0.07
    0.06902351 = product of:
      0.27609405 = sum of:
        0.27609405 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
          0.27609405 = score(doc=4618,freq=2.0), product of:
            0.4432273 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06289136 = queryNorm
            0.62291753 = fieldWeight in 4618, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=4618)
      0.25 = coord(1/4)
    
    Abstract
    Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
  20. Scherer, E.; Neubauer, W.: Von der Mainframe-Anwendung zur Client Server-Losung : das Projekt HotETHICS der ETH-Bibliothek Zurich (1998) 0.07
    0.06902351 = product of:
      0.27609405 = sum of:
        0.27609405 = weight(_text_:java in 6134) [ClassicSimilarity], result of:
          0.27609405 = score(doc=6134,freq=2.0), product of:
            0.4432273 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06289136 = queryNorm
            0.62291753 = fieldWeight in 6134, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6134)
      0.25 = coord(1/4)
    
    Abstract
    Describes the development and scope of the integrated multilibrary system ETHICSplus operated by the library of the Eidgenossische Technische Hochschule (Federal Technical University) in Zurich, Switzerland. This facilitates searches by and the electronic delivery of information to German-speaking users worldwide. Describes the introduction and impact of the introduction in 1996 of the modern graphical user interface HotETHICS which is programmed in Java

Authors

Languages

Types

  • a 9380
  • m 2238
  • el 1011
  • x 591
  • s 557
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications