-
Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996)
0.10
0.10360137 = product of:
0.41440547 = sum of:
0.41440547 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
0.41440547 = score(doc=2137,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.9343763 = fieldWeight in 2137, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2137)
0.25 = coord(1/4)
-
Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001)
0.10
0.10360137 = product of:
0.41440547 = sum of:
0.41440547 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
0.41440547 = score(doc=2035,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.9343763 = fieldWeight in 2035, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2035)
0.25 = coord(1/4)
-
Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001)
0.10
0.10360137 = product of:
0.41440547 = sum of:
0.41440547 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
0.41440547 = score(doc=2050,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.9343763 = fieldWeight in 2050, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2050)
0.25 = coord(1/4)
-
Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996)
0.10
0.10187338 = product of:
0.20374677 = sum of:
0.13813516 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
0.13813516 = score(doc=2567,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.31145877 = fieldWeight in 2567, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.0656116 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
0.0656116 = score(doc=2567,freq=46.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.47007886 = fieldWeight in 2567, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.5 = coord(2/4)
- Abstract
- Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
- Classification
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
- RVK
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
-
Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996)
0.09
0.09466232 = product of:
0.18932465 = sum of:
0.13813516 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
0.13813516 = score(doc=2121,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.31145877 = fieldWeight in 2121, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.05118948 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
0.05118948 = score(doc=2121,freq=28.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.36675057 = fieldWeight in 2121, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.5 = coord(2/4)
- Content
- Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
-
Hehl, H.: ¬Die Linksysteme des Multisuchsystems E-Connect : Aufsatzrecherche mit Zugang zum Volltext und zu Verbundkatalogen (2003)
0.09
0.09313955 = product of:
0.1862791 = sum of:
0.037855133 = weight(_text_:und in 2688) [ClassicSimilarity], result of:
0.037855133 = score(doc=2688,freq=20.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.2712157 = fieldWeight in 2688, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2688)
0.14842397 = weight(_text_:hyperlink in 2688) [ClassicSimilarity], result of:
0.14842397 = score(doc=2688,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.3019983 = fieldWeight in 2688, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.02734375 = fieldNorm(doc=2688)
0.5 = coord(2/4)
- Abstract
- Die Hyperlinktechnologie des WWW wird von immer mehr bibliographischen Datenbanken genützt, um eine schnelle und umfassende Information und vor allem einen unmittelbaren Zugang zu den Informationsdokumenten wie Aufsätzen, Reports usw. anzubieten. Die Rechercheergebnisse einer webbasierten Datenbank sind dementsprechend oft mit einer ganzen Reihe von Hyperlinks ausgestattet. So gibt es in vielen Datenbanken Hyperlinks, die zu den Standortnachweisen von Zeitschriften in einem Verbundkatalog oder evtl. zur elektronischen Version einer Zeitschrift, d.h. zu deren Homepage, hinführen. In manchen Datenbanken führen Hyperlinks auch unmittelbar zum Volltext des einzelnen Artikels hin. Bei dieser mit dem englischen Fachausdruck Reference Linking bezeichneten bibliographischen Verknüpfungstechnik entsteht das Problem, wie ein auf einer Webseite zitierter oder von einer Datenbank als Treffer angezeigter Aufsatz so mit einer URL verbunden werden kann, dass als Ziel des Hyperlinks z.B. die entsprechende elektronische Version angesteuert oder der Bestandsnachweis der angegebenen Zeitschrift in einem Online-Katalog ermittelt wird. Eine akzeptable Lösung des Problems wäre eine standardisierte und frei zugängliche Art der URL-Adresse, ein sogen. OpenURL, der universell einsetzbar ist. Datenbanken, in denen diese Verknüpfungen bereits integriert sind, verwenden vielfach den DOI oder andere Metadaten in ihren Hyperlinkadressen. Der wesentliche Unterschied zwischen DOI und OpenURL besteht darin, dass die Daten für den DOI intern von den Datenbankanbietern vergeben werden, während die Daten für den OpenURL aus jedem einfachen Zitat genommen werden können. Daher ist der OpenURL leicht verwendbar und verknüpfbar, während die Verwendung des DOI in Verknüpfungssystemen davon abhängig ist, ob in dem Originaldokument bzw. der originalen Trefferanzeige ein solcher DOI auch angezeigt wird, was nicht immer der Fall ist. Selbst wenn in kommerziellen Datenbanken eine Verknüpfung mit elektronischen Zeitschriften integriert ist, zeigen diese meist keine Limitierung auf einen lokal verfügbaren Bestand an, so dass eine etwa vorhandene Zugänglichkeit auf Grund einer Subskription nicht erkennbar ist und die Verknüpfung oft ins Leere geht. Zudem führt ein Hyperlink oft nur dann auf den für eine Bibliothek verfügbaren Volltext, wenn die betreffende Zeitschrift beim Datenbankanbieter registriert ist. Die Linksysteme des Multisuchsystems E-Connect sind so konzipiert, dass sie durch ein vorangehendes Suchverfahren in einer Bestandsliste einen tatsächlichen (nicht bloß potentiellen!) Verfügbarkeitsnachweis für eine bestimmte Bibliothek herstellen. Dadurch ist sofort ein Überblick über evtl. zugängliche Volltexte vorhanden. Durch ein speziell von mir entwickeltes Verknüpfungsverfahren über die OpenURLs bzw. die Suchsysteme der Verlage und Gesellschaften ist außerdem der direkte Zugang zum Volltext möglich, unabhängig von einer etwaigen Registrierung und unabhängig davon, ob überhaupt in der Datenbank eine Verbindung zur betreffenden Zeitschrift besteht. Von dem Zugang zum Volltext abgesehen ist außerdem eine Verbindung eines angezeigten Treffers mit Verbundkatalogen wünschenswert, was von Datenbanken bisher nur wenig, von diesen Linksystemen aber durchweg realisiert wird. Das ist insofern wichtig, als es für viele Zeitschriften entweder überhaupt keine E-Version gibt oder keine Subskription vorliegt, so dass man auf die Printversion zurückgreifen muß. Bei einer Verbindung zum OPAC besteht außerdem auch vielfach die Möglichkeit einer Online-Bestellung, wodurch das Bestellverfahren beschleunigt und vereinfacht wird.
-
Kim, J.H.; Barnett, G.A.; Park, H.W.: ¬A hyperlink and issue network analysis of the United States Senate : a rediscovery of the Web as a relational and topical medium (2010)
0.09
0.09181353 = product of:
0.3672541 = sum of:
0.3672541 = weight(_text_:hyperlink in 689) [ClassicSimilarity], result of:
0.3672541 = score(doc=689,freq=6.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.74725205 = fieldWeight in 689, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0390625 = fieldNorm(doc=689)
0.25 = coord(1/4)
- Abstract
- Politicians' Web sites have been considered a medium for organizing, mobilizing, and agenda-setting, but extant literature lacks a systematic approach to interpret the Web sites of senators - a new medium for political communication. This study classifies the role of political Web sites into relational (hyperlinking) and topical (shared-issues) aspects. The two aspects may be viewed from a social embeddedness perspective and three facets, as K. Foot and S. Schneider ([2002]) suggested. This study employed network analysis, a set of research procedures for identifying structures in social systems, as the basis of the relations among the system's components rather than the attributes of individuals. Hyperlink and issue data were gathered from the United States Senate Web site and Yahoo. Major findings include: (a) The hyperlinks are more targeted at Democratic senators than at Republicans and are a means of communication for senators and users; (b) the issue network found from the Web is used for discussing public agendas and is more highly utilized by Republican senators; (c) the hyperlink and issue networks are correlated; and (d) social relationships and issue ecologies can be effectively detected by these two networks. The need for further research is addressed.
-
Flohr, U.: Hyper-G organizes the Web (1995)
0.08
0.08481369 = product of:
0.33925477 = sum of:
0.33925477 = weight(_text_:hyperlink in 3831) [ClassicSimilarity], result of:
0.33925477 = score(doc=3831,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.6902818 = fieldWeight in 3831, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0625 = fieldNorm(doc=3831)
0.25 = coord(1/4)
- Abstract
- Hyper-G, developed at the Graz University of Technology, Austria, is a 2nd generation hypermedia information system that aims to overcome the problems of the existing Internet interfaces such as the WWW, WAIS and gopher. It supports tools for structuring, maintaining, and serving heterogeneous multimedia data, guaratees automatic hyperlink consistency, supports hyperlinks among multimedia documents, offers full text retrieval, a Unix like security system, client gateways to gopher and Web browsers, includes seamless access to server technologies, and offers advanced navigation tools and the ability to manipulate information in multiple ways. It offers a genuine alternative to the WWW
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.08
0.08028553 = product of:
0.16057105 = sum of:
0.12086826 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
0.12086826 = score(doc=6206,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.2725264 = fieldWeight in 6206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.0397028 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.0397028 = score(doc=6206,freq=22.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.5 = coord(2/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
-
Pawlak, A.: Durch das Internet mit Links (2002)
0.08
0.079833895 = product of:
0.15966779 = sum of:
0.032447256 = weight(_text_:und in 1558) [ClassicSimilarity], result of:
0.032447256 = score(doc=1558,freq=20.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.2324706 = fieldWeight in 1558, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1558)
0.12722054 = weight(_text_:hyperlink in 1558) [ClassicSimilarity], result of:
0.12722054 = score(doc=1558,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.25885567 = fieldWeight in 1558, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0234375 = fieldNorm(doc=1558)
0.5 = coord(2/4)
- Content
- "Wie findet der einzelne Nutzer in der "allwissenden Müllhalde" Internet genau die verlässliche Information, die er sucht? Immerhin stehen dem wissbegierigen User auf über 36 Millionen Web-Angeboten (Sites) mehr als vier Milliarden Einzelseiten zur Verfügung. Deshalb gibt er meist in ein eigens dafür konzipiertes Internet-Programm, eine so genannte Suchmaschine, eine Kombination von Suchwörten ein und erhält eine Liste von Webseiten, in denen diese Wörter vorkommen. Nur allzuoft enthält diese Liste einen hohen Anteil Unbrauchbares, denn aus dem bloßen Vorhandensein eines Wortes geht nicht hervor, ob die Webseite zu dem zugehörigen Begriff etwas zu sagen hat. Mehr Sinn steckt schon in den in Hyperlinks, anklickbaren Verweisen, die der Autor der Webseite selbst in diese eingefügt hat. Das Web lässt sich als ein riesiges Netz aus Knoten auffassen, die durch die Hyperlinks miteinander verknüpft sind. Spezielle Computerprogramme sind in der Lage, in diesem unübersehbaren, zufällig erscheinenden Fadengewirr eine gewisse Ordnung zu finden (Spektrum der Wissenschaft 8/1999, S.44). Dabei erweist sich die Hyperlink-Struktur oftmals als ein deutlicheres Kennzeichen für die inhaltliche Verwandtschaft von Webseiten als noch so geschickt gewählte Suchbegriffe. Alle Verknüpfungen im gesamten Internet unter die Lupe zu nehmen scheitert jedoch an ihrer riesigen Menge. Deshalb haben Gary Flake und seine Kollegen vom Forschungsinstitut der amerikanischen Firma NEC in Princeton einen eiwas anderen Weg gewählt. Sie beschränken sich nicht auf eine vorgegebene Menge von Seiten, sondern wählen zunächst eine aus, die als Keimzelle für eine so genannte Commu nity (Gemeinschaft) dient. Kandidaten für die Community sind zunächst die Webseiten, die mit der Keimzelle direkt oder indirekt über (einoder ausgehende) Hyperlinks verknüpft sind. Durch einen raffinierten Algorithmus wird dann bestimmt, welche Webseiten endgültig zur Community gehören: Per Definition ist jedes Mitglied einer Community mit mehr Mitgliedern als Nicht-Mitgliedern verbunden. Das Computer-Programm der NEC-Forscher identifiziert somit ausgehend vom gewählten Startpunkt die Gemeinschaft, die sich selbstorganisiert über die Hyperlinks im Internet gebildet hat (IEEE Computer, Bd. 35, S. 66, 2002). Ein Beispiel für diese Methode findet sich unter http://webselforganization.corn/example.html. Dort hat der Algorithmus der NEC-Forscher einer Internetseite mit Themen zum 11. September eine Gemeinschaft von mehr als 6000 weiteren Seiten zugeordnet - nur auf grund der Verknüpfungen über Hyperlinks und ohne Zuhilfenahme von Textinformationen. Innerhalb dieser Community führt das Suchwort "why" nun sofort auf Seiten, die sich mit der Frage "Why did it happen and why did the buildings collapse?" beschäftigen. Auch die ansonsten mehrdeutigen Begriffe "bin" und "laden" führen nicht mehr in die Irre, sondern auf Informationen über Usama Bin Laden. Filtersoftware zur Abwehr pornografischer oder anderer anstößiger Web-Inhalte könnte mit dem Community-Algorithmus noch treffsicherer werden. Wie sich herausstellt, ist eine Pornografie-Seite nicht unbedingt am Vorhandensein gewisser Reizwörter zu erkennen, die von den Betreibern vielleicht mit Fleiß vermieden werden, sondern weit zuverlässiger daran, dass sie auf andere Pornografie-Seiten verweist oder auf sie von diesen verwiesen wird. Auch sind effektivere Suchmaschinen denkbar, bei denen sich text- und linkbasierte Methoden geschickt ergänzen.
Allerdings läuft man im kurzlebigen Internet oft ins Leere. Was nützt der schönste Fund, wenn die zugehörige Internetseite nicht mehr existiert? John Markwell und David Brooks von der Universität von Nebraska in Lincoln haben das bei den von ihnen entwickelten Web-basierten Kursen zur Biochemie (http: //dwb.unl.edu/Teacher/NSF/C10/C10.html, -C11/C11.html und -C08/C08.html) schmerzlich zu spüren bekommen: Häufig fielen Hyperlinks aus - als würden aus einem Lehrbuch immer wieder Seiten ausgerissen. Einen vorläufigen Bericht dazu haben Markwell und Brooks unter http://www-eiass.unl.edu// biochem/url/broken_links.html veröffentlicht. Ihr Ergebnis: Hyperlinks haben eine Halbwertszeit von etwa 55 Monaten. Nach dieser Zeit sind somit die Hälfte von ihnen "zerbrochen", nach 13 Monaten schon 16,5 Prozent. Dabei erwiesen sich die Links von Regierungsstellen (Kürzel .gov) mit nur vier Prozent Verlust als einigermaßen robust, solche von Bildungsstätten (.edu) mit 17,5 Prozent als besonders kurzlebig. Diese Resultate haben die Begeisterung von Markwell und Brooks für die Verwendung von Hyperlinks erheblich gedämpft. Der Psychologe Ulf-Dietrich Reips von der Universität Zürich hat das Problem bereits seit längerem erkannt und für sich gelöst. Der Spezialist für psychologische Web-Experimente verweist nicht nur auf die Experimente seiner Kollegen, sondern archiviert sie gleich komplett unter der Adresse http://130.60. 239.96/wexlist/, um sie so langfristig verfügbar zu halten.
-
Hildreth, C.R.: Are Web-based OPACs more effective retrieval systems than their conventional predecessors? : an experimental study (2000)
0.07
0.074965425 = product of:
0.2998617 = sum of:
0.2998617 = weight(_text_:hyperlink in 1113) [ClassicSimilarity], result of:
0.2998617 = score(doc=1113,freq=4.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.6101287 = fieldWeight in 1113, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0390625 = fieldNorm(doc=1113)
0.25 = coord(1/4)
- Abstract
- The World Wide Web (simplified here to "Web") is well-known for its "point and click" graphical user interface (GUI) and hyperlink search and navigate capabilities. When OPACs are placed in this operational context, users can easily hyperlink from a bibliographic display to related search terms, class marks, or bibliographic records. This hyperlinking capability is not available in most conventional text-based OPACs. As more and more users undertake their searches on Web-based information retrieval systems such as OPACs, it is natural to ask, "Are Web-based OPACs more effective retrieval systems than their conventional predecessors?" This paper presents the findings of an experimental study which compared users' search performance, assessments of ease of use, and satisfaction with search results after use of a Web OPAC or its conventional counterpart. The primary questions addressed by this research center on the influence of two experimental factors, OPAC search interface style and search task level of difficulty, on the dependent variables: actual search performance, perceptions of ease of use, and user assessments of satisfaction with search results. It was hypothesized that Web OPACs would be assessed as easier to use and that they would outperform conventional OPACs when measured by actual search results and users' levels of satisfaction with search results. Web OPAC searchers outperformed Text OPAC searchers, but search task level of difficulty is a major determinant of search success. The study also found little association between searchers' level of satisfaction with results and actual search performance
-
Hartman, J.H.; Proebsting, T.A.; Sundaram, R.: Index-based hyperlinks (1997)
0.07
0.074211985 = product of:
0.29684794 = sum of:
0.29684794 = weight(_text_:hyperlink in 3723) [ClassicSimilarity], result of:
0.29684794 = score(doc=3723,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.6039966 = fieldWeight in 3723, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0546875 = fieldNorm(doc=3723)
0.25 = coord(1/4)
- Abstract
- Proposes a new mechanism for implicitly specifying hyperlinks in HTML documents using indices. Indices maintain these key /a ttribute bindings over all or part of a document, and are used by browsers to create hyperlinks dynamically. Indices may also include bindings of other indices, in a hierarchical fashion. Indices are both simpler and more general than the current HTML hyperlink mechnisms. Develops a prototype browser that user index-based hyperlinks
-
Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996)
0.07
0.06906758 = product of:
0.27627033 = sum of:
0.27627033 = weight(_text_:java in 604) [ClassicSimilarity], result of:
0.27627033 = score(doc=604,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.62291753 = fieldWeight in 604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=604)
0.25 = coord(1/4)
- Abstract
- Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
-
Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998)
0.07
0.06906758 = product of:
0.27627033 = sum of:
0.27627033 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
0.27627033 = score(doc=4618,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.62291753 = fieldWeight in 4618, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=4618)
0.25 = coord(1/4)
- Abstract
- Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
-
Bates, C.: Web programming : building Internet applications (2000)
0.07
0.06906758 = product of:
0.27627033 = sum of:
0.27627033 = weight(_text_:java in 130) [ClassicSimilarity], result of:
0.27627033 = score(doc=130,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.62291753 = fieldWeight in 130, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=130)
0.25 = coord(1/4)
- Object
- Java
-
Chen, H.; Chau, M.: Web mining : machine learning for Web applications (2003)
0.06
0.06361027 = product of:
0.25444108 = sum of:
0.25444108 = weight(_text_:hyperlink in 5242) [ClassicSimilarity], result of:
0.25444108 = score(doc=5242,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.51771134 = fieldWeight in 5242, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.046875 = fieldNorm(doc=5242)
0.25 = coord(1/4)
- Abstract
- With more than two billion pages created by millions of Web page authors and organizations, the World Wide Web is a tremendously rich knowledge base. The knowledge comes not only from the content of the pages themselves, but also from the unique characteristics of the Web, such as its hyperlink structure and its diversity of content and languages. Analysis of these characteristics often reveals interesting patterns and new knowledge. Such knowledge can be used to improve users' efficiency and effectiveness in searching for information an the Web, and also for applications unrelated to the Web, such as support for decision making or business management. The Web's size and its unstructured and dynamic content, as well as its multilingual nature, make the extraction of useful knowledge a challenging research problem. Furthermore, the Web generates a large amount of data in other formats that contain valuable information. For example, Web server logs' information about user access patterns can be used for information personalization or improving Web page design.
-
Lo, M.L.: Recent strategies for retrieving chemical structure information on the Web (1997)
0.06
0.06043413 = product of:
0.24173652 = sum of:
0.24173652 = weight(_text_:java in 3611) [ClassicSimilarity], result of:
0.24173652 = score(doc=3611,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.5450528 = fieldWeight in 3611, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3611)
0.25 = coord(1/4)
- Abstract
- Discusses various structural searching methods available on the Web. some databases such as the Brookhaven Protein Database use keyword searching which does not provide the desired substructure search capabilities. Others like CS ChemFinder and MDL's Chemscape use graphical plug in programs. Although plug in programs provide more capabilities, users first have to obtain a copy of the programs. Due to this limitation, Tripo's WebSketch and ACD Interactive Lab adopt a different approach. Using JAVA applets, users create and display a structure query of the molecule on the web page without using other software. The new technique is likely to extend itself to other electronic publications
-
Renehan, E.J.: Science on the Web : a connoisseur's guide to over 500 of the best, most useful, and most fun science Websites (1996)
0.06
0.06043413 = product of:
0.24173652 = sum of:
0.24173652 = weight(_text_:java in 1211) [ClassicSimilarity], result of:
0.24173652 = score(doc=1211,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.5450528 = fieldWeight in 1211, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=1211)
0.25 = coord(1/4)
- Abstract
- Written by the author of the best-selling 1001 really cool Web sites, this fun and informative book enables readers to take full advantage of the Web. More than a mere directory, it identifies and describes the best sites, guiding surfers to such innovations as VRML3-D and Java. Aside from downloads of Web browsers, Renehan points the way to free compilers and interpreters as well as free online access to major scientific journals
-
Chau, M.; Shiu, B.; Chan, M.; Chen, H.: Redips: backlink search and analysis on the Web for business intelligence analysis (2007)
0.05
0.05300856 = product of:
0.21203424 = sum of:
0.21203424 = weight(_text_:hyperlink in 1142) [ClassicSimilarity], result of:
0.21203424 = score(doc=1142,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.43142614 = fieldWeight in 1142, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0390625 = fieldNorm(doc=1142)
0.25 = coord(1/4)
- Abstract
- The World Wide Web presents significant opportunities for business intelligence analysis as it can provide information about a company's external environment and its stakeholders. Traditional business intelligence analysis on the Web has focused on simple keyword searching. Recently, it has been suggested that the incoming links, or backlinks, of a company's Web site (i.e., other Web pages that have a hyperlink pointing to the company of Interest) can provide important insights about the company's "online communities." Although analysis of these communities can provide useful signals for a company and information about its stakeholder groups, the manual analysis process can be very time-consuming for business analysts and consultants. In this article, we present a tool called Redips that automatically integrates backlink meta-searching and text-mining techniques to facilitate users in performing such business intelligence analysis on the Web. The architectural design and implementation of the tool are presented in the article. To evaluate the effectiveness, efficiency, and user satisfaction of Redips, an experiment was conducted to compare the tool with two popular business Intelligence analysis methods-using backlink search engines and manual browsing. The experiment results showed that Redips was statistically more effective than both benchmark methods (in terms of Recall and F-measure) but required more time in search tasks. In terms of user satisfaction, Redips scored statistically higher than backlink search engines in all five measures used, and also statistically higher than manual browsing in three measures.
-
Thelwall, M.: ¬A comparison of link and URL citation counting (2011)
0.05
0.05300856 = product of:
0.21203424 = sum of:
0.21203424 = weight(_text_:hyperlink in 533) [ClassicSimilarity], result of:
0.21203424 = score(doc=533,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.43142614 = fieldWeight in 533, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0390625 = fieldNorm(doc=533)
0.25 = coord(1/4)
- Abstract
- Purpose - Link analysis is an established topic within webometrics. It normally uses counts of links between sets of web sites or to sets of web sites. These link counts are derived from web crawlers or commercial search engines with the latter being the only alternative for some investigations. This paper compares link counts with URL citation counts in order to assess whether the latter could be a replacement for the former if the major search engines withdraw their advanced hyperlink search facilities. Design/methodology/approach - URL citation counts are compared with link counts for a variety of data sets used in previous webometric studies. Findings - The results show a high degree of correlation between the two but with URL citations being much less numerous, at least outside academia and business. Research limitations/implications - The results cover a small selection of 15 case studies and so the findings are only indicative. Significant differences between results indicate that the difference between link counts and URL citation counts will vary between webometric studies. Practical implications - Should link searches be withdrawn, then link analyses of less well linked non-academic, non-commercial sites would be seriously weakened, although citations based on e-mail addresses could help to make citations more numerous than links for some business and academic contexts. Originality/value - This is the first systematic study of the difference between link counts and URL citation counts in a variety of contexts and it shows that there are significant differences between the two.