-
Burd, B.: Java und XML für Dummies (2003)
0.34
0.34158626 = product of:
0.6831725 = sum of:
0.6216082 = weight(_text_:java in 2694) [ClassicSimilarity], result of:
0.6216082 = score(doc=2694,freq=18.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
1.4015644 = fieldWeight in 2694, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=2694)
0.061564337 = weight(_text_:und in 2694) [ClassicSimilarity], result of:
0.061564337 = score(doc=2694,freq=18.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.44108194 = fieldWeight in 2694, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2694)
0.5 = coord(2/4)
- Abstract
- Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
- Object
- Java
-
Arnold, J.: Semiotische und textlinguistische Bestimmung des Hyperlink (2001)
0.21
0.21066643 = product of:
0.42133287 = sum of:
0.05407876 = weight(_text_:und in 388) [ClassicSimilarity], result of:
0.05407876 = score(doc=388,freq=20.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.38745102 = fieldWeight in 388, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=388)
0.3672541 = weight(_text_:hyperlink in 388) [ClassicSimilarity], result of:
0.3672541 = score(doc=388,freq=6.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.74725205 = fieldWeight in 388, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0390625 = fieldNorm(doc=388)
0.5 = coord(2/4)
- Abstract
- Die vorliegende Arbeit untersucht die hypertextuellen Verknüpfungen aus semiotischer und textlinguistischer Sicht. Der erste Teil führt kurz ein in die Geschichte des Hypertextes und erläutert die grundlegenden Begriffe. In einem zweiten Teil wird der Hyperlink als Element des Hypertextes thematisiert und Typologien von Hyperlinks vorgestellt, wie sie von Kuhlen (1991) informationswissenschaftlich und von Bucher sprachwissenschaftlich entwickelt wurden. Im dritten Teil werden die Zeichentheorien von Peirce und Morris exemplarisch auf das Phänomen Hyperlink bezogen. Dabei werden die Verknüpfungsanzeiger zuerst nach Peirce als Symbol, Ikon oder Index kategorisiert und anschliessend nach Morris in ihren semantischen, pragmatischen und syntaktischen Aspekten beschrieben. Nach der semiotischen folgt eine textlinguistische Beschreibung der Verknüpfungsanzeiger in Bezug auf die Kohäsion und die Kohärenz von Hypertextbasen. Auf der Textoberflächenstruktur werden die Verknüpfungsanzeiger als Verbindungselemente zwischen Informationseinheiten betrachtet und die verschiedenen Formen von Kohäsionsmittel exemplarisch auf die Verknüpfungsanzeiger angewendet. Abschliessend soll versucht werden, die Hyper-links als Kohärenz stiftende Elemente eines Hypertextes zu beschreiben. In Rücksicht auf den Umfang der Arbeit werden die Ausführungen primär theoretisch bleiben müssen. Wo immer möglich, sollen jedoch Beispiele zur näheren Erläuterung angeführt werden.
-
Hedden, H.: Book-style indexes for websites (2007)
0.20
0.19698931 = product of:
0.39397863 = sum of:
0.05472386 = weight(_text_:und in 1746) [ClassicSimilarity], result of:
0.05472386 = score(doc=1746,freq=8.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.39207286 = fieldWeight in 1746, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1746)
0.33925477 = weight(_text_:hyperlink in 1746) [ClassicSimilarity], result of:
0.33925477 = score(doc=1746,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.6902818 = fieldWeight in 1746, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0625 = fieldNorm(doc=1746)
0.5 = coord(2/4)
- Abstract
- Site-Indexe entsprechen Buchregistern mit Hyperlink-Einträgen und sind eine nützliche Methode zur Informationssuche innerhalb einer Website. Dieser Beitrag untersucht die Arten von Websites, für die sich ein Site-Index am besten eignet, und vergleicht Site-Indexe mit Buchregistern bezüglich Struktur, Fundstellenangaben, Untereinträgen und Querverweisen. Bestimmte Modifikationen sind nötig, um einen Index den Erfordernissen von Websites anzupassen Obwohl es nicht schwierig ist, einen Webindex aufzubauen, ist die fortlaufende Aktualisierung eine Kernfrage. Site-Indexe werden nicht so häufig eingesetzt, wie sie könnten
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.8, S.433-436
-
Weisel, L.; Vogts, I.; Bürk, K.: Mittler zwischen Content und Markt : Die neue Rolle des FIZ Karlsruhe (2000)
0.19
0.19158547 = product of:
0.38317093 = sum of:
0.086322986 = weight(_text_:und in 6437) [ClassicSimilarity], result of:
0.086322986 = score(doc=6437,freq=26.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.618467 = fieldWeight in 6437, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=6437)
0.29684794 = weight(_text_:hyperlink in 6437) [ClassicSimilarity], result of:
0.29684794 = score(doc=6437,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.6039966 = fieldWeight in 6437, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0546875 = fieldNorm(doc=6437)
0.5 = coord(2/4)
- Abstract
- Das Fachinformationszentrum (FIZ) Karlsruhe ist als internationale Drehscheibe für Fachinformation seit Jahrzehnten verlässlicher und professioneller Servicepartner der Informationssuchenden in Wissenschaft und Technik. Neue web-basierte Dienstleistungen und Produkte erlauben dem professionellen Informationsbroker ebenso wie dem gelegentlichen Onliner oder Internet Pedestrian den effizienten und kostengünstigen Zugang zu Metadaten, naturwissenschaftlich-technisehen Daten und Fakten. Elektronische Volltexte per Hyperlink oder die komplette Dokument-Vermittlung werden gleichfalls angeboten. Die Weiterentwicklung und flexible Anpassung der Informationssysteme ermöglichen auch die Verknüpfung mit lokalen und regionalen Netzen der Forschungseinrichtungen und Hochschulen. Neue Serviceleistungen und Abrechnungsverfahren bieten besonders preisgünstige Konditionen für Hochschulen durch akademische Programme und Festpreise auf Subskriptionsbasis für ausgewählte Datenbanken. Darüber hinaus ist das FIZ Karlsruhe kompetenter Kooperationspartner bei Entwicklung und Betrieb von Informationssystemen
- Source
- nfd Information - Wissenschaft und Praxis. 51(2000) H.7, S.397-406
-
Popper, A.: Daten eingewickelt : Dynamische Webseiten mit XML und SQL (2001)
0.19
0.18977016 = product of:
0.37954032 = sum of:
0.34533793 = weight(_text_:java in 6804) [ClassicSimilarity], result of:
0.34533793 = score(doc=6804,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.77864695 = fieldWeight in 6804, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=6804)
0.03420241 = weight(_text_:und in 6804) [ClassicSimilarity], result of:
0.03420241 = score(doc=6804,freq=2.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.24504554 = fieldWeight in 6804, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=6804)
0.5 = coord(2/4)
- Abstract
- Wer dynamische Webseiten mit XML erzeugt, wird über kurz oder lang auch Datenbanken anzapfen wollen. Das Apache-Projekt Cocoon liefert eine komfortable Java/Servlet-Produktionsumgebung dafür
-
Eversberg, B.: Navigare necesse est : oder: Wie knüpft man die richtigen Beziehungen? (2006)
0.18
0.18330835 = product of:
0.3666167 = sum of:
0.02736193 = weight(_text_:und in 2948) [ClassicSimilarity], result of:
0.02736193 = score(doc=2948,freq=2.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.19603643 = fieldWeight in 2948, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2948)
0.33925477 = weight(_text_:hyperlink in 2948) [ClassicSimilarity], result of:
0.33925477 = score(doc=2948,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.6902818 = fieldWeight in 2948, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0625 = fieldNorm(doc=2948)
0.5 = coord(2/4)
- Abstract
- Zu den heute geforderten Funktionen von Katalogsystemen gehört das Navigieren. Auch wer dieses Wort nicht kennt, navigiert täglich, und zwar bei jedem Klick auf einen Hyperlink. Es tut somit not, dem Nutzer Hyperlinks zu präsentieren - damit er zu "Ressourcen" surfen kann, die mit dem vorher gefundenen Dokument irgendwie zusammenhängen. Hyperlinks machen sich nicht von selbst, es muß etwas dahinterstecken, am besten ein Konzept, das die Beziehungen zwischen den Dokumenten in praktikabler, plausibler Weise abbildet. Wer keine oder die falschen Beziehungen hat, den bestraft das Leben - in Katalogen ist das nicht anders.
-
Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004)
0.18
0.18093288 = product of:
0.36186576 = sum of:
0.3088796 = weight(_text_:java in 225) [ClassicSimilarity], result of:
0.3088796 = score(doc=225,freq=10.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.69644296 = fieldWeight in 225, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=225)
0.05298615 = weight(_text_:und in 225) [ClassicSimilarity], result of:
0.05298615 = score(doc=225,freq=30.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.37962294 = fieldWeight in 225, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=225)
0.5 = coord(2/4)
- Abstract
- Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
- Classification
- ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
- Object
- Java
- RSWK
- Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
- RVK
- ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
- Subject
- Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
-
Park, H.W.; Barnett, G.A.; Nam, I.-Y.: Hyperlink - affiliation network structure of top Web sites : examining affiliates with hyperlink in Korea (2002)
0.17
0.16594303 = product of:
0.6637721 = sum of:
0.6637721 = weight(_text_:hyperlink in 1584) [ClassicSimilarity], result of:
0.6637721 = score(doc=1584,freq=10.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
1.3505774 = fieldWeight in 1584, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0546875 = fieldNorm(doc=1584)
0.25 = coord(1/4)
- Abstract
- This article argues that individual Web sites form hyperlink-affiliations with others for the purpose of strengthening their individual trust, expertness, and safety. It describes the hyperlink-affiliation network structure of Korea's top 152 Web sites. The data were obtained from their Web sites for October 2000. The results indicate that financial Web sites, such as credit card and stock Web sites, occupy the most central position in the network. A cluster analysis reveals that the structure of the hyperlink-affiliation network is influenced by the financial Web sites with which others are affiliated. These findings are discussed from the perspective of Web site credibility.
-
Loviscach, J.: Formen mit Normen (2000)
0.16
0.15748297 = product of:
0.31496593 = sum of:
0.27627033 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
0.27627033 = score(doc=6100,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.62291753 = fieldWeight in 6100, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.03869561 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
0.03869561 = score(doc=6100,freq=4.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.2772374 = fieldWeight in 6100, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.5 = coord(2/4)
- Abstract
- Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
- Object
- Java
-
Kölle, R.; Langemeier, G.; Womser-Hacker, C.: Kollaboratives Lernen in virtuellen Teams am Beispiel der Java-Programmierung (2008)
0.15
0.15254013 = product of:
0.30508026 = sum of:
0.24173652 = weight(_text_:java in 2393) [ClassicSimilarity], result of:
0.24173652 = score(doc=2393,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.5450528 = fieldWeight in 2393, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2393)
0.06334375 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
0.06334375 = score(doc=2393,freq=14.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.4538307 = fieldWeight in 2393, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2393)
0.5 = coord(2/4)
- Abstract
- Komplexe Aufgaben und Probleme werden heute üblicherweise im Team bearbeitet und gelöst. Das gilt insbesondere für Softwareprojekte, denn die Entwicklung komplexer Softwaresysteme findet heutzutage meistens arbeitsteilig in - zunehmend räumlich verteilten - Teams statt. Vor diesem Hintergrund wird zum einen ein rollenbasiertes Konzept vorgestellt, das virtuellen Lernteams bei der Zusammenarbeit einen virtuellen Tutor zur Seite stellt, der dem Team im Rahmen von Rollendefiziten adaptierte Hilfestellung bietet und so die Lerneffektivität unterstützt. Zum anderen wird gezeigt, wie das Zusammenspiel zweier spezialisierter Systeme (VitaminL und K3) im Kontext des Blended Learning echte Mehrwerte in E-Learning-Szenarien bringen kann. Die in Benutzertests und einer Lehrveranstaltung ermittelten Evaluierungsergebnisse lassen auf die Tragfähigkeit des rollenbasierten, tutoriellen Konzepts schließen und decken gleichzeitig großes Weiterentwicklungpotenzial auf.
- Source
- Information - Wissenschaft und Praxis. 59(2008) H.1, S.37-40
-
Hickey, T.B.: ¬A Java Z39.50 Client for Browsing Large Databases (2001)
0.15
0.14651446 = product of:
0.58605784 = sum of:
0.58605784 = weight(_text_:java in 2051) [ClassicSimilarity], result of:
0.58605784 = score(doc=2051,freq=4.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
1.3214076 = fieldWeight in 2051, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2051)
0.25 = coord(1/4)
- Object
- Java
-
Henzinger, M.R.: Hyperlink analysis for the Web (2001)
0.13
0.13410223 = product of:
0.5364089 = sum of:
0.5364089 = weight(_text_:hyperlink in 1008) [ClassicSimilarity], result of:
0.5364089 = score(doc=1008,freq=20.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
1.0914314 = fieldWeight in 1008, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.03125 = fieldNorm(doc=1008)
0.25 = coord(1/4)
- Abstract
- Hyperlink analysis algorithms allow search engines to deliver focused results to user queries.This article surveys ranking algorithms used to retrieve information on the Web.
- Content
- Information retrieval is a computer science subfield whose goal is to find all documents relevant to a user query in a given collection of documents. As such, information retrieval should really be called document retrieval. Before the advent of the Web, IR systems were typically installed in libraries for use mostly by reference librarians. The retrieval algorithm for these systems was usually based exclusively on analysis of the words in the document. The Web changed all this. Now each Web user has access to various search engines whose retrieval algorithms often use not only the words in the documents but also information like the hyperlink structure of the Web or markup language tags. How are hyperlinks useful? The hyperlink functionality alone-that is, the hyperlink to Web page B that is contained in Web page A-is not directly useful in information retrieval. However, the way Web page authors use hyperlinks can give them valuable information content. Authors usually create hyperlinks they think will be useful to readers. Some may be navigational aids that, for example, take the reader back to the site's home page; others provide access to documents that augment the content of the current page. The latter tend to point to highquality pages that might be on the same topic as the page containing the hyperlink. Web information retrieval systems can exploit this information to refine searches for relevant documents. Hyperlink analysis significantly improves the relevance of the search results, so much so that all major Web search engines claim to use some type of hyperlink analysis. However, the search engines do not disclose details about the type of hyperlink analysis they perform- mostly to avoid manipulation of search results by Web-positioning companies. In this article, I discuss how hyperlink analysis can be applied to ranking algorithms, and survey other ways Web search engines can use this analysis.
-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.13
0.13187872 = product of:
0.26375744 = sum of:
0.19535261 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.19535261 = score(doc=217,freq=4.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.06840482 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.06840482 = score(doc=217,freq=50.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.13
0.1287349 = product of:
0.2574698 = sum of:
0.20720273 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.20720273 = score(doc=977,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.050267074 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.050267074 = score(doc=977,freq=12.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.1236057 = product of:
0.2472114 = sum of:
0.17266896 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.17266896 = score(doc=50,freq=2.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.074542426 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.074542426 = score(doc=50,freq=38.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Schulzki-Haddouti, C.: Mit Google durchs WWW : Was die immer populärer werdende Suchmaschine vom Rest der Welt unterscheidet (2001)
0.12
0.123118326 = product of:
0.24623665 = sum of:
0.03420241 = weight(_text_:und in 1529) [ClassicSimilarity], result of:
0.03420241 = score(doc=1529,freq=8.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.24504554 = fieldWeight in 1529, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1529)
0.21203424 = weight(_text_:hyperlink in 1529) [ClassicSimilarity], result of:
0.21203424 = score(doc=1529,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.43142614 = fieldWeight in 1529, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.0390625 = fieldNorm(doc=1529)
0.5 = coord(2/4)
- Abstract
- Eine kleine, unscheinbare Suchmaschine hat sich in wenigen Monaten vom Geheimtipp zum Renner entwickelt: Google. Mitte Februar landete Google einen Coup: Es übernahm das Usenet-Archiv von Deja.com. Nicht erst damit ist Google die größte und intelligenteste Suchmaschine. Bis auf das Eingabefeld und das Google-Logo ist nichts zu sehen. Keine Kataloge, keine Nachrichten, kein Übersetzungsdienst, keine Werbung - kein Portal. Google kennt nur eins: Das Suchen von Informationen. Erstaunlich für den Erstnutzer: Oft stehen die relevanten Ergebnisse an erster Stelle. Google arbeitet mit einer ganzen Reihe von Tricks, um seine Nutzer nicht zu frustrieren. Sein Haupttrick: Es bewertet die Webseiten als wichtig, auf die viele andere Webseiten verweisen. Die Seite, auf die am häufigsten verwiesen wird, steht ganz oben. Auf diese Weise macht Google auch Nachbarschaften aus: Als "ähnliche Seite" von Telepolis findet man zum Beispiel c'theory. In der Nachbarschaft des Handelsblatts hingegen findet man andere Wirtschaftszeitungen und -magazine. Entwickelt wurde Google vom Computeringenieur Lawrence Page und dem Mathematiker Sergey Brin. Sie lernten sich an der Stanford University kennen, wo sie "einen Prototypen für eine umfassende Suchmaschine" entwickelten. Der Prototyp mit 24 Millionen Seiten samt Hyperlink-Datenbank war 1997 zunächst auf einem Server der Stanford-Universität zu bewundern. Heute ist Google eine florierende Firma. Rund 40 der 200 Mitarbeiter von Google haben einen Doktortitel, die Hälfte ist im Software-Engineering tätig
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.12137243 = product of:
0.24274486 = sum of:
0.19535261 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.19535261 = score(doc=1761,freq=4.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.047392253 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.047392253 = score(doc=1761,freq=24.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Mayr, P.: Google Scholar als akademische Suchmaschine (2009)
0.12
0.1168984 = product of:
0.2337968 = sum of:
0.064169414 = weight(_text_:und in 10) [ClassicSimilarity], result of:
0.064169414 = score(doc=10,freq=44.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.4597462 = fieldWeight in 10, product of:
6.6332498 = tf(freq=44.0), with freq of:
44.0 = termFreq=44.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=10)
0.16962738 = weight(_text_:hyperlink in 10) [ClassicSimilarity], result of:
0.16962738 = score(doc=10,freq=2.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.3451409 = fieldWeight in 10, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.03125 = fieldNorm(doc=10)
0.5 = coord(2/4)
- Abstract
- Neben den klassischen Informationsanbietern Bibliothek, Fachinformation und den Verlagen sind Internetsuchmaschinen inzwischen fester Bestandteil bei der Recherche nach wissenschaftlicher Information. Scirus (Elsevier, 2004) und Google Scholar sind zwei Beispiele für Suchdienste kommerzieller Suchmaschinen-Unternehmen, die eine Einschränkung auf den wissenschaftlichen Dokumentenraum anstreben und nennenswerte Dokumentzahlen in allen Disziplinen generieren. Der Vergleich der Treffermengen für beliebige Suchthemen zeigt, dass die Wahl des Suchsystems, des Dokumentenpools und der Dokumenttypen entscheidenden Einfluss auf die Relevanz und damit letztlich auch die Akzeptanz des Suchergebnisses hat. Tabelle 1 verdeutlicht die Mengenunterschiede am Beispiel der Trefferergebnisse für die Suchbegriffe "search engines" bzw. "Suchmaschinen" in der allgemeinen Internetsuchmaschine Google, der wissenschaftlichen Suchmaschine Google Scholar (GS) und der größten fachübergreifenden bibliographischen Literaturdatenbank Web of Science (WoS). Der Anteil der Dokumente, die in diesem Fall eindeutig der Wissenschaft zuzuordnen sind (siehe GS und insbesondere WoS in Tabelle 1), liegt gegenüber der allgemeinen Websuche lediglich im Promille-Bereich. Dieses Beispiel veranschaulicht, dass es ausgesprochen problematisch sein kann, fachwissenschaftliche Fragestellungen ausschließlich mit Internetsuchmaschinen zu recherchieren. Der Anteil der fachwissenschaftlich relevanten Dokumente in diesem Trefferpool ist i. d. R. sehr gering. Damit sinkt die Wahrscheinlichkeit, wissenschaftlich relevantes (z. B. einen Zeitschriftenaufsatz) auf den ersten Trefferseiten zu finden, deutlich ab.
Die drei oben genannten Suchsysteme (Google, GS und WoS) unterscheiden sich in mehrerlei Hinsicht fundamental und eignen sich daher gut, um in die Grundthematik dieses Artikels einzuleiten. Die obigen Suchsysteme erschließen zunächst unterschiedliche Suchräume, und dies auf sehr spezifische Weise. Während Google frei zugängliche und über Hyperlink adressierbare Dokumente im Internet erfasst, gehen die beiden akademischen Suchsysteme deutlich selektiver bei der Inhaltserschließung vor. Google Scholar erfasst neben frei zugänglichen elektronischen Publikationstypen im Internet hauptsächlich wissenschaftliche Dokumente, die direkt von den akademischen Verlagen bezogen werden. Das WoS, das auf den unterschiedlichen bibliographischen Datenbanken und Zitationsindizes des ehemaligen "Institute for Scientific Information" (ISI) basiert, selektiert gegenüber den rein automatischen brute-force-Ansätzen der Internetsuchmaschine über einen qualitativen Ansatz. In den Datenbanken des WoS werden ausschließlich internationale Fachzeitschriften erfasst, die ein kontrolliertes Peer-Review durchlaufen. Insgesamt werden ca. 12.000 Zeitschriften ausgewertet und über die Datenbank verfügbar gemacht. Wie bereits erwähnt, spielt neben der Abgrenzung der Suchräume und Dokumenttypen die Zugänglichkeit und Relevanz der Dokumente eine entscheidende Bedeutung für den Benutzer. Die neueren technologischen Entwicklungen des Web Information Retrieval (IR), wie sie Google oder GS implementieren, werten insbesondere frei zugängliche Dokumente mit ihrer gesamten Text- und Linkinformation automatisch aus. Diese Verfahren sind vor allem deshalb erfolgreich, weil sie Ergebnislisten nach Relevanz gerankt darstellen, einfach und schnell zu recherchieren sind und direkt auf die Volltexte verweisen. Die qualitativen Verfahren der traditionellen Informationsanbieter (z. B. WoS) hingegen zeigen genau bei diesen Punkten (Ranking, Einfachheit und Volltextzugriff) Schwächen, überzeugen aber vor allem durch ihre Stringenz, in diesem Fall die selektive Aufnahme von qualitätsgeprüften Dokumenten in das System und die inhaltliche Erschließung der Dokumente (siehe dazu Mayr und Petras, 2008).
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 62(2009) H.2, S.19-28
-
Vonhoegen, H.: Einstieg in XML (2002)
0.12
0.116567925 = product of:
0.23313585 = sum of:
0.17093353 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.17093353 = score(doc=5002,freq=4.0), product of:
0.44351026 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06293151 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.062202327 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.062202327 = score(doc=5002,freq=54.0), product of:
0.13957573 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06293151 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Perugini, S.; Ramakrishnan, N.: Mining Web functional dependencies for flexible information access (2007)
0.11
0.11017623 = product of:
0.4407049 = sum of:
0.4407049 = weight(_text_:hyperlink in 1602) [ClassicSimilarity], result of:
0.4407049 = score(doc=1602,freq=6.0), product of:
0.49147287 = queryWeight, product of:
7.809647 = idf(docFreq=48, maxDocs=44421)
0.06293151 = queryNorm
0.8967024 = fieldWeight in 1602, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.809647 = idf(docFreq=48, maxDocs=44421)
0.046875 = fieldNorm(doc=1602)
0.25 = coord(1/4)
- Abstract
- We present an approach to enhancing information access through Web structure mining in contrast to traditional approaches involving usage mining. Specifically, we mine the hardwired hierarchical hyperlink structure of Web sites to identify patterns of term-term co-occurrences we call Web functional dependencies (FDs). Intuitively, a Web FD x -> y declares that all paths through a site involving a hyperlink labeled x also contain a hyperlink labeled y. The complete set of FDs satisfied by a site help characterize (flexible and expressive) interaction paradigms supported by a site, where a paradigm is the set of explorable sequences therein. We describe algorithms for mining FDs and results from mining several hierarchical Web sites and present several interface designs that can exploit such FDs to provide compelling user experiences.