-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.09
0.08518173 = product of:
0.3407269 = sum of:
0.3407269 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.3407269 = score(doc=2673,freq=4.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
-
Bee, G.: Abschlussworkshop zum Projekt DDC Deutsch (2005)
0.08
0.083258405 = product of:
0.16651681 = sum of:
0.043654382 = weight(_text_:und in 4675) [ClassicSimilarity], result of:
0.043654382 = score(doc=4675,freq=82.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.31381142 = fieldWeight in 4675, product of:
9.055386 = tf(freq=82.0), with freq of:
82.0 = termFreq=82.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.015625 = fieldNorm(doc=4675)
0.12286243 = weight(_text_:hervor in 4675) [ClassicSimilarity], result of:
0.12286243 = score(doc=4675,freq=4.0), product of:
0.49658453 = queryWeight, product of:
7.917278 = idf(docFreq=43, maxDocs=44421)
0.062721625 = queryNorm
0.24741493 = fieldWeight in 4675, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.917278 = idf(docFreq=43, maxDocs=44421)
0.015625 = fieldNorm(doc=4675)
0.5 = coord(2/4)
- Content
- "Innerhalb der im Rahmen der allgemeinen Globalisierungsdiskussion geforderten stärkeren internationalen Vernetzung des deutschen Bibliothekswesens kommt der Orientierung an der Dewey-Dezimalklassifkation (DDC) seit einigen Jahren eine Schlüsselrolle zu. Die Deutsche Bibliothek, die Fachhochschule Köln und die Universitätsbibliothek Regensburg starteten deshalb im Oktober 2002 ein von der Deutschen Forschungsgemeinschaft (DFG) gefördertes Übersetzungsprojekt, das darauf abzielte, die DDC auf der Basis der derzeitigen englischen StandardEdition 22 als international verbreitetes Klassifikationssystem zu übersetzen und dabei an die spezifischen Bedürfnisse des Bibliothekswesens im deutschsprachigen Raum anzupassen. Zum Abschluss dieses Projekts fand am 20. April 2005 im Vortragssaal der Deutschen Bibliothek Frankfurt am Main ein Workshop statt, bei dem neben einer Bilanz der Übersetzungsarbeit auch die vielfältigen Überlegungen für die künftige Arbeit mit der DDC im Zentrum standen. Zu dieser Veranstaltung, die den Titel » Vorstellung der deutschen DDC 22 und Perspektiven für die DDC-Anwendung in den deutschsprachigen Ländern und international« trug, konnte die Generaldirektorin Der Deutschen Bibliothek, Dr. Elisabeth Niggemann, über 120 Vertreter aus Bibliotheken des deutschen Sprachgebiets begrüßen. In einer kurzen Einführungsrede hob Projektleiterin Magda Heiner-Freiling von der Deutschen Bibliothek Frankfurt am Main die gelungene Zusammenarbeit der verschiedenen Partner hervor. Ein für den Erfolg des Projekts entscheidender Glücksfall sei die enge Zusammenarbeit Der Deutschen Bibliothek mit der Fachhochschule Köln gewesen. Von maßgeblicher Bedeutung war aber auch die Mitwirkung der im Konsortium DDC zusammengeschlossenen Partner, zu denen neben den deutschen Bibliotheken und Verbünden auch die Schweizerische Landesbibliothek, Bern (SLB) und die Österreichische Bibliotheksverbund und Service GmbH gehören.
Der Startvortrag von Anne Betz, Melanie Jackenkroll und Tina Mengel von der Fachhochschule Köln vermittelte einen sehr anschaulichen Eindruck von der Herkulesaufgabe, der sich das Übersetzerteam zu stellen hatte. Im permanenten gedanklichen Austausch mit dem Online Computer Library Center (OCLC) und der Library of Congress, Washington (LoC) sowie zahlreichen bibliothekarischen Fachleuten aus deutschsprachigen Bibliotheken galt es 4.000 Seiten, 45.000 Klassen und 96.000 Registerbegriffe zu bewältigen. Dabei kam es darauf an, die Fachterminologie korrekt wiederzugeben, die mitunter schwerfällige und stark gewöhnungsbedürftige »DDC-Sprache« in angemessenes Deutsch zu übertragen und bei all dem den Erhalt des Gefüges von Themen und Disziplinen innerhalb des Systems, die »DDC-Mechanik«, zu gewährleisten. In welchem Maße es bei dieser Gratwanderung nicht nur sprachliche, sondern auch kulturelle und weltanschauliche Klippen zu überwinden galt, führte Anne Betz an einer Reihe von Beispielen aus. Bereits scheinbar harmlose Begriffe wie »worker« oder »recreation« und die mit ihnen verbundenen klassifikatorischen Zuordnungen bargen Fallstricke, die besondere Übersetzungsleistungen verlangten. In vielen Fällen wurden Kompromisslösungen gefunden, etwa bei der Frage, ob man englische Körperschaftsbezeichnungen ins Deutsche übersetzen oder die im Deutschen gebräuchlichen Namensformen verwenden sollte. Hier entschied man sich dafür, die englische Bezeichnung beizubehalten und durch den Zusatz der entsprechenden deutschen Bedeutung zu ergänzen. Die deutsche Übersetzung der DDC 22, soviel wurde bereits hier deutlich, hat einen wichtigen ersten Schritt vollzogen, um über eine regelgerechte Übersetzung hinaus den unterschiedlichen kulturellen Gegebenheiten und den spezifischen Suchgewohnheiten deutschsprachiger Benutzer in besonderer Weise entgegenzukommen.
Anerkennung für die Leistung des deutschen Teams sprach auch aus dem Vortrag von Julianne Beall von der LoC, die als Beauftragte von OCLC und Assistent Editor der DDC die Interessen des amerikanischen Partners an einer möglichst großen Nähe zum amerikanischen Original zu vertreten hatte. Dort zeigte man bei vielen deutschen Vorschlägen Verständnis und Entgegenkommen, sofern das Grundprinzip »The same DDC must be the same in every language« gewahrt wurde. Dass Kroaten und Bosnier hierzulande als getrennte Volksgruppen behandelt werden, wurde ebenso hingenommen wie die Tatsache, dass das deutsche Kegeln vom amerikanischen Bowling zu unterscheiden ist. Außerdem wurde anerkannt, dass die deutsche CDU den konservativen Parteien zuzurechnen ist und nicht dem, was nach amerikanischem Verständnis eine religiöse Partei charakterisiert. Mitunter, so Beall, sei man von deutscher Seite auch auf Fehler der amerikanischen Edition, etwa bei der Zuordnung europäischer Geografika, aufmerksam gemacht worden - Hinweise, die man dankbar zur Kenntnis genommen habe. Im Folgenden stellten Lars Svensson und Renate Polak-Bennemann von der IT-Abteilung der Deutschen Bibliothek Frankfurt am Main ein weiteres wichtiges Resultat des Projekts DDC Deutsch vor. Parallel zur Übersetzungsarbeit wurde ein Webservice entwickelt, der neben einem Klassifikationstool als wichtiges Hilfsmittel für Sacherschließer auch ein in konventionelle Bibliotheks-OPACs integrierbares Rechercheinstrument für Bibliotheksbenutzer enthalten wird. Die einzelnen Tools, die von Der Deutschen Bibliothek vertrieben werden, firmieren alle unter dem durch den Vornamen des DDC-Erfinders Dewey inspirierten Namen Melvil. Während das zentral bei Der Deutschen Bibliothek betriebene Tool MelvilClass zu einer erheblichen Erleichterung des aufwändigen Klassifikationsverfahrens beitragen soll, stellt MelvilSearch ein gleichermaßen zentral (bei Der Deutschen Bibliothek) wie lokal (z. B. in den Verbundzentralen) einsetzbares Recherchetool dar. MelvilSoap soll als Datenschnittstelle die Integration der DDC-Recherche in lokale Bibliothekssysteme ermöglichen.
Wie es nach dem Vorhandensein von Übersetzung und Webservice mit der DDC Deutsch konkret weitergeht, stand im Mittelpunkt der Ausführungen von Heidrun Alex, der DDC-Projektkoordinatorin an Der Deutschen Bibliothek. Sie erläuterte den Zeitplan für das Erscheinen der Druckausgabe und die Melvil-Lizenzierung und skizzierte die weitere Planung hinsichtlich des Ausbaus und der Pflege der deutschen DDC-Datenbank, die wiederum in enger Zusammenarbeit mit OCLC erfolgen soll. Sie betonte die Wichtigkeit von Nutzerrückmeldungen für eine kontinuierliche Verbesserung des Angebots und wies auf die von Der Deutschen Bibliothek künftig regelmäßig in Frankfurt am Main oder ggf. vor Ort angebotenen Fortbildungsveranstaltungen zur Klassifikation mit der DDC hin. Der Qualitätssicherung bei der DDC-Arbeit dient auch eine von Der Deutschen Bibliothek für Anfang 2006 geplante Reihe von Veranstaltungen, bei denen sich Bibliothekare, die mit der DDC klassifizieren, zu einem fachbezogenen Erfahrungsaustausch zusammenfinden können. Daran anknüpfend erläuterte Magda HeinerFreiling den künftigen Einsatz der DDC Deutsch innerhalb der Deutschen Nationalbibliografie. Ab Bibliografiejahrgang 2006 werden zunächst die - bisher nur partiell durch Beschlagwortung inhaltlich erfassten - Publikationen der Reihen B und H vollständig mit der DDC erschlossen. Ab Bibliografiejahrgang 2007 erhalten dann auch die Publikationen der Reihe A DDC-Notationen; unberücksichtigt bleiben lediglich belletristische Werke, Erbauungsliteratur, Schulbücher sowie die Kinder- und Jugendliteratur. Magda Heiner-Freiling stellte klar, dass der Einsatz der DDC in Der Deutschen Bibliothek keine Abkehr von der verbalen Sacherschließung markiere. Vielmehr werde das Nebeneinander von DDC und der Schlagwortnormdatei (SWD) es ermöglichen, das bibliothekarische Grundprinzip einer Verbindung von klassifikatorischer und verbaler Sacherschließung umfassend zu realisieren.
Die folgenden Referate dienten allesamt dem Ziel, den sich im bisherigen Verlauf des Workshops gelegentlich einstellenden Eindruck eines lediglich bilateralen - auf den deutsch-amerikanischen Kontakt bezogenen - Aufgabenfelds in einen umfassenderen Kontext einzubetten. Den Anfang machte der Vortrag von Patrice Landry, der als Leiter der Sacherschließung an der SLB bereits seit Ende der 90er-Jahre mit der amerikanischen DDC arbeitet. Landry betonte, dass sich derbisher nur eingeschränkt vollzogene - Einsatz der DDC in der SLB bewährt habe, und hob nachdrücklich die Vorteile einer numerisch orientierten Erschließung in einem auf eine mehrsprachige Gesellschaft ausgerichteten Bibliothekssystem hervor. Mit der DDC Deutsch verbindet Patrice Landry große Erwartungen; seiner Ansicht nach wird sie eine entscheidende Auswirkung auf den Einsatz der DDC in allen deutschsprachigen Bibliotheken haben. Mit Lucy Evans von der British Library, Boston Spa, kam die Vertreterin eines Landes zu Wort, das die bisher umfassendsten Erfahrungen mit der DDC auf europäischem Gebiet aufzuweisen hat. In Großbritannien ist die DDC seit den 20er-Jahren des vergangenen Jahrhunderts das dominante Klassifikationssystem und bestimmt dort auch die Aufstellung in den meisten öffentlichen Bibliotheken. Die British National Bibliography hat seit ihrem ersten Publikationsjahrgang 1950 auf die DDC zurückgegriffen und den Umfang des DDC-Einsatzes beständig ausgeweitet, sodass in naher Zukunft auch graue Literatur und digitale Publikationen mit der DDC erschlossen werden sollen.
Der Abschluss des Workshops ließ die Ebene der bisher vorwiegend erörterten praktischen Aufgabenstellungen des gegenwärtigen Bibliothekswesens weit hinter sich. Winfried Gödert und Michael Preuss von der Fachhochschule Köln reflektierten gemeinsam die Möglichkeit der Existenz einer universal einsetzbaren, durch alle Menschen in allen Wissensgebieten verwendbaren Klassifikation. Die von ihnen gefundene Lösung besteht in der Erweiterung eines Kernsystems durch eine spezifische Form der Lokalisierung, durch das Andocken der universal gültigen und allgemein verständlichen Klassifikationsmerkmale am jeweils verschiedenen Sinnhorizont des Empfängers. Aus dieser Erkenntnis leiteten Gödert und Preuss eine Reihe von Forderungen an die DDC Deutsch ab, etwa die Er schließung multilingualer Bestände durch ein multilinguales Zugangsvokabular oder den Zugriff auf eine möglichst große Zahl von Dateien, die nur nach einem universalen System erschlossen sind. Interessanterweise waren es gerade diese theoretischen Reflexionen, die Anlass zu lebhafter Diskussion boten und kritische Einwürfe aus dem Publikum hervorriefen, während es zuvor nur wenige Anfragen zu der Übersetzungsarbeit und dem Einsatz des Web-Tools gegeben hatte. Das Projekt DDC Deutsch ist zu Ende - die Arbeit an und mit der DDC Deutsch hat gerade erst begonnen. Auch die Diskussion über den Umfang des konkreten Einsatzes der DDC Deutsch ist noch im Fluss. Die Deutsche Bibliothek setzt hier, wie Magda HeinerFreiling noch einmal betonte, auf einen regen Meinungsaustausch mit den Bibliotheken im deutschsprachigen Raum. So entließ der Workshop die Teilnehmer mit der Erkenntnis, einen großen Schritt vorwärts gekommen zu sein, aber dennoch erst am Anfang einer zukunftsträchtigen Entwicklung zu stehen."
-
Ingwersen, P.; Järvelin, K.: ¬The turn : integration of information seeking and retrieval in context (2005)
0.07
0.07473327 = product of:
0.14946654 = sum of:
0.040870488 = weight(_text_:und in 2323) [ClassicSimilarity], result of:
0.040870488 = score(doc=2323,freq=46.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.29379928 = fieldWeight in 2323, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=2323)
0.108596064 = weight(_text_:hervor in 2323) [ClassicSimilarity], result of:
0.108596064 = score(doc=2323,freq=2.0), product of:
0.49658453 = queryWeight, product of:
7.917278 = idf(docFreq=43, maxDocs=44421)
0.062721625 = queryNorm
0.21868595 = fieldWeight in 2323, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.917278 = idf(docFreq=43, maxDocs=44421)
0.01953125 = fieldNorm(doc=2323)
0.5 = coord(2/4)
- Footnote
- Rez. in: Mitt. VÖB 59(2006) H.2, S.81-83 (O. Oberhauser): "Mit diesem Band haben zwei herausragende Vertreter der europäischen Informationswissenschaft, die Professoren Peter Ingwersen (Kopenhagen) und Kalervo Järvelin (Tampere) ein Werk vorgelegt, das man vielleicht dereinst als ihr opus magnum bezeichnen wird. Mich würde dies nicht überraschen, denn die Autoren unternehmen hier den ambitionierten Versuch, zwei informations wissenschaftliche Forschungstraditionen, die einander bisher in eher geringem Ausmass begegneten, unter einem gesamtheitlichen kognitiven Ansatz zu vereinen - das primär im sozialwissenschaftlichen Bereich verankerte Forschungsgebiet "Information Seeking and Retrieval" (IS&R) und das vorwiegend im Informatikbereich angesiedelte "Information Retrieval" (IR). Dabei geht es ihnen auch darum, den seit etlichen Jahren zwar dominierenden, aber auch als zu individualistisch kritisierten kognitiven Ansatz so zu erweitern, dass technologische, verhaltensbezogene und kooperative Aspekte in kohärenter Weise berücksichtigt werden. Dies geschieht auf folgende Weise in neun Kapiteln: - Zunächst werden die beiden "Lager" - die an Systemen und Laborexperimenten orientierte IR-Tradition und die an Benutzerfragen orientierte IS&R-Fraktion - einander gegenübergestellt und einige zentrale Begriffe geklärt. - Im zweiten Kapitel erfolgt eine ausführliche Darstellung der kognitiven Richtung der Informationswissenschaft, insbesondere hinsichtlich des Informationsbegriffes. - Daran schliesst sich ein Überblick über die bisherige Forschung zu "Information Seeking" (IS) - eine äusserst brauchbare Einführung in die Forschungsfragen und Modelle, die Forschungsmethodik sowie die in diesem Bereich offenen Fragen, z.B. die aufgrund der einseitigen Ausrichtung des Blickwinkels auf den Benutzer mangelnde Betrachtung der Benutzer-System-Interaktion. - In analoger Weise wird im vierten Kapitel die systemorientierte IRForschung in einem konzentrierten Überblick vorgestellt, in dem es sowohl um das "Labormodell" als auch Ansätze wie die Verarbeitung natürlicher Sprache und Expertensysteme geht. Aspekte wie Relevanz, Anfragemodifikation und Performanzmessung werden ebenso angesprochen wie die Methodik - von den ersten Laborexperimenten bis zu TREC und darüber hinaus.
- Kapitel fünf enthält einen entsprechenden Überblick über die kognitive und benutzerorientierte IR-Tradition. Es zeigt, welche anderen (als nur die labororientierten) IR-Studien durchgeführt werden können, wobei sich die Betrachtung von frühen Modellen (z.B. Taylor) über Belkins ASK-Konzept bis zu Ingwersens Modell der Polyrepräsentation, und von Bates Berrypicking-Ansatz bis zu Vakkaris "taskbased" IR-Modell erstreckt. Auch Web-IR, OKAPI und Diskussionen zum Relevanzbegriff werden hier thematisiert. - Im folgenden Kapitel schlagen die Autoren ein integriertes IS&R Forschungsmodell vor, bei dem die vielfältigen Beziehungen zwischen Informationssuchenden, Systementwicklern, Oberflächen und anderen beteiligten Aspekten berücksichtigt werden. Ihr Ansatz vereint die traditionelle Laborforschung mit verschiedenen benutzerorientierten Traditionen aus IS&R, insbesondere mit den empirischen Ansätzen zu IS und zum interaktiven IR, in einem holistischen kognitiven Modell. - Kapitel sieben untersucht die Implikationen dieses Modells für IS&R, wobei besonders ins Auge fällt, wie komplex die Anfragen von Informationssuchenden im Vergleich mit der relativen Einfachheit der Algorithmen zum Auffinden relevanter Dokumente sind. Die Abbildung der vielfältig variierenden kognitiven Zustände der Anfragesteller im Rahmen der der Systementwicklung ist sicherlich keine triviale Aufgabe. Wie dabei das Problem der Einbeziehung des zentralen Aspektes der Bedeutung gelöst werden kann, sei dahingestellt. - Im achten Kapitel wird der Versuch unternommen, die zuvor diskutierten Punkte in ein IS&R-Forschungsprogramm (Prozesse - Verhalten - Systemfunktionalität - Performanz) umzusetzen, wobei auch einige kritische Anmerkungen zur bisherigen Forschungspraxis getroffen werden. - Das abschliessende neunte Kapitel fasst das Buch kurz zusammen und kann somit auch als Einstieg in dieThematik gelesen werden. Darauffolgen noch ein sehr nützliches Glossar zu allen wichtigen Begriffen, die in dem Buch Verwendung finden, eine Bibliographie und ein Sachregister. Ingwersen und Järvelin haben hier ein sehr anspruchsvolles und dennoch lesbares Buch vorgelegt. Die gebotenen Übersichtskapitel und Diskussionen sind zwar keine Einführung in die Informationswissenschaft, decken aber einen grossen Teil der heute in dieser Disziplin aktuellen und durch laufende Forschungsaktivitäten und Publikationen berührten Teilbereiche ab. Man könnte es auch - vielleicht ein wenig überspitzt - so formulieren: Was hier thematisiert wird, ist eigentlich die moderne Informationswissenschaft. Der Versuch, die beiden Forschungstraditionen zu vereinen, wird diesem Werk sicherlich einen Platz in der Geschichte der Disziplin sichern. Nicht ganz glücklich erscheint der Titel des Buches. "The Turn" soll eine Wende bedeuten, nämlich jene hin zu einer integrierten Sicht von IS und IR. Das geht vermutlich aus dem Untertitel besser hervor, doch dieser erschien den Autoren wohl zu trocken. Schade, denn "The Turn" gibt es z.B. in unserem Verbundkatalog bereits, allerdings mit dem Zusatz "from the Cold War to a new era; the United States and the Soviet Union 1983-1990". Der Verlag, der abgesehen davon ein gediegenes (wenn auch nicht gerade wohlfeiles) Produkt vorgelegt hat, hätte derlei unscharfe Duplizierend besser verhindert. Ungeachtet dessen empfehle ich dieses wichtige Buch ohne Vorbehalt zur Anschaffung; es sollte in keiner grösseren Bibliothek fehlen."
-
Juhne, J.; Jensen, A.T.; Gronbaek, K.: Ariadne: a Java-based guided tour system for the World Wide Web (1998)
0.07
0.0730129 = product of:
0.2920516 = sum of:
0.2920516 = weight(_text_:java in 4593) [ClassicSimilarity], result of:
0.2920516 = score(doc=4593,freq=4.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.6607038 = fieldWeight in 4593, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=4593)
0.25 = coord(1/4)
- Abstract
- Presents a Guided tour system for the WWW, called Ariadne, which implements the ideas of trails and guided tours, originating from the hypertext field. Ariadne appears as a Java applet to the user and it stores guided tours in a database format separated from the WWW documents included in the tour. Itd main advantages are: an independent user interface which does not affect the layout of the documents being part of the tour, branching tours where the user may follow alternative routes, composition of existing tours into aggregate tours, overview map with indication of which parts of a tour have been visited an support for getting back on track. Ariadne is available as a research prototype, and it has been tested among a group of university students as well as casual users on the Internet
-
Time, quantum and information (2003)
0.07
0.07080098 = product of:
0.14160196 = sum of:
0.033005897 = weight(_text_:und in 3900) [ClassicSimilarity], result of:
0.033005897 = score(doc=3900,freq=30.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.23726434 = fieldWeight in 3900, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3900)
0.108596064 = weight(_text_:hervor in 3900) [ClassicSimilarity], result of:
0.108596064 = score(doc=3900,freq=2.0), product of:
0.49658453 = queryWeight, product of:
7.917278 = idf(docFreq=43, maxDocs=44421)
0.062721625 = queryNorm
0.21868595 = fieldWeight in 3900, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.917278 = idf(docFreq=43, maxDocs=44421)
0.01953125 = fieldNorm(doc=3900)
0.5 = coord(2/4)
- Footnote
- Rez. in: Spektrum der Wissenschaft. 2004, H.11., S.92-96 (S. Stier): "Nach Einsteins Allgemeiner Relativitätstheorie gibt es im Kosmos Objekte von so ungeheurer Gravitationskraft, dass aus ihrem Inneren keinerlei Informationen, auch nicht in Form von Licht, nach außen dringen können; sie werden deshalb als Schwarze Löcher bezeichnet. Eines der vielen Rätsel, die sie umgeben, war lange Zeit die Größe ihrer Entropie (siehe »Das holografische Universum« von Jacob Bekenstein, Spektrum der Wissenschaft 11/ 2003, S. 34). Nach der herkömmlichen Definition ist die Entropie ein Maß für den Informationsgehalt eines Objekts; sie berechnet sich aus der Zahl seiner inneren Zustände, in denen es dieselben Eigenschaften hat. Damit hängt sie davon ab, welche Eigenschaften man zur Beschreibung des Objekts wählt und wie detailliert man seine inneren Zustände beschreibt. Entropie und Information sind also relative, vom Kontext einer bestimmten Beschreibung abhängige Maße. je detaillierter die Beschreibung seiner inneren Zustände, desto größer die Entropie. Nicht so bei einem Schwarzen Loch: Da es alle Informationen über sein Inneres verbirgt, ist seine Entropie die Obergrenze für alles, was man überhaupt darüber wissen könnte, unabhängig von irgendwelchen Modellen seiner Struktur. Information wird damit zu einer unabhängigen Eigenschaft eines Objekts und zu einer absoluten physikalischen Größe. Das ist ein radikaler Bruch im Verständnis von Information. Mit Hilfe der von Bekenstein vor dreißig Jahren angegebenen Formel kann man berechnen, wie die Entropie eines Schwarzen Lochs von der Größe unseres Universums dadurch zunimmt, dass von außen ein Proton hineinstürzt. Diese Änderung lässt sich als der Informationsgehalt des Protons selbst interpretieren: Es sind 10**40 Bit, ein Wert, der im Rahmen der etablierten Physik eigentlich nicht erklärbar ist.
Zu genau diesem Ergebnis war schon einige Jahre zuvor Carl Friedrich von Weizsäcker auf völlig anderem Weg gekommen. Die von ihm entwickelte Urtheorie ist der radikale Versuch, die gesamte Naturwissenschaft, mit der Quantentheorie an der Spitze, auf den Informationsbegriff zurückzuführen: Ure sind nichts weiter als die Quantenbits (»Qubits«), die im Zusammenhang mit den Quantencomputern zu Ehren gekommen sind. Dabei setzt die Urtheorie nicht einmal die Struktur des Raumes voraus; diese ergibt sich erst aus der Verknüpfung der kleinsten Informationseinheit, der Entscheidung zwischen zwei Möglichkeiten, und der Quantentheorie. Bis heute ist die Urtheorie ein Fragment geblieben; so ist es nicht gelungen, eine Theorie der Wechselwirkung der Ure zu entwickeln, die schließlich zu einer Theorie der Elementarteilchen führen sollte. Der vorliegende Sammelband ist von Weizsäcker zu seinem 90. Geburtstag gewidmet; die sehr wenigen Forscher, die an der Urtheorie weitergearbeitet haben, kommen in mehreren Beiträgen zu Wort. Der Frankfurter Physiker Thomas Görnitz fasst seine eigenen einschlägigen Arbeiten zusammen. Dazu gehört die oben genannte Verknüpfung der Entropie Schwarzer Löcher mit der Urtheorie, die für Görnitz die »zentrale Anbindung« an die etablierte Physik ist. Ausgehend von den heute bekannten Größenordnungen für Radius und Dichte des Universums kommt er zu Abschätzungen für die Entropie des gesamten Universums und die Anzahl der darin enthaltenen Nukleonen und Photonen, die nach seiner Aussage mit den empirisch bekannten Daten gut übereinstimmen. Das gelte auch für die Energie der Photonen im Universum, der so genannten » kosmischen Hintergrundstrahlung«. Die Verknüpfung der Urtheorie mit der Allgemeinen Relativitätstheorie führe zu einem plausiblen kosmologischen Modell, in dem sich die extreme Kleinheit der »kosmologischen Konstanten«, der Vakuumenergie des Kosmos, in natürlicher Weise ergebe. Für die etablierten Theorien stelle dies ein erhebliches Problem dar.
Während sich die Beiträge zur Urtheorie an Spezialisten wenden, finden sich zu anderen Arbeitsgebieten von Weizsäckers eher allgemeinverständliche Darstellungen: Astro- und Kernphysik mit den thermonuklearen Prozessen in Sternen und der Entstehung der Planetensysteme sowie die Philosophie der Naturwissenschaft und der Zeit - alles in der für solche Festschriften typischen bunten Mischung. Hervorgehoben sei die Darstellung des Hamburger Friedensforschers Götz Neuneck zur deutschen Atomforschung während des Zweiten Weltkriegs und zu den nachfolgenden Bemühungen internationaler Wissenschaftler, die Institution des Kriegs nach dem Bau der Atombombe abzuschaffen. In beiden hat von Weizsäcker eine herausragende Rolle gespielt. Ein wichtiges Thema des Buchs sind die Grundlagen der Quantentheorie. Mit der Charakterisierung von Objekten durch Information ist die Urtheorie eine radikale Weiterführung der »Kopenhagener Deutung«, jener orthodoxen, aber von vielen Physikern nur mangels einer überzeugenden Alternative akzeptierten Interpretation der Quantentheorie. Ein seit deren Anfängen andauernder Streit geht darum, ob die Wellenfunktion, die Wahrscheinlichkeiten für Messergebnisse vorhersagt, gemäß der Kopenhagener Deutung das mögliche Wissen eines Beobachters darstellt oder eine davon unabhängige Realität beschreibt. Wie lebendig diese Debatte ist, machen mehrere Beiträge in diesem Buch deutlich. Hans Primas und Harald Atmanspacher lösen den Widerspruch nach dem Muster des Teilchen-Welle-Dualismus auf Beide Positionen beruhen auf unterschiedlichen Auffassungen der Wirklichkeit, die beide für eine Beschreibung der Natur je nach der zu Grunde liegenden Fragestellung notwendig seien. Claus Kiefer erläutert das Phänomen der »Dekohärenz«, wonach der quantenmechanische Messprozess in neuem Licht erscheine, wenn auch die Kopplung des Messgeräts an seine Umgebung berücksichtigt werde, denn unrealistische Überlagerungszustände im Messprozess wie die berühmte sowohl tote als auch lebendige »Schrödinger'sche Katze« seien bereits durch die Quantenmechanik selbst ausgeschlossen. Spätestens wenn der Kosmos als Ganzes betrachtet werde, komme die Kopenhagener Deutung an ihr Ende, denn hier gebe es keinen Beobachter mehr, für den die quantentheoretischen Möglichkeiten zu Fakten werden könnten.
Einen interessanten Vorschlag machen schließlich Ceslav Brukner und Anton Zeilinger von der Universität Wien. Ganz in von Weizsäckers Sinn, die Naturwissenschaft auf Ja-Nein-Aussagen zurückzuführen, streben sie nach einer Herleitung der Quantentheorie aus der Informationstheorie. Ihr Ausgangspunkt ist die Annahme, dass jedes physikalische Objekt einen endlichen Informationsgehalt hat. Da diese Information aber nicht ausreiche, um die Resultate aus allen möglichen Messungen festzulegen, könne eine bestimmte Messung nicht mehr mit Sicherheit vorhergesagt werden. Der Indeterminismus der Quantentheorie ist damit auf ein fundamentaleres Prinzip zurückgeführt. Viele Autoren heben die Bedeutung von Weizsäckers Fragen und Antworten als Quelle der Inspiration und als Herausforderung an die etablierte Wissen schaft hervor, die in ihrer Vorausschau noch nicht an ihr Ende gekommen sei. Dem ist wenig hinzuzufügen."
-
Reed, D.: Essential HTML fast (1997)
0.07
0.06883723 = product of:
0.27534893 = sum of:
0.27534893 = weight(_text_:java in 6851) [ClassicSimilarity], result of:
0.27534893 = score(doc=6851,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.62291753 = fieldWeight in 6851, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6851)
0.25 = coord(1/4)
- Abstract
- This book provides a quick, concise guide to the issues surrounding the preparation of a well-designed, professional web site using HTML. Topics covered include: how to plan your web site effectively, effective use of hypertext, images, audio and video; layout techniques using tables and and list; how to use style sheets, font sizes and plans for mathematical equation make up. Integration of CGI scripts, Java and ActiveX into your web site is also discussed
-
Lord Wodehouse: ¬The Intranet : the quiet (r)evolution (1997)
0.07
0.06883723 = product of:
0.27534893 = sum of:
0.27534893 = weight(_text_:java in 171) [ClassicSimilarity], result of:
0.27534893 = score(doc=171,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.62291753 = fieldWeight in 171, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=171)
0.25 = coord(1/4)
- Abstract
- Explains how the Intranet (in effect an Internet limited to the computer systems of a single organization) developed out of the Internet, and what its uses and advantages are. Focuses on the Intranet developed in the Glaxo Wellcome organization. Briefly discusses a number of technologies in development, e.g. Java, Real audio, 3D and VRML, and summarizes the issues involved in the successful development of the Intranet, that is, bandwidth, searching tools, security, and legal issues
-
Wang, J.; Reid, E.O.F.: Developing WWW information systems on the Internet (1996)
0.07
0.06883723 = product of:
0.27534893 = sum of:
0.27534893 = weight(_text_:java in 604) [ClassicSimilarity], result of:
0.27534893 = score(doc=604,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.62291753 = fieldWeight in 604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=604)
0.25 = coord(1/4)
- Abstract
- Gives an overview of Web information system development. Discusses some basic concepts and technologies such as HTML, HTML FORM, CGI and Java, which are associated with developing WWW information systems. Further discusses the design and implementation of Virtual Travel Mart, a Web based end user oriented travel information system. Finally, addresses some issues in developing WWW information systems
-
Ameritech releases Dynix WebPac on NT (1998)
0.07
0.06883723 = product of:
0.27534893 = sum of:
0.27534893 = weight(_text_:java in 2782) [ClassicSimilarity], result of:
0.27534893 = score(doc=2782,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.62291753 = fieldWeight in 2782, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=2782)
0.25 = coord(1/4)
- Abstract
- Ameritech Library Services has released Dynix WebPac on NT, which provides access to a Dynix catalogue from any Java compatible Web browser. Users can place holds, cancel and postpone holds, view and renew items on loan and sort and limit search results from the Web. Describes some of the other features of Dynix WebPac
-
OCLC completes SiteSearch 4.0 field test (1998)
0.07
0.06883723 = product of:
0.27534893 = sum of:
0.27534893 = weight(_text_:java in 3078) [ClassicSimilarity], result of:
0.27534893 = score(doc=3078,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.62291753 = fieldWeight in 3078, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=3078)
0.25 = coord(1/4)
- Abstract
- OCLC has announced that 6 library systems have completed field tests of the OCLC SiteSearch 4.0 suite of software, paving its way for release. Traces the beta site testing programme from its beginning in November 1997 and notes that OCLC SiteServer components have been written in Java programming language which will increase libraries' ability to extend the functionality of the SiteSearch software to create new features specific to local needs
-
Robinson, D.A.; Lester, C.R.; Hamilton, N.M.: Delivering computer assisted learning across the WWW (1998)
0.07
0.06883723 = product of:
0.27534893 = sum of:
0.27534893 = weight(_text_:java in 4618) [ClassicSimilarity], result of:
0.27534893 = score(doc=4618,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.62291753 = fieldWeight in 4618, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=4618)
0.25 = coord(1/4)
- Abstract
- Demonstrates a new method of providing networked computer assisted learning to avoid the pitfalls of traditional methods. This was achieved using Web pages enhanced with Java applets, MPEG video clips and Dynamic HTML
-
Bates, C.: Web programming : building Internet applications (2000)
0.07
0.06883723 = product of:
0.27534893 = sum of:
0.27534893 = weight(_text_:java in 130) [ClassicSimilarity], result of:
0.27534893 = score(doc=130,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.62291753 = fieldWeight in 130, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=130)
0.25 = coord(1/4)
- Object
- Java
-
Zschunke, P.: Richtig googeln : Ein neues Buch hilft, alle Möglichkeiten der populären Suchmaschine zu nutzen (2003)
0.07
0.06858666 = product of:
0.13717332 = sum of:
0.10325585 = weight(_text_:java in 55) [ClassicSimilarity], result of:
0.10325585 = score(doc=55,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.23359407 = fieldWeight in 55, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.033917475 = weight(_text_:und in 55) [ClassicSimilarity], result of:
0.033917475 = score(doc=55,freq=22.0), product of:
0.13911024 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062721625 = queryNorm
0.24381724 = fieldWeight in 55, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=55)
0.5 = coord(2/4)
- Content
- "Fünf Jahre nach seiner Gründung ist Google zum Herz des weltweiten Computernetzes geworden. Mit seiner Konzentration aufs Wesentliche hat die Suchmaschine alle anderen Anbieter weit zurück gelassen. Aber Google kann viel mehr, als im Web nach Texten und Bildern zu suchen. Gesammelt und aufbereitet werden auch Beiträge in Diskussionsforen (Newsgroups), aktuelle Nachrichten und andere im Netz verfügbare Informationen. Wer sich beim "Googeln" darauf beschränkt, ein einziges Wort in das Suchformular einzutippen und dann die ersten von oft mehreren hunderttausend Treffern anzuschauen, nutzt nur einen winzigen Bruchteil der Möglichkeiten. Wie man Google bis zum letzten ausreizt, haben Tara Calishain und Rael Dornfest in einem bislang nur auf Englisch veröffentlichten Buch dargestellt (Tara Calishain/Rael Dornfest: Google Hacks", www.oreilly.de, 28 Euro. Die wichtigsten Praxistipps kosten als Google Pocket Guide 12 Euro). - Suchen mit bis zu zehn Wörtern - Ihre "100 Google Hacks" beginnen mit Google-Strategien wie der Kombination mehrerer Suchbegriffe und enden mit der Aufforderung zur eigenen Nutzung der Google API ("Application Programming Interface"). Diese Schnittstelle kann zur Entwicklung von eigenen Programmen eingesetzt werden,,die auf die Google-Datenbank mit ihren mehr als drei Milliarden Einträgen zugreifen. Ein bewussteres Suchen im Internet beginnt mit der Kombination mehrerer Suchbegriffe - bis zu zehn Wörter können in das Formularfeld eingetippt werden, welche Google mit dem lo-gischen Ausdruck "und" verknüpft. Diese Standardvorgabe kann mit einem dazwischen eingefügten "or" zu einer Oder-Verknüpfung geändert werden. Soll ein bestimmter Begriff nicht auftauchen, wird ein Minuszeichen davor gesetzt. Auf diese Weise können bei einer Suche etwa alle Treffer ausgefiltert werden, die vom Online-Buchhändler Amazon kommen. Weiter gehende Syntax-Anweisungen helfen ebenfalls dabei, die Suche gezielt einzugrenzen: Die vorangestellte Anweisung "intitle:" etwa (ohne Anführungszeichen einzugeben) beschränkt die Suche auf all diejenigen Web-Seiten, die den direkt danach folgenden Begriff in ihrem Titel aufführen. Die Computer von Google bewältigen täglich mehr als 200 Millionen Anfragen. Die Antworten kommen aus einer Datenbank, die mehr als drei Milliarden Einträge enthält und regelmäßig aktualisiert wird. Dazu Werden SoftwareRoboter eingesetzt, so genannte "Search-Bots", die sich die Hyperlinks auf Web-Seiten entlang hangeln und für jedes Web-Dokument einen Index zur Volltextsuche anlegen. Die Einnahmen des 1998 von Larry Page und Sergey Brin gegründeten Unternehmens stammen zumeist von Internet-Portalen, welche die GoogleSuchtechnik für ihre eigenen Dienste übernehmen. Eine zwei Einnahmequelle ist die Werbung von Unternehmen, die für eine optisch hervorgehobene Platzierung in den GoogleTrefferlisten zahlen. Das Unternehmen mit Sitz im kalifornischen Mountain View beschäftigt rund 800 Mitarbeiter. Der Name Google leitet sich ab von dem Kunstwort "Googol", mit dem der amerikanische Mathematiker Edward Kasner die unvorstellbar große Zahl 10 hoch 100 (eine 1 mit hundert Nullen) bezeichnet hat. Kommerzielle Internet-Anbieter sind sehr, daran interessiert, auf den vordersten Plätzen einer Google-Trefferliste zu erscheinen.
Da Google im Unterschied zu Yahoo oder Lycos nie ein auf möglichst viele Besuche angelegtes Internet-Portal werden wollte, ist die Suche in der Datenbank auch außerhalb der Google-Web-Site möglich. Dafür gibt es zunächst die "Google Toolbar" für den Internet Explorer, mit der dieser Browser eine eigene Leiste, für die Google-Suche erhält. Freie Entwickler bieten im Internet eine eigene Umsetzung: dieses Werkzeugs auch für den Netscape/ Mozilla-Browser an. Daneben kann ein GoogleSucheingabefeld aber auch auf die eigene WebSeite platziert werden - dazu sind nur vier Zei-len HTML-Code nötig. Eine Google-Suche zu starten, ist übrigens auch ganz ohne Browser möglich. Dazu hat das Unternehmen im Aprilvergangenen Jahres die API ("Application Programming Interface") frei gegeben, die in eigene Programme' eingebaut wird. So kann man etwa eine Google-Suche mit einer E-Mail starten: Die Suchbegriffe werden in die Betreff Zeile einer ansonsten leeren EMail eingetragen, die an die Adresse google@capeclear.com geschickt wird. Kurz danach trifft eine automatische Antwort-Mail mit den ersten zehn Treffern ein. Die entsprechenden Kenntnisse vorausgesetzt, können Google-Abfragen auch in Web-Services eingebaut werden - das sind Programme, die Daten aus dem Internet verarbeiten. Als Programmiertechniken kommen dafür Perl, PHP, Python oder Java in Frage. Calishain und Dornfest stellen sogar eine Reihe von abgedrehten Sites vor, die solche Programme für abstrakte Gedichte oder andere Kunstwerke einsetzen."
-
Braeckman, J.: ¬The integration of library information into a campus wide information system (1996)
0.06
0.060232576 = product of:
0.2409303 = sum of:
0.2409303 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.2409303 = score(doc=729,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.5450528 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=729)
0.25 = coord(1/4)
- Abstract
- Discusses the development of Campus Wide Information Systems with reference to the work of Leuven University Library. A 4th phase can now be distinguished in the evolution of CWISs as they evolve towards Intranets. WWW technology is applied to organise a consistent interface to different types of information, databases and services within an institution. WWW servers now exist via which queries and query results are translated from the Web environment to the specific database query language and vice versa. The integration of Java will enable programs to be executed from within the Web environment. Describes each phase of CWIS development at KU Leuven
-
Chang, S.-F.; Smith, J.R.; Meng, J.: Efficient techniques for feature-based image / video access and manipulations (1997)
0.06
0.060232576 = product of:
0.2409303 = sum of:
0.2409303 = weight(_text_:java in 756) [ClassicSimilarity], result of:
0.2409303 = score(doc=756,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.5450528 = fieldWeight in 756, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=756)
0.25 = coord(1/4)
- Abstract
- Describes 2 research projects aimed at studying the parallel issues of image and video indexing, information retrieval and manipulation: VisualSEEK, a content based image query system and a Java based WWW application supporting localised colour and spatial similarity retrieval; and CVEPS (Compressed Video Editing and Parsing System) which supports video manipulation with indexing support of individual frames from VisualSEEK and a hierarchical new video browsing and indexing system. In both media forms, these systems address the problem of heterogeneous unconstrained collections
-
Lo, M.L.: Recent strategies for retrieving chemical structure information on the Web (1997)
0.06
0.060232576 = product of:
0.2409303 = sum of:
0.2409303 = weight(_text_:java in 3611) [ClassicSimilarity], result of:
0.2409303 = score(doc=3611,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.5450528 = fieldWeight in 3611, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3611)
0.25 = coord(1/4)
- Abstract
- Discusses various structural searching methods available on the Web. some databases such as the Brookhaven Protein Database use keyword searching which does not provide the desired substructure search capabilities. Others like CS ChemFinder and MDL's Chemscape use graphical plug in programs. Although plug in programs provide more capabilities, users first have to obtain a copy of the programs. Due to this limitation, Tripo's WebSketch and ACD Interactive Lab adopt a different approach. Using JAVA applets, users create and display a structure query of the molecule on the web page without using other software. The new technique is likely to extend itself to other electronic publications
-
Kirschenbaum, M.: Documenting digital images : textual meta-data at the Blake Archive (1998)
0.06
0.060232576 = product of:
0.2409303 = sum of:
0.2409303 = weight(_text_:java in 4287) [ClassicSimilarity], result of:
0.2409303 = score(doc=4287,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.5450528 = fieldWeight in 4287, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4287)
0.25 = coord(1/4)
- Abstract
- Describes the work undertaken by the Wiliam Blake Archive, Virginia University, to document the metadata tools for handling digital images of illustrations accompanying Blake's work. Images are encoded in both JPEG and TIFF formats. Image Documentation (ID) records are slotted into that portion of the JPEG file reserved for textual metadata. Because the textual content of the ID record now becomes part of the image file itself, the documentary metadata travels with the image even it it is downloaded from one file to another. The metadata is invisible when viewing the image but becomes accessible to users via the 'info' button on the control panel of the Java applet
-
Priss, U.: ¬A graphical interface for conceptually navigating faceted thesauri (1998)
0.06
0.060232576 = product of:
0.2409303 = sum of:
0.2409303 = weight(_text_:java in 658) [ClassicSimilarity], result of:
0.2409303 = score(doc=658,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.5450528 = fieldWeight in 658, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=658)
0.25 = coord(1/4)
- Abstract
- This paper describes a graphical interface for the navigation and construction of faceted thesauri that is based on formal concept analysis. Each facet of a thesaurus is represented as a mathematical lattice that is further subdivided into components. Users can graphically navigate through the Java implementation of the interface by clicking on terms that connect facets and components. Since there are many applications for thesauri in the knowledge representation field, such a graphical interface has the potential of being very useful
-
Renehan, E.J.: Science on the Web : a connoisseur's guide to over 500 of the best, most useful, and most fun science Websites (1996)
0.06
0.060232576 = product of:
0.2409303 = sum of:
0.2409303 = weight(_text_:java in 1211) [ClassicSimilarity], result of:
0.2409303 = score(doc=1211,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.5450528 = fieldWeight in 1211, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=1211)
0.25 = coord(1/4)
- Abstract
- Written by the author of the best-selling 1001 really cool Web sites, this fun and informative book enables readers to take full advantage of the Web. More than a mere directory, it identifies and describes the best sites, guiding surfers to such innovations as VRML3-D and Java. Aside from downloads of Web browsers, Renehan points the way to free compilers and interpreters as well as free online access to major scientific journals
-
Friedrich, M.; Schimkat, R.-D.; Küchlin, W.: Information retrieval in distributed environments based on context-aware, proactive documents (2002)
0.06
0.060232576 = product of:
0.2409303 = sum of:
0.2409303 = weight(_text_:java in 4608) [ClassicSimilarity], result of:
0.2409303 = score(doc=4608,freq=2.0), product of:
0.44203112 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062721625 = queryNorm
0.5450528 = fieldWeight in 4608, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4608)
0.25 = coord(1/4)
- Abstract
- In this position paper we propose a document-centric middleware component called Living Documents to support context-aware information retrieval in distributed communities. A Living Document acts as a micro server for a document which contains computational services, a semi-structured knowledge repository to uniformly store and access context-related information, and finally the document's digital content. Our initial prototype of Living Documents is based an the concept of mobile agents and implemented in Java and XML.