-
Dörler, D.; Heigl, F.: Citizen science in Austria (2019)
0.10
0.10226905 = product of:
0.2045381 = sum of:
0.021963941 = weight(_text_:und in 690) [ClassicSimilarity], result of:
0.021963941 = score(doc=690,freq=2.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.14702731 = fieldWeight in 690, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=690)
0.18257417 = weight(_text_:hand in 690) [ClassicSimilarity], result of:
0.18257417 = score(doc=690,freq=4.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.5041039 = fieldWeight in 690, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.046875 = fieldNorm(doc=690)
0.5 = coord(2/4)
- Abstract
- Citizen Science, the active involvement of lay people without any academic education in the project specific scientific process, has experienced a massive increase in academic fields and projects in the last years. This active involvement can be designed in many different ways, which is often project and context specific. The popularity of citizen science goes hand in hand with the discussion about open science, and in fact both concepts are deeply connected with eac other in many ways. Whereas in open science lay people don't have to be involved in a project necessarily, citizen science often uses open science methods and tools to make this active involvement possible. In this text, the authors will give a short introduction to citizen science, its connections to open science, and the developments of citizen science in Austria in the last years and in the future.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 72(2019) H.2-4, S.284-296
-
Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996)
0.10
0.10131633 = product of:
0.20263267 = sum of:
0.14784497 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
0.14784497 = score(doc=2121,freq=2.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.31145877 = fieldWeight in 2121, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.054787695 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
0.054787695 = score(doc=2121,freq=28.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.36675057 = fieldWeight in 2121, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.5 = coord(2/4)
- Content
- Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.10
0.10131633 = product of:
0.20263267 = sum of:
0.14784497 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.14784497 = score(doc=346,freq=2.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.054787695 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.054787695 = score(doc=346,freq=28.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Körner, H.G.: Notationssysteme für Dokumentationssprachen und Klassifikationssysteme (1980)
0.10
0.10093261 = product of:
0.20186523 = sum of:
0.0512492 = weight(_text_:und in 1238) [ClassicSimilarity], result of:
0.0512492 = score(doc=1238,freq=8.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.34306374 = fieldWeight in 1238, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1238)
0.15061602 = weight(_text_:hand in 1238) [ClassicSimilarity], result of:
0.15061602 = score(doc=1238,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.41586453 = fieldWeight in 1238, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0546875 = fieldNorm(doc=1238)
0.5 = coord(2/4)
- Abstract
- Klassifikationen haben i.a. bei jeder Systemstelle eine Notation, die den Platz im System festlegt und als Kurzbezeichnung dient. Dokumentationssprachen verwenden häufig einen hierarchisch strukturierten Thesaurus, bei dem ebenfalls Notationen eingesetzt werden können. Beim Entwurf von Notationen sollten computer-interne und computer-externe Aspekte berücksichtigt werden. Es wird systematisch dargestellt, welche grundsätzlichen Typen von Notationssysstemen entworfen werden können, u.a. auch die vom Verfasser entwickelten durchgehenden oder sequentiellen Notationen mit Ebenenindikator. Linksbündige sequentielle Notationssysteme sind besonders flexibel, d.h. Einfügungen und andere Veränderungen sind leicht möglich. Die Bewertung von Notationssystemen, an einem Beispiel durchgeführt, geschieht an Hand eines möglichst umfassenden Anforderungskatalogs. Für Entwurfsentscheidungen werden die Methoden der Nutzwertanalyse empfohlen, insbesondere auch bei der Frage, ob Notationen überhaupt eingesetzt werden sollen. Eine weitere Möglichkeit ist, daß Notationen nur auf bestimmten hierarchischen Ebenen verwendet werden
-
Ikas, W.-V.; Thumser, N.: Vom (retrokonvertierten) Kartenkatalog zur facettierten Suche : technische Neuerungen bei der BSB-Forschungsdokumentation (2016)
0.10
0.10093261 = product of:
0.20186523 = sum of:
0.0512492 = weight(_text_:und in 193) [ClassicSimilarity], result of:
0.0512492 = score(doc=193,freq=8.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.34306374 = fieldWeight in 193, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=193)
0.15061602 = weight(_text_:hand in 193) [ClassicSimilarity], result of:
0.15061602 = score(doc=193,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.41586453 = fieldWeight in 193, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0546875 = fieldNorm(doc=193)
0.5 = coord(2/4)
- Abstract
- Die sogenannte Forschungsdokumentation stellt für die fachwissenschaftliche Forschung über die Hand- und Druckschriftenbestände der Bayerischen Staatsbibliothek (BSB) ein unverzichtbares und somit stark nachgefragtes Hilfsmittel dar, das seit nunmehr sechseinhalb Jahrzehnten unterhalten und kontinuierlich ausgebaut wird. Die seit 2004 verfügbare Datenbank ist Anfang 2015 in einer neuen, technisch deutlich verbesserten Version unter der Adresse https://hsslit.bsb-muenchen.de zugänglich gemacht worden. Dabei galt es, sowohl auf die enorm gestiegenen Nutzererwartungen der Fachcommunity zu reagieren, als auch auf die vorhandenen personellen Ressourcen im Bibliotheksbereich eine Antwort zu finden und somit auch die Mitarbeiterperspektive entsprechend zu berücksichtigen. Trotz aller Anpassungen an die spezifischen Bedürfnisse der Bibliothek hat diese technische Lösung einen gewissen Modellcharakter.
-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.10
0.09928426 = product of:
0.19856852 = sum of:
0.14784497 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.14784497 = score(doc=6889,freq=2.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.050723553 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.050723553 = score(doc=6889,freq=24.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.10
0.09928426 = product of:
0.19856852 = sum of:
0.14784497 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.14784497 = score(doc=1642,freq=2.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.050723553 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.050723553 = score(doc=1642,freq=24.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
Thissen, F.: Screen-Design-Handbuch : Effektiv informieren und kommunizieren mit Multimedia (2001)
0.10
0.099277765 = product of:
0.19855553 = sum of:
0.069456086 = weight(_text_:und in 2781) [ClassicSimilarity], result of:
0.069456086 = score(doc=2781,freq=20.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.4649412 = fieldWeight in 2781, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2781)
0.12909944 = weight(_text_:hand in 2781) [ClassicSimilarity], result of:
0.12909944 = score(doc=2781,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.3564553 = fieldWeight in 2781, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.046875 = fieldNorm(doc=2781)
0.5 = coord(2/4)
- Abstract
- Das Screen-Design-Handbuch gibt Gestaltern interaktiver Medien eine praktische Arbeitshilfe an die Hand, um Informationen zielgruppen- und mediengerecht aufzubereiten und darzustellen. Es zeigt Hintergründe und Zusammenhänge auf, verdeutlicht diese anhand von Beispielen und regt dazu an, die Sprache der digitalen Medien weiter zu entwickeln. Grundlagen der Wahrnehmungs- und Lernpsychologie, der Ergonomie, der Kommunikationstheorie, der Imagery-Forschung und der Ästhethik werden dabei ebenso berücksichtigt wie Fragen der Gestaltung von Navigations- und Orientierungselementen. Die Neuauflage enthält mehr Beispiele und Checklisten sowie neue Kapitel über Wahrnehmung, Web-Nutzung und Projektmanagement
-
Hassler, M.: Web analytics : Metriken auswerten, Besucherverhalten verstehen, Website optimieren ; [Metriken analysieren und interpretieren ; Besucherverhalten verstehen und auswerten ; Website-Ziele definieren, Webauftritt optimieren und den Erfolg steigern] (2009)
0.10
0.09850598 = product of:
0.19701196 = sum of:
0.06657466 = weight(_text_:und in 573) [ClassicSimilarity], result of:
0.06657466 = score(doc=573,freq=54.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.44565287 = fieldWeight in 573, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=573)
0.1304373 = weight(_text_:hand in 573) [ClassicSimilarity], result of:
0.1304373 = score(doc=573,freq=6.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.36014926 = fieldWeight in 573, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.02734375 = fieldNorm(doc=573)
0.5 = coord(2/4)
- Abstract
- Web Analytics bezeichnet die Sammlung, Analyse und Auswertung von Daten der Website-Nutzung mit dem Ziel, diese Informationen zum besseren Verständnis des Besucherverhaltens sowie zur Optimierung der Website zu nutzen. Je nach Ziel der eigenen Website - z.B. die Vermittlung eines Markenwerts oder die Vermehrung von Kontaktanfragen, Bestellungen oder Newsletter-Abonnements - können Sie anhand von Web Analytics herausfinden, wo sich Schwachstellen Ihrer Website befinden und wie Sie Ihre eigenen Ziele durch entsprechende Optimierungen besser erreichen. Dabei ist Web Analytics nicht nur für Website-Betreiber und IT-Abteilungen interessant, sondern wird insbesondere auch mehr und mehr für Marketing und Management nutzbar. Mit diesem Buch lernen Sie, wie Sie die Nutzung Ihrer Website analysieren. Sie können z. B. untersuchen, welche Traffic-Quelle am meisten Umsatz bringt oder welche Bereiche der Website besonders häufig genutzt werden und vieles mehr. Auf diese Weise werden Sie Ihre Besucher, ihr Verhalten und ihre Motivation besser kennen lernen, Ihre Website darauf abstimmen und somit Ihren Erfolg steigern können. Um aus Web Analytics einen wirklichen Mehrwert ziehen zu können, benötigen Sie fundiertes Wissen. Marco Hassler gibt Ihnen in seinem Buch einen umfassenden Einblick in Web Analytics. Er zeigt Ihnen detailliert, wie das Verhalten der Besucher analysiert wird und welche Metriken Sie wann sinnvoll anwenden können. Im letzten Teil des Buches zeigt Ihnen der Autor, wie Sie Ihre Auswertungsergebnisse dafür nutzen, über Conversion-Messungen die Website auf ihre Ziele hin zu optimieren. Ziel dieses Buches ist es, konkrete Web-Analytics-Kenntnisse zu vermitteln und wertvolle praxisorientierte Tipps zu geben. Dazu schlägt das Buch die Brücke zu tangierenden Themenbereichen wie Usability, User-Centered-Design, Online Branding, Online-Marketing oder Suchmaschinenoptimierung. Marco Hassler gibt Ihnen klare Hinweise und Anleitungen, wie Sie Ihre Ziele erreichen.
- BK
- 85.20 / Betriebliche Information und Kommunikation
- Classification
- 85.20 / Betriebliche Information und Kommunikation
- Footnote
- Rez. in Mitt. VÖB 63(2010) H.1/2, S.147-148 (M. Buzinkay): "Webseiten-Gestaltung und Webseiten-Analyse gehen Hand in Hand. Leider wird das Letztere selten wenn überhaupt berücksichtigt. Zu Unrecht, denn die Analyse der eigenen Maßnahmen ist zur Korrektur und Optimierung entscheidend. Auch wenn die Einsicht greift, dass die Analyse von Webseiten wichtig wäre, ist es oft ein weiter Weg zur Realisierung. Warum? Analyse heißt kontinuierlicher Aufwand, und viele sind nicht bereit beziehungsweise haben nicht die zeitlichen Ressourcen dazu. Ist man einmal zu der Überzeugung gelangt, dass man seine Web-Aktivitäten dennoch optimieren, wenn nicht schon mal gelegentlich hinterfragen sollte, dann lohnt es sich, Marco Hasslers "Web Analytics" in die Hand zu nehmen. Es ist definitiv kein Buch für einen einzigen Lese-Abend, sondern ein Band, mit welchem gearbeitet werden muss. D.h. auch hier: Web-Analyse bedeutet Arbeit und intensive Auseinandersetzung (ein Umstand, den viele nicht verstehen und akzeptieren wollen). Das Buch ist sehr dicht und bleibt trotzdem übersichtlich. Die Gliederung der Themen - von den Grundlagen der Datensammlung, über die Definition von Metriken, hin zur Optimierung von Seiten und schließlich bis zur Arbeit mit Web Analyse Werkzeugen - liefert einen roten Faden, der schön von einem Thema auf das nächste aufbaut. Dadurch fällt es auch leicht, ein eigenes Projekt begleitend zur Buchlektüre Schritt für Schritt aufzubauen. Zahlreiche Screenshots und Illustrationen erleichtern zudem das Verstehen der Zusammenhänge und Erklärungen im Text. Das Buch überzeugt aber auch durch seine Tiefe (bis auf das Kapitel, wo es um die Zusammenstellung von Personas geht) und den angenehm zu lesenden Schreibstil. Von mir kommt eine dringende Empfehlung an alle, die sich mit Online Marketing im Allgemeinen, mit Erfolgskontrolle von Websites und Web-Aktivitäten im Speziellen auseindersetzen."
-
Scheidler, F.: ¬Der Stoff, aus dem wir sind : warum wir Natur und Gesellschaft neu denken müssen (2021)
0.10
0.097499564 = product of:
0.19499913 = sum of:
0.044383112 = weight(_text_:und in 1343) [ClassicSimilarity], result of:
0.044383112 = score(doc=1343,freq=6.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.29710194 = fieldWeight in 1343, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1343)
0.15061602 = weight(_text_:hand in 1343) [ClassicSimilarity], result of:
0.15061602 = score(doc=1343,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.41586453 = fieldWeight in 1343, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0546875 = fieldNorm(doc=1343)
0.5 = coord(2/4)
- Abstract
- Ökologische Krise und Klimachaos bedrohen die Zukunft der Menschheit. Eine der Ursachen dafür ist ein technokratisches Weltbild, das die Natur zu einer beherrschbaren Ressource in der Hand des Menschen degradiert. Fabian Scheidler zeigt in einer faszinierenden Reise durch die Geschichte der Wissenschaften, dass diese Auffassung der Natur ein tödlicher Irrtum ist. Mit einem überraschenden neuen Blick auf das Leben, die Wissenschaft und uns selbst eröffnet dieses Buch Perspektiven für einen tiefgreifenden gesellschaftlichen Wandel.
-
Weber, J.: Nachlässe und Autographen im WWW : Dublin Core in Museen, Archiven und Bibliotheken (2000)
0.10
0.09749563 = product of:
0.19499126 = sum of:
0.065891825 = weight(_text_:und in 5458) [ClassicSimilarity], result of:
0.065891825 = score(doc=5458,freq=18.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.44108194 = fieldWeight in 5458, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=5458)
0.12909944 = weight(_text_:hand in 5458) [ClassicSimilarity], result of:
0.12909944 = score(doc=5458,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.3564553 = fieldWeight in 5458, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.046875 = fieldNorm(doc=5458)
0.5 = coord(2/4)
- Abstract
- Vielen Bibliotheksbenutzern wird inzwischen mehr und mehr bewußt: Alle Vernetzungsbestrebungen in Bibliotheksbereich, die lokale Traditionen zugunsten eines überregionalen Nachweises der Bestände aufgeben, handeln auch gegen die Benutzerinteressen. Wir werden uns zunehmend klar darüber, daß von den meisten wissenschaftlern der lokale Online-Katalog allein für Literaturrecherchen herangezogen wird, und zwar aus dem Grund, daß das gesuchte Buch so schnell und unkompliziert wie möglich zur Hand sein soll. Diese Feststellung impliziert auch den Gedanken, daß die Aufgabe guter lokaler Katalogisierungstraditionen möglicherweise ein unwiederbringlicher Verlust ist, ein Schritt hin zu einer schlechteren und oberflächlicheren Information. Wie sich eine überregionale Verbesserung der Nachweissituation unter gleichzeitiger Bewahrung lokaler Traditionen darstellen kann, ist Gegenstand der folgenden Ausführungen. Sie bahandeln das Thema aus dem Blickwinkel der Bilbiotheken, Archive und Museen, deren aufgabe im Nachweis und der Bewahrung von Unikaten besteht. die hier behandelte Metadatendiskussion bezieht sich also auf die Beschreibungskriterien nicht für digitales Material, sondern für Manuskripte, Briefe, Gegenstände
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.63-69
-
Tsai, B.-s.: Infomapping in information retrieval (1997)
0.10
0.09602813 = product of:
0.3841125 = sum of:
0.3841125 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
0.3841125 = score(doc=3877,freq=6.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.8091937 = fieldWeight in 3877, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3877)
0.25 = coord(1/4)
- Abstract
- Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
-
wsa: Gehirn als besonders intelligente Suchmaschine (2009)
0.10
0.09561142 = product of:
0.19122285 = sum of:
0.06212341 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.06212341 = score(doc=729,freq=16.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.41585606 = fieldWeight in 729, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=729)
0.12909944 = weight(_text_:hand in 729) [ClassicSimilarity], result of:
0.12909944 = score(doc=729,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.3564553 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.046875 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Content
- "Am Anfang war die Geste und das Symbol. Erst dann entwickelte sich die Sprache. Doch bis heute werden Gesten, Symbole und Sprache in denselben Gehirnregionen verarbeitet - vorausgesetzt, sie sind sinnhaltig. Dies schlussfolgern jetzt US-amerikanische Forscher aus Untersuchungen zur Gehirnaktivität bei der Verarbeitung von Gesten, Symbolen und Sprache. Jemandem, der sich mit der Hand über die Stirn wischt, ist es offenkundig zu heiß. Das verstehen Menschen über Sprach- und Kulturgrenzen hinweg. Symbole wie "den Vogel zeigen" werden dagegen gelernt und außerhalb bestimmter Kulturgemeinschaften nicht oder anders verstanden. Das alles wird ebenso wie die Gebärden- und gesprochene Sprache in den inferioren frontalen und posterioren temporalen Gehirnarealen verarbeitet, hat das Team um Allen Braun vom National Institute on Deafness and other Communication Disorders (NIDCD) jetzt laut Fachjournal Pnas herausgefunden.Die Forscher vergleichen diese Bereiche des menschlichen Gehirns mit einer sehr intelligenten Suchmaschine, die bei einer Anfrage sofort Bedeutungen in Form von Sprache, Symbolen oder Gesten bereitstellt."
- Series
- Wissen und Bildung: Nachrichten
-
Becker, H.-G.; Förster, F.: Vernetztes Wissen : Ereignisse in der bibliografischen Dokumentation (2010)
0.10
0.09561142 = product of:
0.19122285 = sum of:
0.06212341 = weight(_text_:und in 481) [ClassicSimilarity], result of:
0.06212341 = score(doc=481,freq=16.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.41585606 = fieldWeight in 481, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=481)
0.12909944 = weight(_text_:hand in 481) [ClassicSimilarity], result of:
0.12909944 = score(doc=481,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.3564553 = fieldWeight in 481, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.046875 = fieldNorm(doc=481)
0.5 = coord(2/4)
- Abstract
- Innerhalb der Gedächtnisinstitutionen Bibliothek, Museum und Archiv gibt es je eigene Beschreibungsmodelle der beherbergten Objekte und Materialien. Für eine genauere bibliografische Erschließung wurde im Bibliotheksbereich das von Benutzerbedürfnissen ausgehende, statische Modell "Functional Requirements for Bibliographic Records" (FRBR) geschaffen, dessen ungenauer »Werk«-Begriff ebenso thematisiert wird wie die schwer zu realisierende Übertragbarkeit des Modells auf Nicht-Buchmaterialien. Die Museumswelt orientiert die Darstellung ihrer Bestände am CIDOC Conceptual Reference Model (CRM), das sich hinsichtlich der Beschreibung heterogener Museumsobjekte, also Artefakten künstlerischer und intellektueller Gestaltung, als hilfreich erwiesen hat. In gegenseitigem Austausch zwischen IFLA und ICOM wurde FRBR mit CRM harmonisiert. Das Ergebnis, FRBRoo (objektorientiertes FRBR), zeigt seine Vorzüge zum einen in einer strengeren Interpretation der Entitäten der Gruppe 1 des FRBR-Modells und zum anderen in einer genaueren Abbildung von Prozessen bzw. Ereignissen. Beispiele zum Anwendungsbezug von FRBRoo zeigen dessen Zugewinn für die wissenschaftliche Erschließung hand-, druck- und online-schriftlicher Quellen, Werken der Darstellenden Kunst, Landkarten und Musikalien innerhalb einer CRM-basierten Datenbank.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 57(2010) H.1, S.15-25
-
Zweig, K.A.: ¬Ein Algorithmus hat kein Taktgefühl : wo Künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können (2019)
0.10
0.09561142 = product of:
0.19122285 = sum of:
0.06212341 = weight(_text_:und in 430) [ClassicSimilarity], result of:
0.06212341 = score(doc=430,freq=16.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.41585606 = fieldWeight in 430, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=430)
0.12909944 = weight(_text_:hand in 430) [ClassicSimilarity], result of:
0.12909944 = score(doc=430,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.3564553 = fieldWeight in 430, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.046875 = fieldNorm(doc=430)
0.5 = coord(2/4)
- Abstract
- Künstliche Intelligenz und Algorithmen erleichtern in Form von Navis, Rechtschreibprogrammen, Suchergänzungen oder Kaufempfehlungen schon lange unseren Alltag. Aber sie hinterlassen oft auch ein mulmiges Gefühl, weil wir nicht so recht verstehen, was da passiert. Katharina Zweig, IT-Expertin für Sozioinformatik und Informatikprofessorin, erklärt anhand einfacher Beispiele und Illustrationen, was Algorithmen eigentlich genau sind, wie sie funktionieren, welche völlig harmlos sind und welche uns tatsächlich Sorgen bereiten sollten. Damit wir wissen, worauf wir achten müssen, wo wir uns einmischen und Politik und Wirtschaft genauer auf die Finger schauen müssen, wenn wir diese Technik in menschlicher Hand behalten, ihre positiven Eigenschaften nutzen und die negativen kontrollieren wollen.
-
Jörs, B.: Informationskompetenz oder Information Literacy : Das große Missverständnis und Versäumnis der Bibliotheks- und Informationswissenschaft im Zeitalter der Desinformation. Teil 2: Wie sich "Informationskompetenz" methodisch-operativ untersuchen lässt Ergänzende Anmerkungen zum "16th International Symposium of Information Science" ("ISI 2021", Regensburg 8. März - 10. März 2021) (2021)
0.10
0.09561142 = product of:
0.19122285 = sum of:
0.06212341 = weight(_text_:und in 1347) [ClassicSimilarity], result of:
0.06212341 = score(doc=1347,freq=16.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.41585606 = fieldWeight in 1347, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1347)
0.12909944 = weight(_text_:hand in 1347) [ClassicSimilarity], result of:
0.12909944 = score(doc=1347,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.3564553 = fieldWeight in 1347, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.046875 = fieldNorm(doc=1347)
0.5 = coord(2/4)
- Abstract
- In Teil 1 dieser Themenreihe zur Informationskompetenz wurde auf das Versäumnis der Bibliotheks- und Informationswissenschaft hingewiesen, das die Schlüsselqualifikation der Informations- und Medienkompetenz für die Lösung von Desinformationsproblemen für die eigene Forschung und Lehre in Anspruch nimmt, den damit implizit eingegangenen Verpflichtungen aber nicht nachkommt oder nicht nachkommen kann. Wenn zum Beispiel Informationskompetenz an Schulen vermittelt werden soll, dann müssten den Lehrern konkrete Handlungsanweisungen und Methoden an die Hand gegeben werden, um den Grad der (persönlichen) Informationskompetenz operativ messbar zu machen, zu testen und vor allem zu spezifizieren, was unter dem angeblich omnipotenten Begriff der Informationskompetenz zu verstehen sei. Das wird nicht geleistet.
- Series
- Zukunft der Bibliotheks- und Informationswissenschaft
-
Philosophie und Mythos : ein Kolloquium (1979)
0.09
0.09360529 = product of:
0.18721057 = sum of:
0.05811113 = weight(_text_:und in 151) [ClassicSimilarity], result of:
0.05811113 = score(doc=151,freq=14.0), product of:
0.14938681 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0673551 = queryNorm
0.38899773 = fieldWeight in 151, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=151)
0.12909944 = weight(_text_:hand in 151) [ClassicSimilarity], result of:
0.12909944 = score(doc=151,freq=2.0), product of:
0.36217567 = queryWeight, product of:
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.0673551 = queryNorm
0.3564553 = fieldWeight in 151, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.3771086 = idf(docFreq=557, maxDocs=44421)
0.046875 = fieldNorm(doc=151)
0.5 = coord(2/4)
- Content
- Topitsch, E.: Gemeinsame Grundlagen mythischen und philosophischen Denkens - Burkert, W.: Mythisches Denken: Versuch einer Definition an Hand des griechischen Befundes - Marquard, O.: Lob des Polytheismus: Über Monomythie und Polymythie - Schupp, F.: Mythos und Religion: Der Spielraum der Ordnung - Brand, G.: Welt, Geschichte, Mythos - Rapp, F.: Technik als Mythos - Poser, H.: Mythos und Vernunft: Zum Mythenverständnis der Aufklärung - Meier, Helmut G.: Orte neuer Mythen: Von der Universalpoesie zum Gesamtkunstwerk - Salaquarda, J.: Mythos bei Nietzsche - Krois, J.M.: Der Begriff des Mythos bei Ernst Cassirer - Hubig, C.: Dialiektik der Aufklärung und neue Mythen: Eine Alternative zur These von Adorno und Horkheimer
-
Internet: The editor's choice (2002)
0.09
0.09240311 = product of:
0.36961243 = sum of:
0.36961243 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.36961243 = score(doc=1854,freq=2.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Hawk, J.: OCLC SiteSearch (1998)
0.09
0.09147441 = product of:
0.36589763 = sum of:
0.36589763 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
0.36589763 = score(doc=3079,freq=4.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.7708211 = fieldWeight in 3079, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3079)
0.25 = coord(1/4)
- Abstract
- Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.09
0.09147441 = product of:
0.36589763 = sum of:
0.36589763 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.36589763 = score(doc=2673,freq=4.0), product of:
0.47468552 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0673551 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib