-
Schweibenz, W.: Eine Usability-Studie zu Terminologieproblemen bei der Arbeit mit einem Hilfeagenten und einer Online-Dokumentation : Wie hilfreich ist ein Hilfeagent? (2000)
0.14
0.1367865 = product of:
0.273573 = sum of:
0.06098237 = weight(_text_:und in 5831) [ClassicSimilarity], result of:
0.06098237 = score(doc=5831,freq=12.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.42016557 = fieldWeight in 5831, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=5831)
0.21259063 = weight(_text_:helfen in 5831) [ClassicSimilarity], result of:
0.21259063 = score(doc=5831,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.5012479 = fieldWeight in 5831, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0546875 = fieldNorm(doc=5831)
0.5 = coord(2/4)
- Abstract
- Terminologieprobleme spielen eine wichtige Rolle bei der Beutzung von Softwaredokumentationen in gedruckter und elektronischer Form. Vor allem beim Zugriff auf Hilfeinformationen und bei der Umsetzung von Hilfeanweisungen treten terminologiebedingte Schwierigkeiten auf, die die Arbeit mit Software erschweren und ihre Benutzerfreundlichkeit verringern. Hilfeagenten könnten helfen, die Benutzerfreundlichkeit von Softwaredokumentationen zu verbessern. In einer Usability-Studie wurde in Benutzertests mit lautem Denken untersucht, wie sich terminologiebedingte Probleme auf die Arbeit mit dem Hilfeagenten Karl Klammer von Microsoft Office 97 auswirken und wie sie die Benutzerfreundlichkeit der Online-Dokumentation verringern
- Source
- nfd Information - Wissenschaft und Praxis. 51(2000) H.4, S.199-207
-
Tangens, R.; Büschke, N.: Einordung zur geplanten "Corona-Kontakt-Tracing-App" des RKI (2020)
0.14
0.1367865 = product of:
0.273573 = sum of:
0.06098237 = weight(_text_:und in 847) [ClassicSimilarity], result of:
0.06098237 = score(doc=847,freq=12.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.42016557 = fieldWeight in 847, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=847)
0.21259063 = weight(_text_:helfen in 847) [ClassicSimilarity], result of:
0.21259063 = score(doc=847,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.5012479 = fieldWeight in 847, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0546875 = fieldNorm(doc=847)
0.5 = coord(2/4)
- Abstract
- Eine App des Robert-Koch-Instituts soll helfen, Kontakte zu infizierten Menschen nachzuvollziehen. Wir haben uns die Pläne angesehen - und haben Zweifel und Fragen. Es ist viel Bewegung in den Plänen, eine App zur Kontaktverfolgung in der Corona-Krise bereitzustellen. Nachdem es zunächst so aussah, als würde in Deutschland der zentrale Ansatz von PEPP-PT umgesetzt, ist nun klar: Es soll doch ein dezentraler Ansatz verfolgt werden, wie er vom Projekt DP-3T entwickelt wurde. Diesen Ansatz haben Google und Apple aufgegriffen und arbeiten derzeit daran, in ihre Smartphone-Betriebssysteme Android und iOS eine passende Schnittstelle einzubauen. Inzwischen wurde bekannt, dass T-Systems und SAP die App für Deutschland entwickeln sollen. Eine fertige App gibt es noch nicht. Insofern kann auch unsere Einordnung immer nur vorläufig sein.
-
Monastyrsky, M.: Modern mathematics in the light of the fields medals (1996)
0.14
0.13570662 = product of:
0.27141324 = sum of:
0.028452512 = weight(_text_:und in 1263) [ClassicSimilarity], result of:
0.028452512 = score(doc=1263,freq=2.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.19603643 = fieldWeight in 1263, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1263)
0.24296074 = weight(_text_:helfen in 1263) [ClassicSimilarity], result of:
0.24296074 = score(doc=1263,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.57285476 = fieldWeight in 1263, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0625 = fieldNorm(doc=1263)
0.5 = coord(2/4)
- Abstract
- Die Idee, die moderne Mathematik ein einem schmalen Band von 150 Seiten darzustellen, ist waghalsig und ermutigend zugleich. Wie Freeman Dyson in seinem Vorwort sagt: 'What Monastyrsky has produced is a road map to the territory of mathematics, with the Fields Medals as a convenient set of nodal points'. Das Buch wird vielen Spezialisten helfen, einen neuen Überblick über die Landschaft Mathematik zu gewinnen, in der sie täglich in der Tiefe nach neuen Schätzen graben
-
Geprüfte Artikel im Weblexikon (2008)
0.14
0.13570662 = product of:
0.27141324 = sum of:
0.028452512 = weight(_text_:und in 2931) [ClassicSimilarity], result of:
0.028452512 = score(doc=2931,freq=2.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.19603643 = fieldWeight in 2931, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2931)
0.24296074 = weight(_text_:helfen in 2931) [ClassicSimilarity], result of:
0.24296074 = score(doc=2931,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.57285476 = fieldWeight in 2931, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0625 = fieldNorm(doc=2931)
0.5 = coord(2/4)
- Content
- "Der deutsche Ableger des Onlinelexikons Wikipedia kennzeichnet jetzt geprüfte Artikel. Die "Flagged Revisions" getaufte Kontrolle soll gegen Vandalismus und fehlerhafte Angaben im Nachschlagewerk helfen. Das neue Kontrollsystem hat zwei Abstufungen. "gesichtet" bedeutet, dass der Text frei von Verunstaltungen ist. Die höhere Stufe lautet "geprüft": Hier wurden die Fakten des Artikels verifiziert - der Eintrag erhält ein grünes Häkchen. Allerdings wird es noch einige Zeit in Anspruch nehmen, bis sämtliche Artikel überprüft sind. Das Recht, einen Lexikonartikel zu prüfen sollen nur Wikipedianer haben, die schon eine bestimmte, nicht weiter spezifizierte Anzahl an Einträgen erstellt haben. INFO: www.wikipedia.de"
-
Rötzer, F.: Chinesischer Roboter besteht weltweit erstmals Zulassungsprüfung für Mediziner (2017)
0.14
0.13570662 = product of:
0.27141324 = sum of:
0.028452512 = weight(_text_:und in 4978) [ClassicSimilarity], result of:
0.028452512 = score(doc=4978,freq=2.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.19603643 = fieldWeight in 4978, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4978)
0.24296074 = weight(_text_:helfen in 4978) [ClassicSimilarity], result of:
0.24296074 = score(doc=4978,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.57285476 = fieldWeight in 4978, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0625 = fieldNorm(doc=4978)
0.5 = coord(2/4)
- Abstract
- Der mit viel Wissen gefütterte Roboter soll ab nächstem Jahr bei der Diagnose und der Ausbildung von Ärzten helfen. Vor einigen Tagen meldete China Daily, dass ein chinesischer Roboter weltweit als erster die nationale Medizinprüfung bestanden habe. Das ist ein wichtiger Test, der bestanden werden muss, um in China als Arzt anerkannt zu werden. Die Fragen ändern sich jährlich.
-
Hesse, W.: ¬Die Glaubwürdigkeit der Wikipedia : Und was Bibliotheken dazu beitragen können (2018)
0.13
0.13412984 = product of:
0.26825967 = sum of:
0.055669036 = weight(_text_:und in 586) [ClassicSimilarity], result of:
0.055669036 = score(doc=586,freq=10.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.38355696 = fieldWeight in 586, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=586)
0.21259063 = weight(_text_:helfen in 586) [ClassicSimilarity], result of:
0.21259063 = score(doc=586,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.5012479 = fieldWeight in 586, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0546875 = fieldNorm(doc=586)
0.5 = coord(2/4)
- Abstract
- Die Wikipedia ist sowohl hinsichtlich ihres Umfangs als auch hinsichtlich ihrer Nutzung die heute bedeutendste Enzyklopädie. Auch innerhalb der Wissenschaft spielt sie, vor allem als leicht zugänglicher Rechercheeinstieg, eine wichtige Rolle. In diesem Zusammenhang steht die Glaubwürdigkeit der Wikipedia immer wieder im Fokus, da ihre Inhalte nicht durch Fachexperten kontrolliert, sondern von jedermann ediert werden können. Jedoch ist innerhalb der Wikipediacommunity ein starkes Bemühen um Glaubwürdigkeit festzustellen. Anhand der Analyse ausgewählter Redaktionsprinzipien der Wikipedia und der Auswertung einer Fallstudie zur Erzeugung von Glaubwürdigkeit in der deutschsprachigen Wikipedia lassen sich Implikationen für Information Professionals ableiten. Besonders Bibliothekarinnen und Bibliothekare können durch ihren Zugang zu Literatur einerseits und mit ihren Recherchekenntnissen andererseits dabei helfen, die Glaubwürdigkeit der Wikipedia zu steigern.
- Source
- Information - Wissenschaft und Praxis. 69(2018) H.4, S.171-181
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.13
0.13386598 = product of:
0.26773196 = sum of:
0.21546137 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.21546137 = score(doc=977,freq=2.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.052270606 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.052270606 = score(doc=977,freq=12.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Benutzung von Katalogen und Freihandbeständen in deutschen Universalbibliotheken : Bd.1: Ergebnisse einer empirischen Untersuchung von Benutzer-Recherchen. Vorgelegt von D. Fischer-Knappe ... Bd.2: Einige Ergebnisse in bibliothekarischer Interpretation. Vorgelegt von J. Stoltzenburg u. K.W. Neubauer. - Bd.3: Methoden- und Dokumentationsband. Vorgelegt von P. Helfen u. B. Laufer (1984)
0.13
0.13119127 = product of:
0.26238254 = sum of:
0.049791895 = weight(_text_:und in 1525) [ClassicSimilarity], result of:
0.049791895 = score(doc=1525,freq=8.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.34306374 = fieldWeight in 1525, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1525)
0.21259063 = weight(_text_:helfen in 1525) [ClassicSimilarity], result of:
0.21259063 = score(doc=1525,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.5012479 = fieldWeight in 1525, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0546875 = fieldNorm(doc=1525)
0.5 = coord(2/4)
- Abstract
- Dieser Forschungsbericht ist die überarbeitete Fassung des 1979 fertiggestellten Ergebnisberichts über die zweite Phase des von der Deutschen Forschungsgemeinschaft finanzierten Projekts "Benutzerforschung II". Während im Projekt I mit einer schriftlichen Befragung die Benutzer-Orientierungen, wie Verhaltensweisen, Einstellungen und Bewertungen bezüglich aller Funktionsbereiche von wissenschaftlichen Bibliotheken erkundet wurden, konzentriert sich das Projekt II auf die Benutzung der von den wissenschaftlichen Bibliotheken erstellten Informationsmittel, wobei es um Recherchen an alphabetischen Katalogen, Sachkatalogen und Freihandbeständen geht
-
Zimmermann, H.H.: Linguistische Verfahren zur Archivierung und zum Wiederfinden unstrukturierter Texte (1983)
0.13
0.13119127 = product of:
0.26238254 = sum of:
0.049791895 = weight(_text_:und in 557) [ClassicSimilarity], result of:
0.049791895 = score(doc=557,freq=8.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.34306374 = fieldWeight in 557, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=557)
0.21259063 = weight(_text_:helfen in 557) [ClassicSimilarity], result of:
0.21259063 = score(doc=557,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.5012479 = fieldWeight in 557, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0546875 = fieldNorm(doc=557)
0.5 = coord(2/4)
- Abstract
- Die technologischen Entwicklungen der 80er und 90er Jahre werden den Bedarf an intelligenten Verfahren in der automatischen Texterschließung und -archivierung sprunghaft steigen lassen. Inzwischen existieren eine Reihe linguistischer Verfahren, die auch große Datenmengen, wie sie in der Büro- und Fachkommunikation auftreten, zu bewältigen helfen. Dabei ist eine wesentliche Zielsetzung, den Anwender von 'technischen' Handhabungen, wie sie die herkömmlichen Informations-Retrieval-Systeme noch erfordern, schrittweise zu entlasten in Richtung auf einen ehe natürlichsprachigen Zugang. Während dabei in den nächsten Jahren 'verstehensorietierte' Ansätze nur in ausgewählten Bereichen zum Einsatz kommen können, werden Verfahren auf morphologisch-syntaktischer Basis die bisherigen oberflächenorientierten Systeme schrittweise ersetzen
-
Patrick, D.A.: XML in der Praxis : Unternehmensübergreifende Vorteile durch Enterprise Content Management (1999)
0.13
0.13119127 = product of:
0.26238254 = sum of:
0.049791895 = weight(_text_:und in 2461) [ClassicSimilarity], result of:
0.049791895 = score(doc=2461,freq=8.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.34306374 = fieldWeight in 2461, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2461)
0.21259063 = weight(_text_:helfen in 2461) [ClassicSimilarity], result of:
0.21259063 = score(doc=2461,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.5012479 = fieldWeight in 2461, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0546875 = fieldNorm(doc=2461)
0.5 = coord(2/4)
- Abstract
- In dem Maße, in dem Unternehmen ihren Erfolg in einem zunehmend von Konkurrenz geprägten Weltmarkt suchen, ist ds Content Management als Informationslösung interessant geworden. Content Management-Systeme können dabei helfen, die enormen betrieblichen Investitionen in die Information zu verringern. Wie bei jeder neuartigen Technologie bestehen auch hier noch keine klaren Vorstellungen darüber, was ContentnManagement eigentlich ausmacht. In diesem Beitrag werden die Probleme und Technologien im Zusammenhang mit dem Content Management untersucht und der aktuelle Stand in Sachen Content Management beschrieben. Content Management ist mehr als nur eine neue Technologie. Im Kern erlaubt Content Management Unternehmen, Informationen zum aufbau intensiverer Beziehungen entlang der Wertschöpfungskette aufzubauen, wobei Kunden, Vertriebspartner, Zulieferer und Hersteller verbunden werden
- Source
- nfd Information - Wissenschaft und Praxis. 50(1999) H.1, S.5-12
-
Reitbauer, A.: IT Konsolidierung und Informationsintegration (2006)
0.13
0.13119127 = product of:
0.26238254 = sum of:
0.049791895 = weight(_text_:und in 806) [ClassicSimilarity], result of:
0.049791895 = score(doc=806,freq=8.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.34306374 = fieldWeight in 806, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=806)
0.21259063 = weight(_text_:helfen in 806) [ClassicSimilarity], result of:
0.21259063 = score(doc=806,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.5012479 = fieldWeight in 806, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0546875 = fieldNorm(doc=806)
0.5 = coord(2/4)
- Abstract
- Dieser Artikel betrachtet das Problem steigender Komplexität in IT Systemen. Als wesentlicher Aspekt wird Interoperabilität zwischen Anwendungen dargestellt. Als Modell für die Vielschichtigkeit von Integrationszenarien wird ein Modell präsentiert. das Integration und deren Auswirkungen auf verschiedenen Ebenen darstellt. Semantische Technologien werden in Relation zu bestehenden Ansätzen, wie Entity Relationship Diagrammen und objektorientierter Modellierung, gesetzt. Ein konkretes Beispiel demonstriert die unterschiedlichen Modellierungsergebnisse. Als wesentliche Szenarien für die Verwendung von semantischen Technologien werden Daten- und Prozessintegration dargestellt. Hierbei werden zuerst Probleme mit bestehenden Technologien präsentiert. Anschließend folgt anhand von Beispielen die Demonstration, wie semantische Technologien helfen können, diese Probleme zu lösen.
-
Struß, J.M.; Lewandowski, D.: Methoden in der Informationswissenschaft (2023)
0.13
0.13119127 = product of:
0.26238254 = sum of:
0.049791895 = weight(_text_:und in 1778) [ClassicSimilarity], result of:
0.049791895 = score(doc=1778,freq=8.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.34306374 = fieldWeight in 1778, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1778)
0.21259063 = weight(_text_:helfen in 1778) [ClassicSimilarity], result of:
0.21259063 = score(doc=1778,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.5012479 = fieldWeight in 1778, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0546875 = fieldNorm(doc=1778)
0.5 = coord(2/4)
- Abstract
- Ohne Forschungsmethoden gibt es keinen wissenschaftlichen Erkenntnisgewinn. Methoden helfen dabei, zu möglichst gesicherten Erkenntnissen zu gelangen. Damit unterscheidet sich der wissenschaftliche Erkenntnisgewinn von anderen Arten der Produktion und Begründung von Wissen. Oft verlassen wir uns auf unseren gesunden Menschenverstand, auf die eigene Lebenserfahrung oder auf Autoritäten - alle diese Begründungen von Wissen haben jedoch gegenüber der wissenschaftlichen Produktion und Begründung von Wissen erhebliche Defizite. Die Verwendung wissenschaftlicher Methoden erlaubt uns, nachvollziehbare und für andere nachprüfbare Aussagen über Phänomene zu gewinnen. Der wissenschaftliche Diskurs beruht auf solchen Aussagen; damit ist die wissenschaftliche Diskussion grundsätzlich anders als Alltagsdiskussionen, da sie auf Erkenntnissen beruht, die zwar von unterschiedlichen Personen in ihrer Bedeutung unterschiedlich eingeschätzt werden können, jedoch in ihrer Faktizität von allen akzeptiert werden.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.13
0.12853234 = product of:
0.25706467 = sum of:
0.17955115 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.17955115 = score(doc=50,freq=2.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.077513516 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.077513516 = score(doc=50,freq=38.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Neue CD-ROM mehrsprachiger Umwelt-Thesauri und Glossare : Österreichisches und deutsches Umweltbundesamt entwickeln CD-ROM mit umweltrelevanten Fachbegriffen (2003)
0.13
0.12807117 = product of:
0.25614235 = sum of:
0.07392181 = weight(_text_:und in 3271) [ClassicSimilarity], result of:
0.07392181 = score(doc=3271,freq=24.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.50931764 = fieldWeight in 3271, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3271)
0.18222055 = weight(_text_:helfen in 3271) [ClassicSimilarity], result of:
0.18222055 = score(doc=3271,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 3271, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=3271)
0.5 = coord(2/4)
- Content
- "Das Informationsnetz zwischen dem österreichischen und dem deutschen Umweltbundesamt wird enger. Nach dem gemeinsam entwickelten Umweltthesaurus für die Umweltdatenkataloge (UDK-Thesaurus) erscheint nun "THESshow", eine CD-ROM mit mehrsprachigen umwelt-relevanten Fachbegriffen (Thesauri und Glossare). Sie ermöglicht eine raschere Suche nach Dokumenten und Informationen und ist auch für Aufbau und Pflege von Bibliotheks- und anderen Informationssystemen geeignet. Vergleichbar mit einem Wörterbuch, helfen Thesauri, Dokumentationssysteme nach festgelegten Stichwörtern inhaltlich zu ordnen. "THESshow" beinhaltet unter anderem: UDK-Thesaurus Version 6, GEMET (General Multilingual Environment Thesaurus) mit 19 Sprachen, ENVOC (Multilingual Thesaurus of Environmental Terms, UNEP/INFOTERRA) mit vier UN-Sprachen, das Abfallwirtschaftsglossar des Österreichischen Normungsinstituts mit neun Sprachen, sowie das "Lexikon Waldschädigende Luftverunreinigungen" des Bundesamtes und Forschungszentrums für Wald (BFW). In einer Kooperation der Umweltbundesämter mit dem italienischen Consiglio Nazionale delle Ricerche (CNR), Rom, entstand zudem das Produkt "SuperThes" zur Wartung und Pflege multilingualer Thesauri nach den Normen DIN 1462 / ISO 2788 und DIN / ISO 5964. Sowohl "THESshow" als auch "SuperThes" können an kundenspezifische Anforderungen angepasst werden."
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Kopp, O.: Google Hummingbird-Algorithmus-Update : Infos & Hintergründe (2013)
0.13
0.12785584 = product of:
0.25571167 = sum of:
0.04312105 = weight(_text_:und in 3522) [ClassicSimilarity], result of:
0.04312105 = score(doc=3522,freq=6.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.29710194 = fieldWeight in 3522, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=3522)
0.21259063 = weight(_text_:helfen in 3522) [ClassicSimilarity], result of:
0.21259063 = score(doc=3522,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.5012479 = fieldWeight in 3522, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0546875 = fieldNorm(doc=3522)
0.5 = coord(2/4)
- Abstract
- Pünktlich zum 15. Geburtstag der Google Suche verkündete Google gestern auf einer Pressekonferenz in der "Gründungs-Garage", dass das bedeutendste Google Update seit dem Caffeine Update im Jahr 2010 und größte Algorithmus-Update seit 2001 schon seit ca. einem Monat aktiv ist. Das aktuelle Update heißt Hummingbird zu deutsch Kollibri. Es soll ca. 90% aller Suchanfragen betreffen und soll im Vergleich zu Caffeine ein echtes Algorithmus-Update sein. Es soll dabei helfen komplexere Suchanfragen besser zu deuten und noch besser die eigentliche Suchintention bzw. Fragestellung hinter einer Suchanfrage zu erkennen sowie passende Dokumente dazu anzubieten. Auch auf Dokumentenebene soll die eigentliche Intention hinter dem Content besser mit der Suchanfrage gematcht werden.
-
Schrettinger-Katalog jetzt auch digital (2016)
0.13
0.12725629 = product of:
0.25451258 = sum of:
0.039763596 = weight(_text_:und in 3491) [ClassicSimilarity], result of:
0.039763596 = score(doc=3491,freq=10.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.27396923 = fieldWeight in 3491, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3491)
0.21474898 = weight(_text_:helfen in 3491) [ClassicSimilarity], result of:
0.21474898 = score(doc=3491,freq=4.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.50633687 = fieldWeight in 3491, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0390625 = fieldNorm(doc=3491)
0.5 = coord(2/4)
- Abstract
- In 151 Schachteln wird der älteste große Schlagwortkatalog der Welt aufbewahrt: der "Schrettinger-Katalog". Von 1819 bis 1856 haben die Bibliothekare Martin Schrettinger und Heinrich Foringer rund 84.000 Titel der damaligen Münchner Hofbibliothek alphabetisch nach Themen geordnet und handschriftlich auf 17.000 Folioblättern notiert. Diese Art der Sacherschließung sollte helfen, den großen Zustrom an Büchern in die Hofbibliothek aus der Säkularisationszeit besser zugänglich zu machen. Der "Schrettinger-Katalog" ist bis heute ein praktisches Erschließungsinstrument für die wertwollen Altbestände der Bayerischen Staatsbibliothek, aber auch ein Dokument der Bibliotheksgeschichte und Spiegelbild der frühen Wissenschaftsgeschichte.
- Content
- Der 'Schrettinger-Katalog' ist ein handschriftlicher Sachkatalog der Bayerischen Staatbibliothek auf über 17.000 Folioblättern. Von 1819 bis 1856 haben die Bibliothekare Martin Schrettinger (1772-1851) und Heinrich Foringer (1802-1880) ca. 84.000 Titel der damaligen Münchner Hofbibliothek alphabetisch nach Themen geordnet. Diese Art der Sacherschließung sollte helfen, den großen Zustrom an Büchern in die Hofbibliothek aus der Säkularisationszeit besser zugänglich zu machen. Es handelt sich um den ältesten großen Schlagwortkatalog der Welt, der heute in 151 Schachteln aufbewahrt wird. Der 'Schrettinger-Katalog' ist bis heute einerseits ein praktisches Erschließungsinstrument für die wertwollen Altbestände der Bayerischen Staatsbibliothek, aber auch ein Dokument der Bibliotheksgeschichte und gleichzeitig ein Spiegelbild der frühen Wissenschaftsgeschichte.
-
Stäcker, T.: Sacherschließung alter Drucke : die Retrokonversion vorhandener Kataloge und Bibliographien (2009)
0.13
0.12649764 = product of:
0.25299528 = sum of:
0.070774734 = weight(_text_:und in 35) [ClassicSimilarity], result of:
0.070774734 = score(doc=35,freq=22.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.48763448 = fieldWeight in 35, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=35)
0.18222055 = weight(_text_:helfen in 35) [ClassicSimilarity], result of:
0.18222055 = score(doc=35,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.42964107 = fieldWeight in 35, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.046875 = fieldNorm(doc=35)
0.5 = coord(2/4)
- Abstract
- Während die Formalerschließung alter Drucke, nicht zuletzt durch die groß angelegten Fördermaßnahmen der Deutschen Forschungsgemeinschaft in den 80er und 90er Jahren, massiv vorangetrieben wurden, blieb es um die Sacherschließung alter Drucke lange Zeit vergleichsweise still. Erst die Göttinger, Hallenser und vor allem Berliner Bemühungen um die Einbringung der alten Realkataloge in den OPAC schärften wieder das Bewusstsein für das Potential, das eine Konversion alter Sachkataloge birgt. In vielen Altbestandsbibliotheken liegen ältere und neuere Sachkataloge in gedruckter Form oder als Kartenkatalog vor. Wahrnehmung und Nutzung dieser Kataloge ist jedoch im Zeitalter der elektronischen Informationsvermittlung und -versorgung meist gering. Eine systematische Retrokonversion könnte die Situation verbessern helfen. Ziel des Referates ist es, Aktivitäten zur Konversion von alten Realkatalogen und anderen Sacherschließungsinstrumenten an verschiedenen Altbestandsbibliotheken vorzustellen und Vorschläge zur Optimierung und Abstimmung dieser Prozesse zu machen.
- Series
- Zeitschrift für Bibliothekswesen und Bibliographie : Sonderband ; 96
- Source
- Wissen bewegen - Bibliotheken in der Informationsgesellschaft / 97. Deutscher Bibliothekartag in Mannheim, 2008. Hrsg. von Ulrich Hohoff und Per Knudsen. Bearb. von Stefan Siebert
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.13
0.12621114 = product of:
0.25242227 = sum of:
0.21546137 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.21546137 = score(doc=1181,freq=2.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.036960904 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.036960904 = score(doc=1181,freq=6.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.13
0.12621006 = product of:
0.25242013 = sum of:
0.20313892 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.20313892 = score(doc=1761,freq=4.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.0492812 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.0492812 = score(doc=1761,freq=24.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997)
0.13
0.1256858 = product of:
0.5027432 = sum of:
0.5027432 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
0.5027432 = score(doc=5463,freq=8.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
1.0901057 = fieldWeight in 5463, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5463)
0.25 = coord(1/4)
- Abstract
- A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
- Object
- JAVA