-
Woldering, B.: ¬Die Europäische Digitale Bibliothek nimmt Gestalt an (2007)
0.13
0.1324032 = product of:
0.2648064 = sum of:
0.05786273 = weight(_text_:und in 3439) [ClassicSimilarity], result of:
0.05786273 = score(doc=3439,freq=38.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.4272515 = fieldWeight in 3439, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3439)
0.20694368 = weight(_text_:hierdurch in 3439) [ClassicSimilarity], result of:
0.20694368 = score(doc=3439,freq=2.0), product of:
0.53472483 = queryWeight, product of:
8.757029 = idf(docFreq=18, maxDocs=44421)
0.06106236 = queryNorm
0.38700965 = fieldWeight in 3439, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.757029 = idf(docFreq=18, maxDocs=44421)
0.03125 = fieldNorm(doc=3439)
0.5 = coord(2/4)
- Abstract
- Der Aufbau der Europäischen Digitalen Bibliothek wurde im Herbst 2007 auf soliden Grund gestellt: Mit der European Digital Library Foundation steht eine geschäftsfähige Organisation als Trägerin der Europäischen Digitalen Bibliothek zur Verfügung. Sie fungiert zunächst als Steuerungsgremium für das EU-finanzierte Projekt EDLnet und übernimmt sukzessive die Aufgaben, die für den Aufbau und die Weiterentwicklung der Europäischen Digitalen Bibliothek notwendig sind. Die Gründungsmitglieder sind zehn europäische Dachorganisationen aus den Bereichen Bibliothek, Archiv, audiovisuelle Sammlungen und Museen. Vorstandsmitglieder sind die Vorsitzende Elisabeth Niggemann (CENL) die Vize-Vorsitzende Martine de Boisdeffre (EURBICA), der Schatzmeister Edwin van Huis (FIAT) sowie Wim van Drimmelen, der Generaldirektor der Koninklijke Bibliotheek, der Nationalbibliothek der Niederlande, welche die Europäische Digitale Bibliothek hostet. Der Prototyp für die Europäische Digitale Bibliothek wird im Rahmen des EDLnet-Projekts entwickelt. Die erste Version des Prototyps wurde auf der internationalen Konferenz »One more step towards the European Digital Library« vorgestellt, die am 31. Januar und 1. Februar 2008 in der Deutschen Nationalbibliothek (DNB) in Frankfurt am Main stattfand. Die endgültige Version des Prototyps wird im November 2008 von der EU-Kommissarin für Informationsgesellschaft und Medien, Viviane Reding, in Paris vorgestellt werden. Dieser Prototyp wird direkten Zugang zu mindestens zwei Mio. digitalisierten Büchern, Fotografien, Karten, Tonaufzeichnungen, Filmaufnahmen und Archivalien aus Bibliotheken, Archiven, audiovisuellen Sammlungen und Museen Europas bieten.
- Content
- Darin u.a. "Interoperabilität als Kernstück - Technische und semantische Interoperabilität bilden somit das Kernstück für das Funktionieren der Europäischen Digitalen Bibliothek. Doch bevor Wege gefunden werden können, wie etwas funktionieren kann, muss zunächst einmal festgelegt werden, was funktionieren soll. Hierfür sind die Nutzeranforderungen das Maß aller Dinge, weshalb sich ein ganzes Arbeitspaket in EDLnet mit der Nutzersicht, den Nutzeranforderungen und der Nutzbarkeit der Europäischen Digitalen Bibliothek befasst, Anforderungen formuliert und diese im Arbeitspaket »Interoperabilität« umgesetzt werden. Für die Entscheidung, welche Inhalte wie präsentiert werden, sind jedoch nicht allein technische und semantische Fragestellungen zu klären, sondern auch ein Geschäftsmodell zu entwickeln, das festlegt, was die beteiligten Institutionen und Organisationen in welcher Form zu welchen Bedingungen zur Europäischen Digitalen Bibliothek beitragen. Auch das Geschäftsmodell wird Auswirkungen auf technische und semantische Interoperabilität haben und liefert die daraus abgeleiteten Anforderungen zur Umsetzung an das entsprechende Arbeitspaket. Im EDLnet-Projekt ist somit ein ständiger Arbeitskreislauf installiert, in welchem die Anforderungen an die Europäische Digitale Bibliothek formuliert, an das Interoperabilitäts-Arbeitspaket weitergegeben und dort umgesetzt werden. Diese Lösung wird wiederum an die Arbeitspakete »Nutzersicht« und »Geschäftsmodell« zurückgemeldet, getestet, kommentiert und für die Kommentare wiederum technische Lösungen gesucht. Dies ist eine Form des »rapid prototyping«, das hier zur Anwendung kommt, d. h. die Funktionalitäten werden schrittweise gemäß des Feedbacks der zukünftigen Nutzer sowie der Projektpartner erweitert und gleichzeitig wird der Prototyp stets lauffähig gehalten und bis zur Produktreife weiterentwickelt. Hierdurch verspricht man sich ein schnelles Ergebnis bei geringem Risiko einer Fehlentwicklung durch das ständige Feedback."
-
nestor Kompetenznetzwerk : Langzeitarchivierung tauscht Daten mit australischem Fachportal »Padi« aus (2006)
0.13
0.12917803 = product of:
0.25835606 = sum of:
0.05141239 = weight(_text_:und in 71) [ClassicSimilarity], result of:
0.05141239 = score(doc=71,freq=30.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.37962294 = fieldWeight in 71, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=71)
0.20694368 = weight(_text_:hierdurch in 71) [ClassicSimilarity], result of:
0.20694368 = score(doc=71,freq=2.0), product of:
0.53472483 = queryWeight, product of:
8.757029 = idf(docFreq=18, maxDocs=44421)
0.06106236 = queryNorm
0.38700965 = fieldWeight in 71, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.757029 = idf(docFreq=18, maxDocs=44421)
0.03125 = fieldNorm(doc=71)
0.5 = coord(2/4)
- Abstract
- Das »nestor«-Kompetenznetzwerk zur Langzeitarchivierung hat jetzt eine im April 2005 getroffene Vereinbarung zwischen den australischen Kollegen des Padi-Portals (Preserving Access to Digital Information) und dem nestor-Partner SUB Göttingen umgesetzt.
- Content
- "Die Suche nach relevanten Informationsressourcen in der nestor-Informationsdatenbank (www.langzeitarchivierung. de/Informationsdatenbank) kann bei Bedarf urn die Suche in den ausgedehnten Padi-Datenbeständen erweitert werden. Die australischen Kollegen planen, im Gegenzug die nestor-Datensätze in ihren Dienst zu integrieren. In der kostenlos zugänglichen nestor-Informationsdatenbank findet sich ab sofort eine UmschaItmöglichkeit zur Auswahl der Datenbanken nestor- und der Kombination aus "Padi & nestor". Darüber sind zur Zeit über 2000 Datensätze zu Themengebieten wie Langzeitarchivierung allgemein, Rechteverwgenommen werden kann. Die nestor-Datensätze werden bilingual (deutsch-englisch) vorgehalten, die Padi-Datensätze selber liegen ausschließlich in englischer Sprache vor. Doch auch bei ihnen können zumindest die Themengebiete und Dokumenttypen auf »deutsch« angezeigt werden. Padi: Erfahrungen mit digitaler Langzeitarchivierung seit 1997. Das Padi-Fachportal zu allen Fragen der digitalen Langzeitarchivierung (www.nla.gov. au/padi) wird seit 1997 an der National Library of Australia betrieben und weist umfassend anglo-amerikanische Informationsquellen zur digitalen Bestandserhaltung nach. Darüber hinaus wird dort die Kooperation mit ausländischen Projekten und Institutionen sowie mit Kollegen gefördert, die sich um die langfristige Erhaltung digitaler Objekte bemühen. Ähnlich wie Padi stellt die nestor-Informationsdatenbank einen umfassenden Dienst für den deutschen Sprachraum bereit. Jede der beiden Informationssammlungen identifiziert, selektiert, kategorisiert, beschreibt und bietet Referenzen beziehungsweise Internet-Links zu Publikationen, Projekten und anderen Informationsquellen zur Archivierung digitaler Objekte an, um die internationale Diskussion und Forschung zu fördern und Nutzer zu unterstützen, in ihren eigenen Institutionen die digitale Bestandserhaltung anzugeben oder entsprechende Forschung zu treiben. Padi und nestor wollen einen regelmäßigen Austausch der Metadaten inklusiv aller Änderungen und Updates etablieren. Hierdurch werden redundante Doppelarbeit vermieden, den Nutzern eine entsprechend breitere Informationsvielfalt angeboten und die Erfahrungen der regionalen beziehungsweise nationalen Communities weiter gestreut. »Vom Metadatenaustausch zwischen nestor und Padi profitieren somit nicht nur beide Dienste, die damit die Abdeckung der jeweiligen Datenbanken erweitern und Doppelarbeit bei der Selektion und Beschreibung relevanter Ressourcen vermeiden, sondern auch die Nutzer, denen ein einfacherer Zugang zu den Informationen beider Subject Gateways ermöglicht wird«, konstatiert nestorProjektleiter Heins Liegmann (Die Deutsche Bibliothek)."
-
Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010)
0.13
0.12889361 = product of:
0.25778723 = sum of:
0.23455663 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
0.23455663 = score(doc=1604,freq=2.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.5450528 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.023230586 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
0.023230586 = score(doc=1604,freq=2.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.17153187 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.5 = coord(2/4)
- Abstract
- iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.13
0.12796174 = product of:
0.25592348 = sum of:
0.18955038 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.18955038 = score(doc=217,freq=4.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.0663731 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.0663731 = score(doc=217,freq=50.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Petit, A.L.B.: Ordnungssysteme im Records Management (2014)
0.13
0.1254853 = product of:
0.2509706 = sum of:
0.04402694 = weight(_text_:und in 3305) [ClassicSimilarity], result of:
0.04402694 = score(doc=3305,freq=22.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.32508966 = fieldWeight in 3305, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3305)
0.20694368 = weight(_text_:hierdurch in 3305) [ClassicSimilarity], result of:
0.20694368 = score(doc=3305,freq=2.0), product of:
0.53472483 = queryWeight, product of:
8.757029 = idf(docFreq=18, maxDocs=44421)
0.06106236 = queryNorm
0.38700965 = fieldWeight in 3305, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.757029 = idf(docFreq=18, maxDocs=44421)
0.03125 = fieldNorm(doc=3305)
0.5 = coord(2/4)
- Abstract
- Durch die Emergenz des Digitalen und die damit verbundenen technologischen Entwicklungen hat sich nicht nur die Lebenswelt vieler Menschen verändert, sondern auch der Informationssektor hat hierdurch neue Möglichkeiten erhalten, seine Kernaufgaben der Erschließung, Verfüg- und Nutzbarmachung von Ressourcen innovativ umzusetzen. Hierbei scheint der Bereich der Schriftgutverwaltung oder des Records Management eine Sparte zu sein, welche in starkem Traditionsbewusstsein die Prinzipien der Papierwelt in elektronische Umgebungen transferiert hat, wobei der potentielle Mehrwert einer elektronischen Systemumgebung nur bedingt zum Tragen kommen kann. Insbesondere im Kontext der Informationsorganisation und der Ordnungssysteme eröffnet sich durch ein digitales Umfeld eine Mehrdimensionalität, welche eine Papierumgebung nicht bieten kann. Dennoch scheint der Rückgriff auf hierarchische Ordnungssysteme wie Aktenpläne außer Frage zu stehen und somit stellt sich die Frage nach der Bedeutung, der Tragweite und der Unverzichtbarkeit von Aktenplänen im Records Management. Vor diesem Hintergrund soll die Frage erläutert werden, ob das Primat der Aktenpläne trotz erweiterter Möglichkeiten als vorherrschendes Ordnungsprinzip im Records Management gerechtfertigt ist.
Immer dann, wenn ein Paradigma in Frage gestellt werden soll, ist es unabdingbar, sich mit dem Grund seiner Existenz auseinander zu setzen. So sollen nach eingehenden Begriffsklärungen des Records Management und der Ordnungstheorie, die grundlegend für diese Analyse sind, in einem nächsten Schritt die unterschiedlichen Ordnungselemente im Records Management untersucht und ihre Rolle im Gesamtkontext der Disziplin eruiert werden. Dies wird im weiteren Verlauf der Arbeit insbesondere durch eine Analyse diverser Standards sowie der Norm ISO-15489 und deren Implikationen an Ordnungssysteme gewährleistet. Nachdem auf diese Weise die Ordnungssysteme in ihrer Rolle als Informationsverwaltungswerkzeug positioniert wurden, soll im nächsten Teil der Arbeit der Fokus auf das Retrieval und die Interaktion mit dem Nutzer gelegt werden. In diesem Zusammenhang wird das Prinzip Hierarchie, welches den Aktenplan strukturell definiert, in einem ersten Schritt mit den kognitiven Strukturen des Menschen abgeglichen, um hier etwaige Diskrepanzen festzustellen oder ihn zu legitimieren. Daraufhin soll in einem Exkurs in die Informationsverhaltensforschung und empirische Nutzerstudien von Records Management-Systemen versucht werden, die bevorzugten Suchstrategien in Bezug auf Browsing oder Searching herauszustellen. Auf der Grundlage dieser Erkenntnisse sollen im letzten Teil der Arbeit die Konsequenzen für die Ordnungssysteme im Records Management dargestellt sowie die Verbindung zu weiteren technologischen Entwicklungen angerissen werden. Im Fazit werden die Ergebnisse zusammenfassend rekapituliert und abschließend bewertet.
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.12
0.124911316 = product of:
0.24982263 = sum of:
0.20104855 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.20104855 = score(doc=977,freq=2.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.048774075 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.048774075 = score(doc=977,freq=12.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.11993444 = product of:
0.23986888 = sum of:
0.16754046 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.16754046 = score(doc=50,freq=2.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.07232841 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.07232841 = score(doc=50,freq=38.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Jansson, K.: Wikipedia - Die freie Enzyklopädie als Teil der digitalen Allmende des Wissens (2006)
0.12
0.11972986 = product of:
0.23945972 = sum of:
0.032516047 = weight(_text_:und in 884) [ClassicSimilarity], result of:
0.032516047 = score(doc=884,freq=12.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.24009462 = fieldWeight in 884, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=884)
0.20694368 = weight(_text_:hierdurch in 884) [ClassicSimilarity], result of:
0.20694368 = score(doc=884,freq=2.0), product of:
0.53472483 = queryWeight, product of:
8.757029 = idf(docFreq=18, maxDocs=44421)
0.06106236 = queryNorm
0.38700965 = fieldWeight in 884, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.757029 = idf(docFreq=18, maxDocs=44421)
0.03125 = fieldNorm(doc=884)
0.5 = coord(2/4)
- Abstract
- Die Online-Enzyklopädie Wikipedia wurde Anfang 2001 gegründet, existiert somit also seit fünf Jahren - für eine Enzyklopädie ist dies ein lächerlicher Zeitraum, für ein InternetProjekt schon fast ein biblisches Alter. Es gibt sie in über 100 Sprachen, insgesamt wurden bisher weit über drei Millionen Enzyklopädieartikel verfasst. Ich möchte im folgenden einen Einblick in die Entstehungsgeschichte des Wikipedia-Projektes geben und zeigen, welche Ziele bisher erreicht werden konnten, aber auch auf die Probleme eingehen, die bei einem Vorhaben dieser Größenordnung zwangsläufig entstehen. Das Online-Projekt Wikipedia nutzt als Basis des kollektiven Schreibens von Enzyklopädieartikeln eine spezielle Plattform: ein Wiki. (Der Name bezieht sich auf "wiki", das hawaiiarische Wort für "schnell".) Wikis sind im World Wide Web verfügbare Seitensammlungen, die von den Benutzern nicht nur gelesen, sondern auch online verändert werden können; sie sind somit offene Content-Management-Systeme. Hierdurch ist es jedem Leser möglich, sofort Korrekturen oder Ergänzungen an bestehenden Artikeln vorzunehmen oder gänzlich neue Artikel zu erstellen. Die klassische Unterscheidung zwischen den Autoren als Produzenten und Lesern als Konsumenten der Texte verschwimmt, da jeder Leser einen von ihm entdeckten Fehler - ob nun Kommafehler, inhaltlicher Fehler oder Auslassung eines wichtigen Sachverhalts - selbst korrigieren kann. Er muss dazu nur auf den Link Seite bearbeiten" klicken und kann dann in einem Eingabefeld den bestehenden Text verändern und abspeichern - die neue Version des Artikels ist daraufhin sofort von jedermann abrufbar. Wikis stellen somit das herkömmliche Modell der Erstellung von zur Veröffentlichung bestimmten Texten auf den Kopf: Die Veröffentlichung erfolgt im Moment des Abspeicherns, erst dann setzt der vielschichtige review Prozess ein. Dieses Verfahren bringt viele Vorteile, aber auch einige Nachteile mit sich.
- Source
- Wissensorganisation und Verantwortung: Gesellschaftliche, ökonomische und technische Aspekte. Proceedings der 9. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Duisburg, 5.-7. November 2004. Hrsg. von H.P. Ohly u.a
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.11776852 = product of:
0.23553704 = sum of:
0.20104855 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.20104855 = score(doc=1181,freq=2.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.03448848 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.03448848 = score(doc=1181,freq=6.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.11776751 = product of:
0.23553503 = sum of:
0.18955038 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.18955038 = score(doc=1761,freq=4.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.045984637 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.045984637 = score(doc=1761,freq=24.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997)
0.12
0.117278315 = product of:
0.46911326 = sum of:
0.46911326 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
0.46911326 = score(doc=5463,freq=8.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
1.0901057 = fieldWeight in 5463, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5463)
0.25 = coord(1/4)
- Abstract
- A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
- Object
- JAVA
-
Read, T.; Hall, H.: Java: an explosion on the Internet (1996)
0.12
0.117278315 = product of:
0.46911326 = sum of:
0.46911326 = weight(_text_:java in 86) [ClassicSimilarity], result of:
0.46911326 = score(doc=86,freq=2.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
1.0901057 = fieldWeight in 86, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.109375 = fieldNorm(doc=86)
0.25 = coord(1/4)
-
Globalisierung und Wissensorganisation : Neue Aspekte für Wissen, Wissenschaft und Informationssysteme: Proceedings der 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Hamburg, 23.-25.9.1999 (2000)
0.12
0.115852796 = product of:
0.23170559 = sum of:
0.050629888 = weight(_text_:und in 3133) [ClassicSimilarity], result of:
0.050629888 = score(doc=3133,freq=38.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.37384504 = fieldWeight in 3133, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3133)
0.1810757 = weight(_text_:hierdurch in 3133) [ClassicSimilarity], result of:
0.1810757 = score(doc=3133,freq=2.0), product of:
0.53472483 = queryWeight, product of:
8.757029 = idf(docFreq=18, maxDocs=44421)
0.06106236 = queryNorm
0.33863345 = fieldWeight in 3133, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.757029 = idf(docFreq=18, maxDocs=44421)
0.02734375 = fieldNorm(doc=3133)
0.5 = coord(2/4)
- Abstract
- Durch Vernetzung unterschiedlicher Informationsbestände und ihre Verfügbarkeit über Länder- und Gruppengrenzen hinweg werden vorrangig Fragen aufgeworfen, welche die Integration, die Interpretation und die Repräsentation von Wissen betreffen. Entsprechend scheinen hierdurch für die Wissensorganisation altbekannte Problematiken in neuem Licht und mit veränderter Tragweite auf. Für die 6. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation (ISKO), die vom 23.-25. September 1999 an der Fachhochschule Hamburg stattfand, wurde deswegen das Leitthema 'Globalisierung und Wissensorganisation' gewählt. In unterschiedlicher Weise hatten die Referenten der Tagung die veränderten Fragestellungen für die Wissensorganisation und die Implikationen dessen, was heute oft mit dem Terminus `Globalisierung' verbunden wird, herausgearbeitet. 'Globalisierung' kann als Ausdruck der Ängste und Erwartungen unserer Zeit in Hinblick auf die Zukunft gesehen werden, welche an der Schwelle zur Jahrtausendwende (vermeintlich) besonders gravierend erscheinen. Der wechselseitige Bezug zwischen 'Wissensorganisation' und 'Globalisierung' thematisiert aber nicht nur neue, umfassendere Fragen für die Wissensorganisation sondern versucht auch, in den unklaren Perspektiven einer globalisierten Wissenslandschaft einige Orientierungspunkte zu geben. Aktuelle Anwendungsgebiete ergeben sich grundsätzlich dort, wo verteilte Ressourcen weltweit bereitgestellt oder genutzt werden: So etwa beim Wissensmanagement in multi-nationalen Unternehmen, beim Entwurf von Ontologien, die für unterschiedliche fachliche oder kulturelle Konzeptualisierungen offen sind, bei der sachlichen Ordnung in thematischen Clearingstellen und der Erstellung von Meta-Daten für Internet-Quellen, bei der Recherche von multimedialer Information und bei vielem anderen.
- Content
- Enthält die Beiträge: SPINNER, H.F.: Ordnungen des Wissens: Wissensorganisation, Wissensrepräsentation, Wissensordnung; RAHMSTORF, G.: Existenzformen des Wissens; BUDIN, G.: Wissen(schafts)theorie und Wissensorganisation; LEHNER, C.: Beitrag zu einer holistischen Theorie für die Informationswissenschaft; JAENECKE, P.: Ist 'Wissen' ein definierbarer Begriff?; GLAUSER, C.: National science systems and the Matthew effect for countries; GLAUSER, C.: Tyson beisst Holyfield - und Minuten später wissen es alle: eine Inhaltsanalyse des Informationsflusses von drei Teletext-Sendern; OHLY, H.P.: Der 'Stand der Technik': eine bibliometrische Betrachtungsweise; CZAP, H.: Theorienbildung mittels Künstlich Neuronaler Netze vom Typ MLP; GRÖßLER, A., A. REUTHER: Notwendigkeit einer gemeinsamen Wissensbasis: eine Fallstudie mit Hilfe von Syste-Archetypen; STEPHAN, P.F., S. ASMUS: Wissensdesign: mit neuen Medien Wissen Gestalten; ORTHMANN, C., L. NÄCKE: Die Chancen virtueller sozialer Gemeinschaften im Internet für einen interkulturellen Wissenschaftsdiskurs; SCHMITZ-ESSER, W.: Gedankenraumreisen: neue Thesaurusstrukturen, multimedial präsentiert, machen Anregung, Spielen, Lernen, Finden möglich für jedermann; SIGEL, A.: Zum Wert multipler und adaptiver Indexierung mit Konzeptrahmen für die Sozialwissenschaften; LENSKI, W., E. WETTE-ROCH: Pragmatische Aspekte der Wissensmodellierung in Wissenschaftlichen Informationssystemen; UMSTÄTTER, W.: Wissensorganisation mit Hilfe des semiotischen Thesaurus: auf der Basis von SGML bzw. XML; KLEIN, H.: Erfordernisse bei einer Inhaltsanalyse von Informationen aus dem WWW; DOBRATZ, S., M. SCHULZ: Dissertationen in SGML/XML: Erprobung eines Publikationskonzeptes; PLUTAT, B.: "Darunter hätte ich nicht nachgeschaut ...": Erschließungssysteme und Nutzerbeteiligung; SCHULZ, U.: Anwenderpartizipation bei der Entwicklung eines Kinder-OPACs: Erschließungssysteme und Nutzerbeteiligung; MEDER, N.: Didaktische Ontologien; SWERTZ, C.: Ausbildung zum Gebrauch didaktischer Ontologien; LEIDIG, T.: Technologische Aspekte didaktischer Ontologien; SCHOTT, H.: Thesaurus Sozialwissenschaften online; VAN DER VET, P. : Content engineering; ENDRES-NIGGEMEYER, B.: Empirical methods for ontology engineering in bone marrow transplantation; AHRWEILER, P.: Die Integration heterogener Wissenssysteme auf dem Computer; HELLWEG, H.: Die GESIS Socio-Guide: ein kooperatives Link-Verwaltungs-System; LENSKI, W.: Gleichheitsbegriffe in hoch-strukturierten Datenbanken. GOPPOLD, A.: Ein Struktursystem zur Klassifikation von Wissen in der Biosphäre; REDEKER, G.: Didaktische Ontologien: Stand der internationalen Forschung; LEDERBOGEN, U., J. TREBBE: Das Intenret als Quelle für Wissenschaftsinformation: Ergebnisse einer Online-Befragung; STEGBAUER, C.: Die Rolle der Lurker in Mailinglisten; BEHMAN, F.: Strategische Frühaufklärung schafft die Basis für Innovation im Zeitalter globaler Vernetzung; TEUBENER, K., N. ZURAWSKI: Wissenschaftsvernetzung, Internet und Interface-Design für die Massenmedien; MAYER, M.: Kontextvisualisierung: BrowsingIcons and BrowsingGraphs zur Verbesserung der Orientierung und Navigation im World Wide Web.
-
Vonhoegen, H.: Einstieg in XML (2002)
0.11
0.11310571 = product of:
0.22621141 = sum of:
0.16585658 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.16585658 = score(doc=5002,freq=4.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.060354833 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.060354833 = score(doc=5002,freq=54.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998)
0.11
0.11238955 = product of:
0.4495582 = sum of:
0.4495582 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
0.4495582 = score(doc=6217,freq=10.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
1.0446644 = fieldWeight in 6217, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=6217)
0.25 = coord(1/4)
- Abstract
- A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
-
¬Die Macht der Suchmaschinen (2007)
0.10
0.10486941 = product of:
0.20973882 = sum of:
0.054531075 = weight(_text_:und in 2813) [ClassicSimilarity], result of:
0.054531075 = score(doc=2813,freq=60.0), product of:
0.13543014 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06106236 = queryNorm
0.40265095 = fieldWeight in 2813, product of:
7.745967 = tf(freq=60.0), with freq of:
60.0 = termFreq=60.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2813)
0.15520775 = weight(_text_:hierdurch in 2813) [ClassicSimilarity], result of:
0.15520775 = score(doc=2813,freq=2.0), product of:
0.53472483 = queryWeight, product of:
8.757029 = idf(docFreq=18, maxDocs=44421)
0.06106236 = queryNorm
0.29025725 = fieldWeight in 2813, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.757029 = idf(docFreq=18, maxDocs=44421)
0.0234375 = fieldNorm(doc=2813)
0.5 = coord(2/4)
- Abstract
- Suchmaschinen sind der wichtigste Zugangsweg zum Auffinden neuer Netzinhalte. Insgesamt verwendeten nach einer repräsentativen Studie im dritten Quartal 2005 fast 85 Prozent der deutschen Internetnutzer Suchmaschinen. Diese sind inzwischen auch ein Big Business: Gemessen am Börsenwert ist die Suchmaschine Google mit einem Gesamtwert von 80 Mrd. Dollar das wertvollste Medienunternehmen der Welt. Der Konzerngewinn stieg von 2004 auf 2005 um 367 Prozent auf 1,5 Mrd. Dollar. Als Gatekeeper im Internet stellen die Suchmaschinen eine zentrale Herausforderung für Wissenschaft und Forschung dar - letztlich geht es um die Frage der "digitalen Informationsmacht". Mit diesem Band liegt erstmals eine Publikation vor, die die Rolle von Suchmaschinen in der Informationsgesellschaft in den wichtigsten Dimensionen aus verschiedenen Perspektiven wissenschaftlich beleuchtet und dabei hilft, die künftige Suchmaschinenforschung zu systematisieren.
- BK
- 05.20 Kommunikation und Gesellschaft
- Classification
- AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
05.20 Kommunikation und Gesellschaft
- Content
- Der Band geht auf die internationale Tagung Die wachsende Macht von Suchmaschinen im Internet: Auswirkungen auf User, Medienpolitik und Medienbusiness bestehend aus einem interdisziplinären wissenschaftlichen Workshop am 26. Juni 2006 und einer Publikumskonferenz am 27. Juni 2006 in Berlin zurück, die vom Lehrstuhl für Journalistik II der Universität Leitung und dem Lehrstuhl für Internationalen Journalismus der UniversitSt Dortmund in Kooperation mit der Friedrich-Ebert-Stiftung, Bereich Medien und Politik, veranstaltet worden ist. In drei Kapiteln werden die zentralen Forschungsfelder aufgegriffen: Das erste Kapitel behandelt die wichtigsten Aspekte im Bereich der Suchmaschinenregulierung und -ökonomie. Es werden Herausforderungen transparent gemacht, die sich gegenwärtig in der Entwicklung befindlichen Regulierungsstrukturen analysiert und Lösungswege erarbeitet. Das zweite Kapitel beschäftigt sich, zum ersten Mal in Form einer Publikation, mit dem Verhältnis von Suchmaschinen und Journalismus. Dabei ist die Frage, inwieweit Suchmaschinen einerseits journalistische Funktionen übernehmen und andererseits Journalisten als Rechercheinstrument dienen und wie sich hierdurch das Gefüge des bisherigen Massenkommunikationssystems verändert, von entscheidender Bedeutung.
Im dritten Kapitel werden die Qualität von Suchmaschinen und das Nutzerverhalten näher beleuchtet. Erkenntnisse über die Güte von Suchmaschinen sind von großer Relevanz, um deren Rolle bei der Informationsvermittlung in einer Gesellschaft angemessen beurteilen zu können. Der Band liefert hier neue Ansätze und Vorschläge, da die Frage nach der Qualität von Suchmaschinen noch nicht ausreichend beantwortet worden ist. Zum anderen ist die Analyse des Nutzerverhaltens grundlegend, um Schlussfolgerungen für die Medienkompetenz als zentrale Schlüsselqualifikation im Informationszeitalter ziehen zu können. Unter den Autoren sind viele der international führende Experten auf dem Gebiet Suchmaschinen, darunter Wissenschaftler der Universitäten Harvard, Yale und Columbia sowie der London School of Economics und der Pariser Sorbonne. Darüber hinaus wurden auch Beiträge von Praktikern, allesamt leitende Redakteure oder Verantwortliche in Medienunternehmen aufgenommen, um deren Erkenntnisse für die Thematik fruchtbar zu machen. Der Band richtet sich neben der Wissenschaft auch an die Praxis, vor allem die Medienaufsicht und -ökonomie sowie an den Journalismus. Er bietet aber auch der allgemein interessierten Öffentlichkeit einen fundierten Einblick in die bisher wenig erforschte Welt der Suchmaschinen.
MARCEL MACHILL / MARKUS BEILER / MARTIN ZENKER: Suchmaschinenforschung. Überblick und Systematisierung eines interdisziplinären Forschungsfeldes TEIL 1: SUCHMASCHINENREGULIERUNG UND -ÖKONOMIE URS GASSER / JAMES THURMAN: Themen und Herausforderungen der Regulierung von Suchmaschinen NORBERT SCHNEIDER: Die Notwendigkeit der Suchmaschinenregulierung aus Sicht eines Regulierers WOLFGANG SCHULZ / THORSTEN HELD: Der Index auf dem Index? Selbstzensur und Zensur bei Suchmaschinen BORIS ROTENBERG: Towards Personalised Search: EU Data Protection Law and its Implications for Media Pluralism ELIZABETH VAN COUVERING: The Economy of Navigation: Search Engines, Search Optimisation and Search Results THEO RÖHLE: Machtkonzepte in der Suchmaschinenforschung TEIL 2: SUCHMASCHINEN UND JOURNALISMUS VINZENZ WYSS / GUIDO KEEL: Google als Trojanisches Pferd? Konsequenzen der Internet-Recherche von Journalisten für die journalistische Qualität NIC NEWMAN: Search Strategies and Activities of BBC News Interactive JÖRG SADROZINSKI: Suchmaschinen und öffentlich-rechtlicher Onlinejournalismus am Beispiel tagesschau.de HELMUT MARTIN-JUNG: Suchmaschinen und Qualitätsjournalismus PHILIP GRAF DÖNHOFF / CHRISTIAN BARTELS: Online-Recherche bei NETZEITUNG.DE SUSAN KEITH: Searching for News Headlines: Connections between Unresolved Hyperlinking Issues and a New Battle over Copyright Online AXEL BUNDENTHAL: Suchmaschinen als Herausforderung für Archive und Dokumentationsbereiche am Beispiel des ZDF BENJAMIN PETERS: The Search Engine Democracy: Metaphors and Muhammad
TEIL 3: QUALITÄT VON SUCHMASCHINEN UND NUTZERVERHALTEN] DIRK LEWANDOWSKI: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? BENJAMIN EDELMAN: Assessing and Improving the Safety of Internet Search Engines HENDRIK SPECK / FREDERIC PHILIPP THIELE: Playing the Search Engines or Hacking the Box: Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google NATALIE KINK / THOMAS HESS: Suchmaschinen als Substitut traditioneller Medien? Erste Ergebnisse einer Studie zum Wandel der Informationsbeschaffung durch Suchmaschinen DIVINA FRAU-MEIGS: Minding the Gatekeepers: Search Engines for Young People, and the Regulatory Riddle of Harmful Content an Environmental Cognition Perspective MARCEL MACHILL / MARKUS BEILER / ULRIKE NEUMANN: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. Ein Experiment am Beispiel von Google Scholar
- RVK
- AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
-
Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996)
0.10
0.10156601 = product of:
0.40626404 = sum of:
0.40626404 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
0.40626404 = score(doc=6014,freq=6.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.94405925 = fieldWeight in 6014, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6014)
0.25 = coord(1/4)
- Abstract
- Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
- Object
- JAVA
-
Varela, C.A.; Agha, G.A.: What after Java? : From objects to actors (1998)
0.10
0.10156601 = product of:
0.40626404 = sum of:
0.40626404 = weight(_text_:java in 4612) [ClassicSimilarity], result of:
0.40626404 = score(doc=4612,freq=6.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.94405925 = fieldWeight in 4612, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=4612)
0.25 = coord(1/4)
- Abstract
- Discusses drawbacks of the Java programming language, and proposes some potential improvements for concurrent object-oriented software development. Java's passive object model does not provide an effective means for building distributed applications, critical for the future of Web-based next-generation information systems. Suggests improvements to Java's existing mechanisms for maintaining consistency across multiple threads, sending asynchronous messages and controlling resources. Drives the discussion with examples and suggestions from work on the Actor model of computation
- Object
- Java
-
Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001)
0.10
0.10156601 = product of:
0.40626404 = sum of:
0.40626404 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
0.40626404 = score(doc=6896,freq=6.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.94405925 = fieldWeight in 6896, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=6896)
0.25 = coord(1/4)
- Abstract
- This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
-
Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999)
0.10
0.10052428 = product of:
0.4020971 = sum of:
0.4020971 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
0.4020971 = score(doc=1743,freq=2.0), product of:
0.43033743 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06106236 = queryNorm
0.9343763 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Abstract
- Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate