-
Gulbransen, D.; Rawkings, K.: WEB-Applets mit Java entwickeln (1996)
0.19
0.1866974 = product of:
0.7467896 = sum of:
0.7467896 = weight(_text_:java in 6079) [ClassicSimilarity], result of:
0.7467896 = score(doc=6079,freq=4.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
1.7618768 = fieldWeight in 6079, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.125 = fieldNorm(doc=6079)
0.25 = coord(1/4)
- Object
- Java
-
Doberenz, W.: Java (1996)
0.19
0.1866974 = product of:
0.7467896 = sum of:
0.7467896 = weight(_text_:java in 6082) [ClassicSimilarity], result of:
0.7467896 = score(doc=6082,freq=4.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
1.7618768 = fieldWeight in 6082, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.125 = fieldNorm(doc=6082)
0.25 = coord(1/4)
- Object
- Java
-
Popper, A.: Daten eingewickelt : Dynamische Webseiten mit XML und SQL (2001)
0.18
0.18136227 = product of:
0.36272454 = sum of:
0.3300375 = weight(_text_:java in 6804) [ClassicSimilarity], result of:
0.3300375 = score(doc=6804,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.77864695 = fieldWeight in 6804, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=6804)
0.03268705 = weight(_text_:und in 6804) [ClassicSimilarity], result of:
0.03268705 = score(doc=6804,freq=2.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.24504554 = fieldWeight in 6804, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.078125 = fieldNorm(doc=6804)
0.5 = coord(2/4)
- Abstract
- Wer dynamische Webseiten mit XML erzeugt, wird über kurz oder lang auch Datenbanken anzapfen wollen. Das Apache-Projekt Cocoon liefert eine komfortable Java/Servlet-Produktionsumgebung dafür
-
Kretschmer, B.; Hackl, Y.; Knapp, M.: ¬Das große Buch Java : mit Top-Index - Nachschlagen für alle Fälle ; heisse Themen, Tips & Tricks: mehr als 100 Programmbeispiele, mit vollständiger Praxisreferenz, verständliche Einführung in die objektorientierte Programmierung (1997)
0.17
0.17463942 = product of:
0.6985577 = sum of:
0.6985577 = weight(_text_:java in 5709) [ClassicSimilarity], result of:
0.6985577 = score(doc=5709,freq=14.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
1.6480849 = fieldWeight in 5709, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=5709)
0.25 = coord(1/4)
- Abstract
- Von der starren Webseite zum animierten Multimedia-Ereignis - Java macht's möglich. Das große Buch Java führt ausführlich uns schrittweise in die Programmierung mit Java ein
- Object
- Java
- RSWK
- Java <Programmiersprache>
- Subject
- Java <Programmiersprache>
-
Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004)
0.17
0.17291652 = product of:
0.34583303 = sum of:
0.29519448 = weight(_text_:java in 225) [ClassicSimilarity], result of:
0.29519448 = score(doc=225,freq=10.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.69644296 = fieldWeight in 225, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=225)
0.050638564 = weight(_text_:und in 225) [ClassicSimilarity], result of:
0.050638564 = score(doc=225,freq=30.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.37962294 = fieldWeight in 225, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=225)
0.5 = coord(2/4)
- Abstract
- Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
- Classification
- ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
- Object
- Java
- RSWK
- Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
- RVK
- ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
- Subject
- Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
-
Schwarz, E.: Erfahrungen beim Elektronischen Publizieren eines wissenschaftlichen Handbuchs am Beispiel 'Handbuch der zerstörungsfreien Prüfung' (1996)
0.17
0.16933677 = product of:
0.67734706 = sum of:
0.67734706 = weight(_text_:handbuchs in 5312) [ClassicSimilarity], result of:
0.67734706 = score(doc=5312,freq=2.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
1.2219548 = fieldWeight in 5312, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.09375 = fieldNorm(doc=5312)
0.25 = coord(1/4)
-
Handbuch Urheberrecht und Internet (2002)
0.16
0.1574575 = product of:
0.314915 = sum of:
0.03268705 = weight(_text_:und in 3357) [ClassicSimilarity], result of:
0.03268705 = score(doc=3357,freq=8.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.24504554 = fieldWeight in 3357, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3357)
0.28222796 = weight(_text_:handbuchs in 3357) [ClassicSimilarity], result of:
0.28222796 = score(doc=3357,freq=2.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
0.5091479 = fieldWeight in 3357, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.0390625 = fieldNorm(doc=3357)
0.5 = coord(2/4)
- Footnote
- Rez. in: ZfBB 51(2004) H.3, S.189 (K. Peters): "Jahrtausendelang war es Aufgabe der Bibliotheken, Werke in körperlicher Form, d.h. als Tontafeln, Buch, CD-ROM etc., zugänglich zu machen. Urheberrechtlich gesehen handelt es sich bei dieser Art von Werknutzung um Verbreiten. Das bibliothekarische Verbreitungsrecht ist eine relativ unproblematische Rechtsmaterie. Für den Praktiker reicht es im Allgemeinen zu wissen, dass urheberrechtlich geschützte Materialien, die der Bibliotheksträger im seriösen Handel gekauft hat, frei, also ohne dass eine Lizenz des Rechtsinhabers eingeholt werden müsste, ausgeliehen werden dürfen. Wesentlich schwieriger ist das Recht der Verkörperung von Werken durch Bibliotheken oder mit Hilfe von Bibliotheken, mit anderen Worten: das Recht der Bibliothekskopie. Was die Bibliothekskopie in analoger Form angeht, dürften die wichtigsten Fragen durch das drei Jahrzehnte währende Bemühen der bibliothekarischen Rechtskommissionen beantwortet sein. Auch das infolge der Urheberrechtsnovelle vom 10. September 2003 (insbesondere § 53 Absatz 2 Satz 3 Urheberrechtsgesetz) aufgetretene Problem der digitalen Bibliothekskopie dürfte mit Hilfe der den Bibliotheksjuristen seit langem bestens vertrauten Prinzipien des Vervielfältigungsrechts kurzfristig eine praktikable Lösung finden. ... Wie es bei einer Darstellung, die das Internet zum Gegenstand hat, nicht anders sein kann, ist das Handbuch, das den Rechtsstand vom Sommer 2002 wiedergibt, mittlerweile bereits in einigen Punkten überholt. Der Bibliothekar muss sich insbesondere über die Auswirkungen der Urheberrechtsnovelle vom September 2003 (§ 52a UrhG - öffentliche Zugänglichmachung für Unterricht und Forschung) vorerst an anderer Stelle kundig machen. Eine Überarbeitung des Handbuchs würde dankbare Käufer und Leser finden."
- Imprint
- Heidelberg : Verl. Recht und Wirtschaft
-
Loviscach, J.: Formen mit Normen (2000)
0.15
0.15050557 = product of:
0.30101115 = sum of:
0.26402998 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
0.26402998 = score(doc=6100,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.62291753 = fieldWeight in 6100, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.036981177 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
0.036981177 = score(doc=6100,freq=4.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.2772374 = fieldWeight in 6100, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.5 = coord(2/4)
- Abstract
- Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
- Object
- Java
-
Lorenz, B.: Handbuch zur Regensburger Verbundklassifikation (2002)
0.15
0.14804968 = product of:
0.29609936 = sum of:
0.051682767 = weight(_text_:und in 3927) [ClassicSimilarity], result of:
0.051682767 = score(doc=3927,freq=80.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.38745102 = fieldWeight in 3927, product of:
8.944272 = tf(freq=80.0), with freq of:
80.0 = termFreq=80.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3927)
0.2444166 = weight(_text_:handbuchs in 3927) [ClassicSimilarity], result of:
0.2444166 = score(doc=3927,freq=6.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
0.44093502 = fieldWeight in 3927, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.01953125 = fieldNorm(doc=3927)
0.5 = coord(2/4)
- Abstract
- Ein Handbuch zur Regensburger Verbundklassifikation (RVK) ist unverzichtbar und wird angesichts des jahrelangen Bestehens dieser Klassifikation, der großen und weiter wachsenden Zahl ihrer Anwender und ihrem - auch supranational - zunehmenden Bekanntheitsgrad benötigt. Weiter entspricht ein Handbuch auch dem Interesse vieler Institutionen an ihrer Bibliothek, vor allem soweit sie sich als Freihandbibliothek im Sinne einer Bestandsund Wissensrepräsentation erweist. Denn zweifellos bildet die RVK für die moderne Klassifikationspraxis und die Umsetzung der notwendigen Prinzipien ein wichtiges Paradigma. Die einzelnen Fachsystematiken der RVK sind nun im Handbuch unterschiedlich ausführlich dargestellt und sollen auch in ihrem verschiedenen Umfang den über die Jahrzehnte hin durchaus differierenden Aufwand der Verbundpartner bei der Optimierung dieser Fachsystematiken zeigen.
- Footnote
- Rez. in: BuB 56(2004) H.3, S.239 (F. Wein) u.d.T. Teil des (akademischen) Lebens: Handbuch zur Regensburger Verbundklassifikation: "Für alle mittlerweile sehr zahlreichen Bibliotheken im In- und Ausland, welche die Regensburger Verbundklassifikation (RVK) anwenden, stellt der vom ehemaligen, langjährigen Koordinator und Redakteur der Klassifikation, Bernd Lorenz, publizierte Band eine ebenso nützliche wie anregende Handreichung für die tägliche Praxis und die theoretische Reflexion dar. Dem Zweck eines Handbuches entsprechend, werden wesentliche Daten und Grundlagen der Regensburger Verbundklassifikation beschrieben und miteinander verknüpft. - Erfolgsgeschichte der RVK - In einer komprimierten Einführung rekapituliert Bernd Lorenz die Genese der Regensburger Aufstellungssystematik und des späteren Klassifikationsverbundes, er beschreibt Aufbau und Inhalt der Klassifikation, und er beleuchtet Voraussetzungen, Prinzipien und Resultate der klassifikatorischen Sacherschließung im Verbund. Hier sei festgehalten, dass die spätere RVK nach gescheiterten konsortialen Bemühungen um eine bundesweit anerkannte Einheitsklassifikation in den Sechzigerjahren an der Universitätsbibliothek Regensburg als Haussystematik in Anlehnung an die LCC geschaffen wurde.
Der erste Schritt zur Verbundklassifikation war die Übernahme der Regensburger Aufstellungssystematik durch die UB Augsburg 1970 und die sich daran knüpfende enge Kooperation in allen Fragen der Sacherschließung. In den Siebzigerund Achtzigerjahren kamen die Bibliotheken der neu gegründeten bayerischen Universitäten und die Bibliotheken der bayerischen Fachhochschulen als Anwender hinzu. In den Neunzigerjahren entschlossen sich auf bayerischem Beitrittsgebiet die alten Universitäten mit zweischichtigen Bibliothekssystemen vermehrt zu Reklassifikationen ihrer Freihandbestände nach der RVK; es vollzog sich auch die Expansion der Verbundklassifikation in die neuen Bundesländer und in das deutschsprachige Ausland. Diese Erfolgsgeschichte der Verbundklassifikation basiert einerseits auf der Grundstruktur der Systematik - sie ist primär Aufstellungsordnung, retrievalfähig, optimierbar und in gewissen Grenzen tolerant gegenüber Doppelstellen, also ansatzweise Reader-Interest-Classification andererseits hat die Verbundkoordinierung in Regensburg eine glückliche Hand bewiesen, indem sie nicht nur solide Redaktionsarbeit geleistet, sondern vor allem auch den Anwenderbibliotheken ihre guten Dienste zur Unterstützung in der Einführung oder weiteren Anwendung der Systematik angeboten hat. Entscheidend ist aber auch der Umstand, dass Aktualisierungen und - wenn nötig - tief greifende Revisionen möglich und erwünscht sind, von allen Anwendern eingebracht werden können und im Konsens beschlossen werden.
- HistorischerKontext - Den größten Umfang des Handbuchs nehmen die Kurzpräsentationen der 34 einzelnen Fachsystematiken ein, aus denen die Regensburger Aufstellungsordnung sich zusammensetzt. Jede dieser Präsentationen besteht aus dem Inhaltsverzeichnis mit der Gliederung in Untergruppen, Hinweisen aufwichtige Etappen in der Redaktionsgeschichte der Einzelsystematik sowie Benutzungshinweisen zur Anwendung von Schlüsseln und anderen polyhierarchischen Gliederungsmomenten. Das Studium der Einzelpräsentationen offenbart, dass der Differenzierungsgrad sehr unterschiedlich ist und dass die an sich monohierarchische Struktur der RVK j e nach Umfang von Schlüsselungen beträchtlich relativiert werden kann. Die »Regeln für die Signaturvergabe« in der Fassung vom Dezember 2002, deren Schwerpunkt auf der formalen Seite, der Individualisierung durch CSN (Cutter-Sanborn-Notation) und gegebenenfalls Auflagen-, Bandund Exemplarbezeichnungen, liegt, beschließen das Handbuch. Technische Errungenschaften jüngeren Datums - hier vor allem die Schaffung der »RVK online« - werden nur am Rande gestreift. Diese würden jedoch eine ausführlichere Würdigung im Rahmen eines solchen Handbuchs verdienen, erleichtern und unterstützen sie doch wesentlich die Kodifizierung und die Umsetzung beschlossener Optimierungen in der Regensburger Koordinierungsstelle und in den einzelnen Anwenderbibliotheken. Bernd Lorenz betont, dass eine Aufstellungssystematik wie die Regensburger Verbundklassifikation nicht »den Zusammenhang der Dinge selbst« (Seite 42) spiegelt, sondern lediglich eine sinnvolle bibliothekarische Anordnung der Bestände anstrebt. Die im Handbuch ausführlich referierte Geschichte der jüngsten Revision der Einzelsystematik Theologie/Religionswissenschaften anlässlich der Übernahme der RVK in den neuen Bundesländern mit starken evangelisch-theologischen Fakultäten (Seite 76 ff.) zeigt einmal mehr, dass Systematiken einen tieferen Sitz im (akademischen) Leben haben als von Bibliothekaren beabsichtigt.
- Theoretische Reflexion - Gerade dieser Fall demonstriert, dass auch die RVK als Ganzes und in ihren einzelnen Teilen ihre Prägungen in bestimmten historischen Kontexten erfahren hat und daher eine historisch ableitbare spezifische Interpretation des (möglichen) Zusammenhangs der Dinge beinhaltet. In der Ermittlung der kulturund wissenschaftsgeschichtlichen Hintergründe der Entstehung einzelner Systematiken der Regensburger Verbundklassifikation ist die wichtigste Anregung des Handbuchs auf dem Gebiet der theoretischen Reflexion zusehen."
Weitere Rez. in Mitt. VÖB 56(2003) H.3/4, S. 81-82 (I. Müller): "Mit der verdienstvollen Aufgabe, das vorliegende Handbuch herauszugeben, ist Bernd Lorenz dem Wunsch einer großen und wachsenden Zahl von Anwendern nachgekommen. Der Herausgeber baut dabei nach eigenen Worten auf die deutsche bzw. mitteleuropäische Klassifikationslandschaft auf und versucht insbesondere die Lücke in der Frage der Aufstellungssystematik zu schließen. Zum besseren Verständnis der nachfolgenden Darstellung der einzelnen Fachsystematiken der RVK wird eingangs die Entwicklung der Aufstellungssystematiken der UB Regensburg bzw. der RegensburgerVerbundklassifika tion einschließlich der Grundlagen und Anfangsphasen vorgestellt. Weiters werden u.a. Aufbau und Inhalt sowie Stand und Perspektiven 2003 dargestellt. Insbesondere werden die Voraussetzungen für die Verbundarbeit für den potentiellen Anwender von Interesse sein, denen Bernd Lorenz mit der Unterscheidung zwischen einer "inneren" und einer "äußeren" Situation begegnet. Den Kern des Handbuches bildet die Darstellung der einzelnen Fachsystematiken der RVK. Daß diese Darstellung Bezug auf das jeweilige "Vorleben" nimmt, ist als eine gelungene Ergänzung bzw. Abrundung des Handbuches anzusehen. Wegen der Einbeziehung der unterschiedlichen Entwicklungen fällt die Beschreibung der Fachsystematiken auch unterschiedlich in Ausführung und Umfang aus, bleibt aber bei aller begrüßenswerten Knappheit klar und übersichtlich und wird somit den Anforderungen an ein einschlägiges Handbuch absolut gerecht."
Weitere Rez. in: ZfBB 51(2004) H.3, S.189-192 (K. Umlauf):"Insgesamt ist das Buch eine nicht überzeugend strukturierte Vermischung von Material, Detailfülle des Stoffs sowie kenntnisreich und klug reflektierendem, wenn auch unausgewogenem Kommentar, in der der Anteil des Herausgebers nicht ganz klar wird. Ein konsistentes Handbuch zur RVK bleibt Desiderat."
- Series
- Beiträge zum Buch- und Bibliothekswesen; Bd.46
-
Barrierefreies E-Government : Leitfaden für Entscheidungsträger, Grafiker und Programmierer (2005)
0.14
0.14284936 = product of:
0.2856987 = sum of:
0.059916355 = weight(_text_:und in 5881) [ClassicSimilarity], result of:
0.059916355 = score(doc=5881,freq=42.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.4491759 = fieldWeight in 5881, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5881)
0.22578236 = weight(_text_:handbuchs in 5881) [ClassicSimilarity], result of:
0.22578236 = score(doc=5881,freq=2.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
0.4073183 = fieldWeight in 5881, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.03125 = fieldNorm(doc=5881)
0.5 = coord(2/4)
- Footnote
- Rez. in: Information - Wissenschaft und Praxis 56(2005) H.8, S.459 (W. Schweibenz): "Der Leitfaden ist Teil des Handbuchs für sicheres E-Govemment, das vom Bundesamt für Sicherheit in der Informationstechnik herausgegeben wird und als Nachschlagewerk und zentrale Informationsbörse mit Empfehlungscharakter konzipiert ist. Die Publikation stellt in sechs Abschnitten alle wichtigen Aspekte für ein barrierefreies EGovernment dar, die inhaltlich auch auf private Web-Angebote übertragen werden können. Ein besonderes Anliegen des Leitfadens ist es, den Entscheidungsträgern die Notwendigkeit eines barrierefreien Internets zu erklären. Dies geschieht im ersten Abschnitt, in dem ausgehend von der mangelhafte Benutzungsfreundlichkeit des Internets im Allgemeinen die Bedürfnisse behinderter Menschen im Besonderen beschrieben werden. In anschaulicher Weise mit Beispielen und Bildern werden die Probleme folgender Benutzergruppen dargestellt: - sehbehinderte und blinde Menschen, - hörgeschädigte und gehörlose Menschen, - kognitiv eingeschränkte und konzentrationsschwache Menschen, - Menschen mit Epilepsie, - manuell-motorisch eingeschränkte Menschen. Dies kann Lesern helfen, sich die Probleme von Menschen mit Behinderungen zu vergegenwärtigen, bevor sie im zweiten Abschnitt auf zehn Seiten mit dem deutschen Gesetze und Richtlinien konfrontiert werden. Der Abschnitt 3 Anleitung zur Gestaltung barrierefreier Internet-Seiten gibt Programmierern und Designem konkrete Hinweise welche Techniken in HTML und CSS wie eingesetzt werden müssen, um Barrierefreiheit zu erreichen. Dies reicht von Fragen der Wahmehmbarkeit (Textäquivalente für Audio- und visuelle Inhalte, Schrift und Farbe) über generelle Aspekte der Bedienbarkeit (Orientierung und Navigation, Frames, eingebettete Benutzerschnittstellen, Formulare) und der allgemeinen Verständlichkeit (Sprache, Abkürzungen, Akronyme) bis zur Einhaltung von Standards (W3C unterstützte Formate, Einhaltung von Markup-Standards, Rückwärtskompatibilität, Geräteunabhängigkeit, Kompatibilität mit assistiven Technologien). Im Abschnitt 4 wird die Kommunikation im Internet betrachtet, wobei vor allem auf Fragen des E-Mail-Verkehrs und der Sicherheit eingegangen wird, Aspekte die für alle Internet-Benutzer interessant sind. Im Abschnitt 5 wird dargestellt, wie Internet-Seiten auf Barrierefreiheit geprüft werden können. Neben Testmethoden technischer Art (Evaluierung durch verschiedene Browser und Prüfprogramme) und mit behinderten Benutzern wird auch auf die Frage der Oualitätssiegel für Barrierefreiheit eingegangen und existierende Testsymbole werden vorgestellt. Ein sechster Abschnitt mit Links und Literatur rundet den Leitfaden ab und verweist interessierte Leser weiter."
-
Pöppe, C.: Blitzkarriere im World Wide Web : die Programmiersprache Java (1996)
0.14
0.14002304 = product of:
0.56009215 = sum of:
0.56009215 = weight(_text_:java in 4404) [ClassicSimilarity], result of:
0.56009215 = score(doc=4404,freq=4.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
1.3214076 = fieldWeight in 4404, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=4404)
0.25 = coord(1/4)
- Object
- Java
-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.13
0.12603575 = product of:
0.2520715 = sum of:
0.1866974 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.1866974 = score(doc=217,freq=4.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.0653741 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.0653741 = score(doc=217,freq=50.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.12
0.12303122 = product of:
0.24606244 = sum of:
0.19802248 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.19802248 = score(doc=977,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.048039958 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.048039958 = score(doc=977,freq=12.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Schneider, G; Nestler, F.: Einführung in die Bibliographie (2005)
0.12
0.12213647 = product of:
0.24427295 = sum of:
0.018490588 = weight(_text_:und in 5371) [ClassicSimilarity], result of:
0.018490588 = score(doc=5371,freq=4.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.1386187 = fieldWeight in 5371, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5371)
0.22578236 = weight(_text_:handbuchs in 5371) [ClassicSimilarity], result of:
0.22578236 = score(doc=5371,freq=2.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
0.4073183 = fieldWeight in 5371, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.03125 = fieldNorm(doc=5371)
0.5 = coord(2/4)
- Footnote
- Rez. in: BuB 58(2006) H.1, S.82-84 (H. Wiesenmüller): "Im Jahr 1999 legte Friedrich Nestler, der frühere Direktor des Instituts für Bibliothekswissenschaft an der Humboldt-Universität, eine viel beachtete Neubearbeitung von Georg Schneiders »Handbuch der Bibliographie« (1. Auflage 1923) vor. Konsequenterweise hat er nun auch Schneiders »Einführung in die Bibliographie« (1936) bearbeitet. Bei diesem Text handelte es sich ursprünglich um den theoretischen Teil des »Handbuchs«, der bei den Rezensenten auf wenig Anklang gestoßen war. Für die 4. Auflage (1930) wurde er gestrichen, erschien jedoch sechs Jahre später in umgearbeiteter Form als eigenständige Publikation. In Schneider sieht Nestler einen direkten Vorgänger für seine - nicht zuletzt durch die Forschung in der DDR geprägte - Sichtweise der Bibliographie als ein »soziales Phänomen« (Seite IX), das sich »aus der kommunikativen Funktion der verzeichneten Texte ergibt« (Seite 28). Theoretische Modelle der Bibliographie machen denn auch den größten Teil des ersten Hauptkapitels aus. Dieses trägt zwar noch dieselbe Überschrift (»Begriff der Bibliographie«) wie bei Schneider, ist aber von 5 auf über 60 Seiten angewachsen und beinhaltet nun weit mehr als nur die Wortgeschichte. In einem Abschnitt zur bibliothekarischen Ausbildung kritisiert Nestler - ganz zu Recht - die traditionelle Vermittlung des Themas Bibliographie als bloße Abfolge einer langen Reihe bibliographischer Hilfsmittel, deren Charakteristika Stück für Stück zu erlernen sind. Dass das Aufkommen der elektronischen Medien hier zu einem »Wechsel der Optik« (Seite 16) geführt habe und seitdem mehr Wert auf eine theoretische Grundlage gelegt werde, kann die Rezensentin aus ihrer eigenen Erfahrung allerdings nicht bestätigen. ... Insgesamt gesehen bleibt die Neubearbeitung an vielen Stellen unbefriedigend. Dennoch ist es zu begrüßen, dass sie überhaupt erschienen ist: Gerade weil man sich an manchem reiben kann, könnte Nestlers Arbeit Anlass sein, sich von neuem mit dem Thema Bibliographie zu beschäftigen."
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.11812926 = product of:
0.23625852 = sum of:
0.16501875 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.16501875 = score(doc=50,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.07123977 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.07123977 = score(doc=50,freq=38.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.115995936 = product of:
0.23199187 = sum of:
0.19802248 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.19802248 = score(doc=1181,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.033969384 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.033969384 = score(doc=1181,freq=6.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.11599495 = product of:
0.2319899 = sum of:
0.1866974 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.1866974 = score(doc=1761,freq=4.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.045292508 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.045292508 = score(doc=1761,freq=24.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Vonhoegen, H.: Einstieg in XML (2002)
0.11
0.11140331 = product of:
0.22280662 = sum of:
0.16336021 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.16336021 = score(doc=5002,freq=4.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.05944641 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.05944641 = score(doc=5002,freq=54.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
nestor-Handbuch : eine kleine Enzyklopädie der digitalen Langzeitarchivierung (2010)
0.11
0.10713702 = product of:
0.21427403 = sum of:
0.044937268 = weight(_text_:und in 703) [ClassicSimilarity], result of:
0.044937268 = score(doc=703,freq=42.0), product of:
0.13339174 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06014329 = queryNorm
0.33688194 = fieldWeight in 703, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=703)
0.16933677 = weight(_text_:handbuchs in 703) [ClassicSimilarity], result of:
0.16933677 = score(doc=703,freq=2.0), product of:
0.5543143 = queryWeight, product of:
9.216561 = idf(docFreq=11, maxDocs=44421)
0.06014329 = queryNorm
0.3054887 = fieldWeight in 703, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.216561 = idf(docFreq=11, maxDocs=44421)
0.0234375 = fieldNorm(doc=703)
0.5 = coord(2/4)
- Abstract
- Vorwort Stellen Sie sich vor: Wir befinden uns im Jahre 2030 irgendwo in Deutschland. Irgendwo? Nein, bei Ihnen in der guten Stube, wo Sie Ihren Enkelkindern stolz von Ihrer Weltumsegelung aus dem Jahr 2010 berichten. Untermalen möchten Sie Ihre Geschichte gerne mit anschaulichem Bildmaterial und zeitgenössischer Musik. Diese hatte damals wesentlich zur Mythen- und Legendenbildung im Freundeskreis beigetragen, seitdem genießen Sie den Ruf eines unerschrockenen Helden. Nun ist es an der Zeit, diese kleine Geschichte lebendig zu halten und sie der nächsten Generation, nämlich Ihren Enkelkindern, weiterzugeben. Doch Ihr GODD (Global Omnipresent Digital Device) weigert sich, die aufwändig erstellte Videoschau überhaupt zu lesen. Ganz im Gegenteil, Ihnen wird lapidar mitgeteilt, dass es sich um veraltete Technik handelt, die nicht länger unterstützt wird. Sie möchten sich bitte an einen "Datenarchäologen" Ihres Vertrauens wenden. Aber was ist nun eigentlich ein "Datenarchäologe"? Ein Datenarchäologe stellt nicht mehr lesbare Daten wieder her, um sie wieder nutzbar zu machen. Er - oder sie - kommt zum Einsatz, wenn die Havarie schon erfolgt ist. Doch soweit soll es nicht kommen. Deshalb benötigt man Experten wie den "Digital Curator" oder den "Digital Preservation Specialist", der dafür sorgt, dass bereits bei der Entstehung digitaler Daten perspektivisch ihre langfristige Erhaltung berücksichtigt wird. Er - oder sie - ist in der Lage eine Institution bei der Entwicklung ihrer Langzeitarchivierungsstrategie für die erzeugten Daten zu unterstützen oder Entwicklungen in einem vertrauenswürdigen digitalen Langzeitarchivsystem zu planen und durchzuführen.
Glücklicher als Sie mit Ihren privaten digitalen Daten sind da die Astronomen, wenn sie nach Daten von Himmels-Beobachtungen fahnden, die bereits Jahrzehnte zurückliegen. Obwohl die Bild- und Datenarchive dieser Beobachtungen in vielfältigen und sehr unterschiedlichen Formaten abgespeichert wurden, gibt es immer die Möglichkeit, über geeignete Interface-Verfahren die Originaldaten zu lesen und zu interpretieren. Dies ist der Fall, weil durch das sogenannte Virtuelle Observatorium weltweit die Archive für astronomische Beobachtungen vernetzt und immer in den neuesten digitalen Formaten zugänglich sind, seien es digitale Aufnahmen von Asteroiden, Planetenbewegungen, der Milchstrasse oder auch Simulationen des Urknalls. Selbst Photoplatten von Beginn des 20. Jahrhunderts wurden systematisch digitalisiert und stehen zur Wiederverwendung bereit. So sind ältere und neue digitale Daten und Bilder gemeinsam nutzbar und gewähren einen Blick in das Universum, der sich über weit mehr Wellenlängen erstreckt als die Sinne des Menschen allein wahrnehmen können. Wir freuen uns, Ihnen mit dem nestor Handbuch "Eine kleine Enzyklopädie der digitalen Langzeitarchivierung" den aktuellen Wissensstand über die Langzeitarchivierung digitaler Objekte im Überblick sowie aus vielen Teilbereichen nun auch in gedruckter Form präsentieren zu können. Schon seit Frühjahr 2007 ist das Handbuch in digitaler Version unter http://nestor.sub.uni-goettingen.de/handbuch/ verfügbar und seitdem in mehreren Intervallen aktualisiert worden. Die nun vorliegende Version 2.0 - hier gedruckt und unter o.g. URL auch weiterhin entgeltfrei herunterladbar - wurde neu strukturiert, um neue Themenfelder ergänzt und bislang schon vorhandene Beiträge wurden, wo fachlich geboten, überarbeitet. Aus seiner Entstehung ergibt sich eine gewisse Heterogenität der einzelnen Kapitel untereinander, z.B. bezüglich der Ausführlichkeit des behandelten Themas oder des Schreibstils. Der Herausgeberkreis hat nicht primär das Ziel verfolgt, dies redaktionell lektorierend auszugleichen oder ein insgesamt kohärentes Gesamtwerk vorzulegen. Vielmehr geht es ihm darum, der deutschsprachigen Gemeinschaft eine möglichst aktuelle "Kleine Enzyklopädie der digitalen Langzeitarchivierung" anbieten zu können.
Die parallel verfügbare entgeltfreie, digitale Version des Handbuchs wird bei Bedarf aktualisiert und erweitert, eine zweite Druckauflage ist bereits geplant. Gerne nehmen wir Ihre Anregungen auf und berücksichtigen sie bei zukünftigen Aktualisierungen! Unser Dank gilt insbesondere den Autorinnen und Autoren, ohne die es nur bei der Idee eines solchen Handbuches geblieben wäre. Mein Dank gilt aber auch den Mitherausgebern dieser Ausgabe, durch deren engagiertes Stimulieren und "Bändigen" der Autoren die vielen Beiträge erst zu einem Gesamtwerk zusammengeführt werden konnten. Zusammen mit allen Beteiligten hoffe ich, dass dieses Handbuch Ihnen hilfreiche Anregungen und Anleitungen zu einem erfolgreichen Einstieg in die Theorie und Praxis der Langzeitarchivierung digitaler Objekte bietet!
-
Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999)
0.10
0.09901124 = product of:
0.39604497 = sum of:
0.39604497 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
0.39604497 = score(doc=1743,freq=2.0), product of:
0.42386025 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06014329 = queryNorm
0.9343763 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Abstract
- Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate