-
Loviscach, J.: Formen mit Normen (2000)
0.16
0.15583499 = product of:
0.31166998 = sum of:
0.2733793 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
0.2733793 = score(doc=6100,freq=2.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
0.62291753 = fieldWeight in 6100, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.038290683 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
0.038290683 = score(doc=6100,freq=4.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.2772374 = fieldWeight in 6100, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.5 = coord(2/4)
- Abstract
- Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
- Object
- Java
-
Scheerer, H.: Gülich online : Die Retrokonversion des Zettelkatalogs der Bundestagsbibliothek (2007)
0.15
0.15354273 = product of:
0.30708545 = sum of:
0.048811235 = weight(_text_:und in 1513) [ClassicSimilarity], result of:
0.048811235 = score(doc=1513,freq=26.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.3534097 = fieldWeight in 1513, product of:
5.0990195 = tf(freq=26.0), with freq of:
26.0 = termFreq=26.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1513)
0.25827423 = weight(_text_:hebis in 1513) [ClassicSimilarity], result of:
0.25827423 = score(doc=1513,freq=4.0), product of:
0.507283 = queryWeight, product of:
8.146119 = idf(docFreq=34, maxDocs=44421)
0.062272966 = queryNorm
0.50913244 = fieldWeight in 1513, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
8.146119 = idf(docFreq=34, maxDocs=44421)
0.03125 = fieldNorm(doc=1513)
0.5 = coord(2/4)
- Abstract
- Konzeptionelle Grundlagen Das Jahr 2006 stand für die Bundestagsbibliothek im Zeichen der Retrokonversion. Die Daten von 839.000 Karten des Verfasser- und Titelkatalogs des Gülichschen Katalogsystems, die den Bestand bis 1986 nachweisen, wurden maschinenlesbar gemacht und in den elektronischen Katalog der Bibliothek eingespielt. Damit ist nunmehr der Gesamtbestand der Bibliothek sowohl im Intranet des Bundestages als auch im Internet recherchierbar. Mit der Retrokonversion verfolgte die Bundestagsbibliothek zwei zentrale Ziele. Erstens sollte eine integrierte Recherche von Alt- und Neudaten ermöglicht werden, zweitens sollte der Bestand bis 1986 mit demselben Komfort direkt entleih-bar, vormerkbar und verlängerbar sein wie der Bestand ab 1987. Aufgrund der finanziellen Rahmenbedingungen des Projekts einerseits und der Ausgangssituation im Kartenkatalog andererseits mussten bezüglich der Suchmöglichkeiten Unterschiede zwischen Alt- und Neudaten festgelegt werden. Analog zu der beim Aufbau des HEBIS-Retrokataloges verfolgten Philosophie wurde seitens der Bibliothek entschieden, dass man die zu konvertierenden Daten über die wichtigsten Sucheinstiege wie Verfasser, Hauptsachtitel und Erscheinungsjahr finden können sollte. Ein Sucheinstieg über Schlagwörter wurde hingegen des seinerzeit für die Sacherschließung verwendeten, nicht-natürlichsprachlichen Vokabulars und der zahlreichen Abkürzungen auf den Katalogkarten wegen als nicht sinnvoll erachtet. Im Unterschied zum HEBIS-Retroprojekt entschied sich die Bundestagsbibliothek jedoch, Alt- und Neudaten in einer gemeinsamen Datenbank zusammenzuführen. Der Vorteil der integrierten Recherche überwog die Bedenken, dass die Daten auf der Grundlage zweier unterschiedlicher, formaler Regelwerke (Gülich/RAK-PB) erstellt worden waren.
Neben der integrierten Recherche war die Realisierung einer direkten Bestell- und Ausleihmöglichkeit des Altbestands konzeptioneller Kernpunkt des Projekts. Dabei stellte sich jedoch ein grundlegendes Problem: Mehr als die Hälfte, nämlich knapp 425.000 der zu konvertierenden Katalogkarten waren Aufsatzkatalogisate. Die für eine Ausleihe notwendigen Verknüpfungen zu den ausleihfähigen, übergeordneten Gesamtheiten konnten nicht automatisch erzeugt werden, hier mussten Umgehungslösungen gefunden werden. Die Vorgehensweise bei der Retrokonversion ergab sich aus den konzeptionellen Grundüberlegungen einerseits und der Nichtzugehörigkeit der Bundestagsbibliothek zu einem überregionalen Verbund andererseits. Von vornherein schied daher die Variante aus, bereits vorhandene Datensätze eines eigenen Verbundes als Ausgangspunkt für die Retrokonversion zu nehmen und gleichzeitig den Aufsatzbestand neu zu katalogisieren - ein Weg, wie ihn die Deutsche Zentralbibliothek für Wirtschaftswissenschaften in Kiel beschritten hat, die gleichfalls einen Gülich-Katalog zu konvertieren hattet. Stattdessen verlief das Retrokonversionsprojekt der Bundestagsbibliothek zweigeteilt. Im Zuge einer europaweiten Ausschreibung mit vorgeschaltetem Teilnehmerwettbewerb wurde die Firma Satz-Rechen-Zentrum GmbH, die schon zahlreiche Katalogkonversionen erfolgreich durchgeführt hat, beauftragt, die Daten der Katalogkarten zu konvertieren und für eine Einspielung in die Bibliotheksdatenbank zu Verfügung zu stellen. Die Einspielung selbst wurde von der Firma ASTEC GmbH vorgenommen, welche die in der Bundestagsbibliothek eingesetzte Katalogsoftware aDIS/BMS entwickelt hat.
-
Kölle, R.; Langemeier, G.; Womser-Hacker, C.: Kollaboratives Lernen in virtuellen Teams am Beispiel der Java-Programmierung (2008)
0.15
0.15094389 = product of:
0.30188778 = sum of:
0.23920688 = weight(_text_:java in 2393) [ClassicSimilarity], result of:
0.23920688 = score(doc=2393,freq=2.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
0.5450528 = fieldWeight in 2393, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2393)
0.06268089 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
0.06268089 = score(doc=2393,freq=14.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.4538307 = fieldWeight in 2393, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2393)
0.5 = coord(2/4)
- Abstract
- Komplexe Aufgaben und Probleme werden heute üblicherweise im Team bearbeitet und gelöst. Das gilt insbesondere für Softwareprojekte, denn die Entwicklung komplexer Softwaresysteme findet heutzutage meistens arbeitsteilig in - zunehmend räumlich verteilten - Teams statt. Vor diesem Hintergrund wird zum einen ein rollenbasiertes Konzept vorgestellt, das virtuellen Lernteams bei der Zusammenarbeit einen virtuellen Tutor zur Seite stellt, der dem Team im Rahmen von Rollendefiziten adaptierte Hilfestellung bietet und so die Lerneffektivität unterstützt. Zum anderen wird gezeigt, wie das Zusammenspiel zweier spezialisierter Systeme (VitaminL und K3) im Kontext des Blended Learning echte Mehrwerte in E-Learning-Szenarien bringen kann. Die in Benutzertests und einer Lehrveranstaltung ermittelten Evaluierungsergebnisse lassen auf die Tragfähigkeit des rollenbasierten, tutoriellen Konzepts schließen und decken gleichzeitig großes Weiterentwicklungpotenzial auf.
- Source
- Information - Wissenschaft und Praxis. 59(2008) H.1, S.37-40
-
Stresing, A.; Striffler, T.: Provenienzen sichtbar gemacht : Kataloganreicherung durch Bereitstellung digitalisierter Provenienzmerkmale im HeBIS-Verbund (2010)
0.15
0.14712395 = product of:
0.2942479 = sum of:
0.020306699 = weight(_text_:und in 77) [ClassicSimilarity], result of:
0.020306699 = score(doc=77,freq=2.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.14702731 = fieldWeight in 77, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=77)
0.2739412 = weight(_text_:hebis in 77) [ClassicSimilarity], result of:
0.2739412 = score(doc=77,freq=2.0), product of:
0.507283 = queryWeight, product of:
8.146119 = idf(docFreq=34, maxDocs=44421)
0.062272966 = queryNorm
0.54001653 = fieldWeight in 77, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.146119 = idf(docFreq=34, maxDocs=44421)
0.046875 = fieldNorm(doc=77)
0.5 = coord(2/4)
- Abstract
- Bücher sind Informationsträger, mitunter enthalten sie außer dem gedruckten Text auch interessante Hinweise zu ihrem eigenen Lebensweg: von Hand zu Hand weitergereicht, verschenkt, verkauft, vermacht oder auch unrechtmäßig in neuen Besitz überführt. In unsicheren Zeiten auf holprigen Wegen über weite Strecken transportiert, wie die Bücherkisten, die 1801 Mainz erreichten. Sie enthielten verstaatlichtes Bibliotheksgut aus den aufgelösten Pariser Klosterbibliotheken. Gotthelf Fischer von Waldheim, damals Bibliothécaire de l'Université de Mayence, der Vorgängereinrichtung der heutigen Wissenschaftlichen Stadtbibliothek Mainz, hatte die Erlaubnis erhalten, 2.000 Bände aus den staatlichen Depots in Paris zu entnehmen. Die Herkunft der Bücher dokumentierte er sorgfältig durch ein Etikett, das er in jeden Band einklebte. Die Lebensgeschichte eines Buches zu ergründen ist Aufgabe der Provenienzerschließung. Sie wird an den Spuren, also Exlibris, Wappen, handschriftlichen Notizen etc., die Vorbesitzer im Buch hinterlassen haben, in Ausschnitten und in gut dokumentierten Fällen sogar vollständig nachvollziehbar.
-
Pöppe, C.: Blitzkarriere im World Wide Web : die Programmiersprache Java (1996)
0.14
0.14498127 = product of:
0.57992506 = sum of:
0.57992506 = weight(_text_:java in 4404) [ClassicSimilarity], result of:
0.57992506 = score(doc=4404,freq=4.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
1.3214076 = fieldWeight in 4404, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=4404)
0.25 = coord(1/4)
- Object
- Java
-
Hickey, T.B.: ¬A Java Z39.50 Client for Browsing Large Databases (2001)
0.14
0.14498127 = product of:
0.57992506 = sum of:
0.57992506 = weight(_text_:java in 2051) [ClassicSimilarity], result of:
0.57992506 = score(doc=2051,freq=4.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
1.3214076 = fieldWeight in 2051, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2051)
0.25 = coord(1/4)
- Object
- Java
-
Brand, O.; Stille, W.; Schachtner, J.: HeFDI - Die landesweite Initiative zum Aufbau von Forschungsdateninfrastrukturen in Hessen : Forschungsdaten-Policies an deutschen Universitäten (2018)
0.14
0.14345236 = product of:
0.28690472 = sum of:
0.058620397 = weight(_text_:und in 481) [ClassicSimilarity], result of:
0.058620397 = score(doc=481,freq=24.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.42443132 = fieldWeight in 481, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=481)
0.22828431 = weight(_text_:hebis in 481) [ClassicSimilarity], result of:
0.22828431 = score(doc=481,freq=2.0), product of:
0.507283 = queryWeight, product of:
8.146119 = idf(docFreq=34, maxDocs=44421)
0.062272966 = queryNorm
0.45001376 = fieldWeight in 481, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.146119 = idf(docFreq=34, maxDocs=44421)
0.0390625 = fieldNorm(doc=481)
0.5 = coord(2/4)
- Abstract
- Digitale Forschungsdaten als Ressource sichern, aufbewahren und anderen zur Verfügung stellen: alle Phasen des Forschungsdatenzyklus adressiert das Projekt "Hessische Forschungsdateninfrastrukturen" (HeFDI), in dem elf hessische Hochschulen und die HeBIS-Verbundzentrale unter Federführung der Philipps-Universität Marburg zusammenarbeiten. Das Hessische Ministerium für Wissenschaft und Kunst fördert dieses Vorhaben mit 3,4 Millionen Euro von 2016 bis 2020. Seit Oktober 2016 arbeitet ein Team von mehr als 20 Personen an den hessischen Hochschulen am Forschungsdatenmanagement, das heißt beispielsweise an Policies, Repositorien, Schulungen und unterstützenden Tools für das aktive Datenmanagement. Das Team berät zudem die Forschenden bedarfsorientiert zu ihren Datenmanagementstrategien entlang des gesamten Datenlebenszyklus und insbesondere bei der Einwerbung und Durchführung von Drittmittelprojekten. Ziel dieser Arbeit ist der Aufbau einer Forschungsdateninfrastruktur. Dazu werden die notwendigen organisatorischen Prozesse und technischen Entwicklungen zur Verankerung des Forschungsdatenmanagements - abhängig von den Anforderungen der beteiligten Hochschulen - angestoßen, koordiniert und etabliert. Das Projekt HeFDI nimmt dabei die strategisch bedeutsame Aufgabe der Sicherung und Bereitstellung von Forschungsdaten in einer koordinierten Gesamtstrategie an. Es vertritt einen Middle-out-Ansatz, bei dem Entscheidungs- und Arbeitsebenen systematisch miteinander verzahnt werden. Damit besitzt HeFDI Modellcharakter für institutionelle Kooperation und nachhaltige Governance-Strukturen im Bereich des Forschungsdatenmanagements; die in HeFDI erarbeiteten Lösungen stehen über Hessen hinaus exemplarisch für Synergie, Effizienz, Abstimmung und Arbeitsteilung.
-
Schröter, H.G.: Computer-Industrie wirft das Netz der Netze über die Kundschaft aus (1996)
0.14
0.14329459 = product of:
0.28658918 = sum of:
0.23920688 = weight(_text_:java in 3593) [ClassicSimilarity], result of:
0.23920688 = score(doc=3593,freq=2.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
0.5450528 = fieldWeight in 3593, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3593)
0.047382303 = weight(_text_:und in 3593) [ClassicSimilarity], result of:
0.047382303 = score(doc=3593,freq=8.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.34306374 = fieldWeight in 3593, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=3593)
0.5 = coord(2/4)
- Abstract
- Internet verändert die Software-Szene / Java macht Dampf / PC bekommt Konkurrenz / Aufgeweckte Riesen gegen innovative Zwerge / Intranet heißt der neue Renner
- Content
- Das Internet boomt. Rund um den Globus basteln etablierte EDV-Konzerne und Branchenneulinge an Hard- und Software für das Netz der Netze. Glaubt man den Auguren, läutet seine Beliebtheit eine Revolution in der Informationstechnik ein. Der Ära der Großrechner und der Personalcomputer soll ein Zeitalter folgen, in dem 'das Netz der Computer' ist. Wer dann die Fäden ziehen wird, ist längst nicht ausgemacht. Ob herkömmliche PC mit ihren Programmen die Spinne im Netz bleiben oder neue Geräte und Software sich breitmachen, darüber wird derzeit lebhaft diskutiert
-
Block, B.; Labner, J.; Rusch, B.: Katalogisierung kooperativ gemacht (2007)
0.14
0.14089859 = product of:
0.28179717 = sum of:
0.053512856 = weight(_text_:und in 1038) [ClassicSimilarity], result of:
0.053512856 = score(doc=1038,freq=20.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.38745102 = fieldWeight in 1038, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=1038)
0.22828431 = weight(_text_:hebis in 1038) [ClassicSimilarity], result of:
0.22828431 = score(doc=1038,freq=2.0), product of:
0.507283 = queryWeight, product of:
8.146119 = idf(docFreq=34, maxDocs=44421)
0.062272966 = queryNorm
0.45001376 = fieldWeight in 1038, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.146119 = idf(docFreq=34, maxDocs=44421)
0.0390625 = fieldNorm(doc=1038)
0.5 = coord(2/4)
- Abstract
- Haben Sie schon einmal versucht, Ihren fachfremden Bekannten oder Familienangehörigen plausibel zu erklären, warum in Deutschland (die Österreicher mögen diese Verkürzung einen Moment verzeihen und sich mitgenannt fühlen) eine Titelaufnahme zeitgleich mehrfach erstellt wird? Mal unter uns: Wir sind mit unseren ausführlichen Erklärungen regelmäßig gescheitert. Spätestens wenn wir mit unserem Vortrag bei unterschiedlichen Katalogisierungskonventionen und technischen Hindernissen angelangt sind, ist uns unser Gegenüber eingenickt. Unser fachfremdes Gegenüber, versteht sich. Aber je stärker die Katalogisierungsabteilungen in den Bibliotheken schrumpfen und die "pragmatische" der "perfekten" Titelaufnahme den Rang abläuft, desto mehr Fragen kommen auch von Bibliothekarlnnen: Warum lassen sich die Aufnahmen nicht aus anderen Verbünden übernehmen? Warum nicht die verknüpften Normdaten? Warum existieren nach wie vor unterschiedliche Erschließungspraktiken? Die Arbeitsgemeinschaft der Verbundsysteme hat sich 2005 dieser Thematik angenommen und ein Projekt mit dem Namen "Kooperative Neukatalogisierung" ins Leben gerufen. Es sollten Maßnahmen zur Verbesserung der Datenübernahme zwischen den Verbünden für die Formal- und Sacherschließung erarbeitet werden mit dem Ziel, die Eigenkatalogisierungsquoten zu senken sowie Anreicherungen für bestehende Datensätze (Sacherschließung, Links zu Rezensionen und Inhaltsverzeichnissen usw.) zu ermöglichen. In einem zweiten Paket sollte die Angleichung bzw. Vereinheitlichung von differierenden Regelwerks- und Formatanwendungen erreicht und ein gemeinsamer Qualitätsstandard in den Verbünden vereinbart werden. An diesem ambitionierten Unterfangen sind die Mitglieder der Arbeitsgemeinschaft der Verbundsysteme (die Verbünde BVB, GBV, hbz, HeBIS, KOBV, OBV, SWB und ZDB und die Deutsche Nationalbibliothek (DNB)) beteiligt. Die Deutsche Nationalbibliothek hat in diesem Projekt eine besondere Ausgangslage. Während die Nutzung der Daten der Deutschen Nationalbibliothek in den Verbünden die Regel ist, betritt die Deutsche Nationalbibliothek Neuland, wenn sie im Rahmen dieses Projektes prüft, in welchem Umfang Verbunddaten für die eigene Arbeit genutzt werden können.
-
Fisher, Y.: Better CGI scripts (i.V.)
0.14
0.13668965 = product of:
0.5467586 = sum of:
0.5467586 = weight(_text_:java in 6015) [ClassicSimilarity], result of:
0.5467586 = score(doc=6015,freq=2.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
1.2458351 = fieldWeight in 6015, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.125 = fieldNorm(doc=6015)
0.25 = coord(1/4)
- Object
- JAVA
-
Blake, P.; Nelson, M.: Ovid unveils Java search client (1996)
0.14
0.13668965 = product of:
0.5467586 = sum of:
0.5467586 = weight(_text_:java in 45) [ClassicSimilarity], result of:
0.5467586 = score(doc=45,freq=8.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
1.2458351 = fieldWeight in 45, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=45)
0.25 = coord(1/4)
- Abstract
- Ovid Technologies is launching its Java search client to enable users to access Ovid's scientific databases on the Web with full search capabilities irrespective of the type of computer used. Explains the differences between Java and HTML. The Java client increases search speed by several orders of magnitude. The Ovid client does not need to wait for individual pages to load and incorporates multi-tasking. The interface includes tree displays; thesauri; mapping; explode/implode; search fields and context sensitive help. Display; save; and e-mail are available from the client
-
Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010)
0.13
0.13144901 = product of:
0.26289803 = sum of:
0.23920688 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
0.23920688 = score(doc=1604,freq=2.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
0.5450528 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.023691151 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
0.023691151 = score(doc=1604,freq=2.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.17153187 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.5 = coord(2/4)
- Abstract
- iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.13
0.13049868 = product of:
0.26099735 = sum of:
0.19330835 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.19330835 = score(doc=217,freq=4.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.067689 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.067689 = score(doc=217,freq=50.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.13
0.12738776 = product of:
0.25477552 = sum of:
0.20503448 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.20503448 = score(doc=977,freq=2.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.04974106 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.04974106 = score(doc=977,freq=12.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.12231223 = product of:
0.24462447 = sum of:
0.17086208 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.17086208 = score(doc=50,freq=2.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.07376238 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.07376238 = score(doc=50,freq=38.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.12010336 = product of:
0.24020672 = sum of:
0.20503448 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.20503448 = score(doc=1181,freq=2.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.035172243 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.035172243 = score(doc=1181,freq=6.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.12010234 = product of:
0.24020468 = sum of:
0.19330835 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.19330835 = score(doc=1761,freq=4.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.04689632 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.04689632 = score(doc=1761,freq=24.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997)
0.12
0.11960344 = product of:
0.47841376 = sum of:
0.47841376 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
0.47841376 = score(doc=5463,freq=8.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
1.0901057 = fieldWeight in 5463, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5463)
0.25 = coord(1/4)
- Abstract
- A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
- Object
- JAVA
-
Read, T.; Hall, H.: Java: an explosion on the Internet (1996)
0.12
0.11960344 = product of:
0.47841376 = sum of:
0.47841376 = weight(_text_:java in 86) [ClassicSimilarity], result of:
0.47841376 = score(doc=86,freq=2.0), product of:
0.43886918 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.062272966 = queryNorm
1.0901057 = fieldWeight in 86, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.109375 = fieldNorm(doc=86)
0.25 = coord(1/4)
-
Ortwein, A.: InfoPoint (2005)
0.12
0.116640635 = product of:
0.23328127 = sum of:
0.05065381 = weight(_text_:und in 5319) [ClassicSimilarity], result of:
0.05065381 = score(doc=5319,freq=28.0), product of:
0.13811515 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.062272966 = queryNorm
0.36675057 = fieldWeight in 5319, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5319)
0.18262745 = weight(_text_:hebis in 5319) [ClassicSimilarity], result of:
0.18262745 = score(doc=5319,freq=2.0), product of:
0.507283 = queryWeight, product of:
8.146119 = idf(docFreq=34, maxDocs=44421)
0.062272966 = queryNorm
0.360011 = fieldWeight in 5319, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.146119 = idf(docFreq=34, maxDocs=44421)
0.03125 = fieldNorm(doc=5319)
0.5 = coord(2/4)
- Abstract
- Seit Oktober 2004 nimmt Die Deutsche Bibliothek als eine von fünf Institutionen am neu eingerichteten virtuellen Auskunftsdienst InfoPoint teil. Weitere Kooperationspartner sind die Stadtbücherei Frankfurt am Main, die Universitätsbibliothek Johann Christian Senckenberg, die USA-Bibliothek der Universität Mainz und die HeBIS-Verbundzentrale als Gruppenadministrator und -koordinator. InfoPoint ist Teil des globalen Informationsnetzwerks QuestionPoint. Ausgangspunkt für die Gründung dieser Onlineauskunft für die Rhein-Main-Region war ein von Diana Kresh (Leiterin der Public Service Collections der Library of Congress in Washington) im August 2003 in der Deutschen Bibliothek Frankfurt am Main gehaltener Vortrag zu dem Thema »Reference in a Digital World«, Darin stellte sie den Auskunftsservice QuestionPoint vor, der aus dem Projekt »Collaborative Digital Reference Service« der Library of Congress (LoC) hervorgegangen ist und begeisterte mit dem Thema sofort alle Anwesenden. Im Herbst 2003 gründete sich daraufhin die »QuestionPoint-Arbeitsgruppe Rhein-Main«, die im Mai 2004 ihr Konzept für einen virtuellen Auskunftsdienst den Entscheidungsträgern der einzelnen Teilnehmerbibliotheken vorlegte. Im Juni 2004 erfolgte die offizielle Gründung eines Konsortiums und im Oktober fiel der Startschuss zur Betriebsaufnahme von InfoPoint. QuestionPoint (QP) ist ein von der LoC und dem Bibliotheksdienstleister Online Computer Library Center (OCLC) gemeinschaftlich entwickelter Onlineauskunftsservice mit dem Ziel, ein weltweites Netzwerk von kooperierenden Bibliotheken zu bilden, um auf das breite Wissensspektrum der beteiligten Mitgliedsinstitutionen zugreifen zu können. Verantwortlich für die bibliothekarischen Anforderungen und Vorgaben ist die LoC, die technische Realisierung liegt bei OCLC, wo auch die Datenbank des Dienstes lokalisiert ist. Grundlage bildet eine leistungsfähige Software mit breitem Funktionsspektrum, die sowohl für die anfragenden Nutzerinnen und Nutzer als auch für die Auskunft gebenden Bibliothekarinnen und Bibliothekare alle Stufen und Schritte eines virtuellen Auskunftsvorgangs dokumentiert und transparent macht. Darüber hinaus können auf Wunsch moderne Kommunikationstechniken wie Chat und Webcams innerhalb des Systems ergänzend eingebunden werden. Mit Stand Februar 2005 sind 955 Institutionen aus zahlreichen Ländern weltweit an QP beteiligt. Darunter befinden sich die verschiedensten Bibliothekstypen, wie Nationalbibliotheken, Hochschulbibliotheken, öffentliche Bibliotheken, Spezialbibliotheken sowie zahlreiche nicht bibliothekarische Einrichtungen. Folgende in Deutschland ansässige Institutionen sind neben dem InfoPoint-Konsortium an OP beteiligt: Die Deutsche Zentralbibliothek für Wirtschaftswissenschaften Kiel, die Niedersächsische Staats- und Universitätsbibliothek Göttingen, die Zentral- und Landesbibliothek Berlin, das Informations-, Kommunikations- und Medienzentrum Cottbus, die Universitätsbibliothek Chemnitz sowie die U.S. Army Europe Regional Library Heidelberg.