-
Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010)
0.14
0.13997787 = product of:
0.27995574 = sum of:
0.25472742 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
0.25472742 = score(doc=1604,freq=2.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.5450528 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.025228312 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
0.025228312 = score(doc=1604,freq=2.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.17153187 = fieldWeight in 1604, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1604)
0.5 = coord(2/4)
- Abstract
- iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
- Theme
- Konzeption und Anwendung des Prinzips Thesaurus
-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.14
0.13896587 = product of:
0.27793175 = sum of:
0.20585085 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.20585085 = score(doc=217,freq=4.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.072080895 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.072080895 = score(doc=217,freq=50.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Lenders, W.: Wörter zwischen Welt und Wissen (1992)
0.14
0.13742475 = product of:
0.2748495 = sum of:
0.06447112 = weight(_text_:und in 2656) [ClassicSimilarity], result of:
0.06447112 = score(doc=2656,freq=10.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.4383508 = fieldWeight in 2656, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=2656)
0.2103784 = weight(_text_:handelt in 2656) [ClassicSimilarity], result of:
0.2103784 = score(doc=2656,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.52953815 = fieldWeight in 2656, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.0625 = fieldNorm(doc=2656)
0.5 = coord(2/4)
- Abstract
- Die Begriffe des Lexikons, des lexikalischen Wissens und des Weltwissens werden diskutiert. Das Lexikon wird dabei als Produkt explizit-metakommunikativer oder usuell-kommunikativer Vereinbarungen (Konventionen) einer Sprachgemeinschaft aufgefaßt, während es sich bei lexikalischem Wissen um eine individuelle Komponente sprachlicher Kommunikation handelt, die aus dem Weltwissen durch Abstraktion, Klassifikation und Benennung entsteht. Es wird auf die Probleme des Verhältnisses von Sprache und Realität hingewiesen, die möglicherweise durch das Konzeot des Weltwissens als mentaler Repräsentant der Wirklichkeit gelöst werden. Auf Möglichkeiten der Computersimulation von sprachlichem Wissen wird aufmerksam gemacht
- Source
- Experimentelles und praktisches Information Retrieval: Festschrift für Gerhard Lustig. Hrsg.: R. Kuhlen
-
Gerstenkorn, A.: Informationsbezug zwischen Gemein- und Fachsprache : Zum gemein- und fachsprachlichen Wort "Tal" (2006)
0.14
0.13742475 = product of:
0.2748495 = sum of:
0.06447112 = weight(_text_:und in 13) [ClassicSimilarity], result of:
0.06447112 = score(doc=13,freq=10.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.4383508 = fieldWeight in 13, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=13)
0.2103784 = weight(_text_:handelt in 13) [ClassicSimilarity], result of:
0.2103784 = score(doc=13,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.52953815 = fieldWeight in 13, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.0625 = fieldNorm(doc=13)
0.5 = coord(2/4)
- Abstract
- Dokumentationssprachen setzen Terminologien und Ontologien ein. Terminologien enthalten viele Ausdrücke, die auch in der Alltagssprache (Gemeinsprache) benutzt werden. Handelt es sich hier um unterschiedlich exakt erklärte Ausdrücke oder um Polyseme? Das Wort "Tal" soll als Beispiel für diese Frage dienen und auch ein Beispiel für den Aufbau von Ontologien zum Zwecke der Dokumentation abgeben.
- Source
- Information - Wissenschaft und Praxis. 57(2006) H.5, S.259-267
-
Rieck, M.: Einige Gedanken zur deutschen Informationswissenschaft (2013)
0.14
0.13574666 = product of:
0.27149332 = sum of:
0.048353337 = weight(_text_:und in 3863) [ClassicSimilarity], result of:
0.048353337 = score(doc=3863,freq=10.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.3287631 = fieldWeight in 3863, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3863)
0.22313999 = weight(_text_:handelt in 3863) [ClassicSimilarity], result of:
0.22313999 = score(doc=3863,freq=4.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.56166005 = fieldWeight in 3863, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.046875 = fieldNorm(doc=3863)
0.5 = coord(2/4)
- Abstract
- Die deutsche Informationswissenschaft existiert nur dem Namen nach. Eine eher sporadisch stattfindende fachliche Diskussion dreht sich ausschließlich um praktische Probleme, die Theorie wird weitgehend ignoriert. Kaum jemand ist bereit, über den Tellerrand zu blicken. Es wird versucht, die Informationswissenschaft zur Geisteswissenschaft zu erklären. Die Naturwissenschaften werden ausgeschlossen. Bibliotheks-, Dokumentations- und Archivwissenschaft sollen in der Informationswissenschaft aufgehen. Diese Vorgänge leiteten u. a. das Ende der wissenschaftlichen Dokumentation ein. In diesem Artikel wird dargestellt, wie die Informationswissenschaft aufgebaut werden kann und welche Themen sie behandeln sollte. Dabei wird davon ausgegangen, dass es sich um die "Wissenschaft von der Information" handelt. So muss es Grundlage sein, zu klären, worum es sich bei dem Phänomen "Information" handelt. Es werden verschiedene Ansätze betrachtet und ausgewertet, beginnend mit Shannons Kommunikationstheorie bis hin zur Physik. Der Weg zu einer möglichen Definition wird ebenso behandelt, wie die Eigenschaften der Information und ihre Abgrenzung zu Daten und Wissen.
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.14
0.13565311 = product of:
0.27130622 = sum of:
0.2183378 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.2183378 = score(doc=977,freq=2.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.052968428 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.052968428 = score(doc=977,freq=12.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Dupont, J.: Falsch! (2017)
0.13
0.13402155 = product of:
0.2680431 = sum of:
0.057664715 = weight(_text_:und in 4470) [ClassicSimilarity], result of:
0.057664715 = score(doc=4470,freq=8.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.39207286 = fieldWeight in 4470, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4470)
0.2103784 = weight(_text_:handelt in 4470) [ClassicSimilarity], result of:
0.2103784 = score(doc=4470,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.52953815 = fieldWeight in 4470, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.0625 = fieldNorm(doc=4470)
0.5 = coord(2/4)
- Abstract
- Mit erfundenen Meldungen lässt sich im Internet viel Geld und politisch Stimmung machen. Wie kann man sie erkennen? Ein Beitrag zum Thema Fake News. Fazit: "Ein Rezept, mit dem man Fake News erkennt, gibt es noch nicht. Bader und Rinsdorf sind aber auf der Suche danach. Im Moment analysieren sie Tausende Fake News auf auffällige Textmerkmale. Anschließend sollen Algorithmen programmiert werden, die in Sekundenschnelle erkennen, mit welcher Wahrscheinlichkeit es sich um eine gefälschte Nachricht handelt. Bader und Rinsdorf: "Wer die Nachrichtenvielfalt nutzt, sich breit informiert und Informationen im Netz mit einer gewissen Grundskepsis begegnet, kann Fake News schneller durchschauen.""
-
Fels, G.: Elektronische Medien in der Chemie Chemieinformation gestern, heute, morgen (2007)
0.13
0.13402155 = product of:
0.2680431 = sum of:
0.057664715 = weight(_text_:und in 902) [ClassicSimilarity], result of:
0.057664715 = score(doc=902,freq=8.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.39207286 = fieldWeight in 902, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=902)
0.2103784 = weight(_text_:handelt in 902) [ClassicSimilarity], result of:
0.2103784 = score(doc=902,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.52953815 = fieldWeight in 902, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.0625 = fieldNorm(doc=902)
0.5 = coord(2/4)
- Abstract
- Elektronische Medien sind definitionsgemäß Kommunikationsmittel, die auf elektronischem Wege, digital kodiert, übermittelt werden. Bezogen auf die Chemieinformation handelt es sich dabei um chemische Publikationen, Handbücher, Datenreihen, Spektren, Reaktionen, Repositorien für Online-Learning und vieles mehr. Im Rahmen der Vorstellung der neuen Informations- und Wissensplattform "chem.de" während der ACHEMA 2006 hat der Autor den Versuch unternommen, die revolutionäre Entwicklung der Chemieinformation zwischen "gestern und morgen" zu beschreiben. Der Vortragstext ist hier im wesentlichen unbebildert wiedergegeben, die Vortragsfolien sind auf eben dieser "chem. de "-Plattform abzurufen (Forschungsführer/Fels, Gregor/Publikationen).
- Source
- Information - Wissenschaft und Praxis. 58(2007) H.1, S.51-56
-
Assfalg, R.: Metadaten (2023)
0.13
0.13402155 = product of:
0.2680431 = sum of:
0.057664715 = weight(_text_:und in 1788) [ClassicSimilarity], result of:
0.057664715 = score(doc=1788,freq=8.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.39207286 = fieldWeight in 1788, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=1788)
0.2103784 = weight(_text_:handelt in 1788) [ClassicSimilarity], result of:
0.2103784 = score(doc=1788,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.52953815 = fieldWeight in 1788, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.0625 = fieldNorm(doc=1788)
0.5 = coord(2/4)
- Abstract
- Bei der Betrachtung von Datensätzen in relationalen Datenbanksystemen, von Datenmengen im Kontext von Big Data, von Ausprägungen gängiger XML-Anwendungen oder von Referenzdatenbeständen im Bereich Information und Dokumentation (IuD), fällt eine wichtige Gemeinsamkeit auf: Diese Bestände benötigen eine Beschreibung ihrer inneren Struktur. Bei diesen Strukturbeschreibungen handelt es sich also sozusagen um "Daten über Daten", und diese können kurz gefasst auch als Metadaten bezeichnet werden. Hierzu gehören Syntaxelemente und ggf. eine Spezifikation, wie diese Syntaxelemente angewendet werden.
- Source
- Grundlagen der Informationswissenschaft. Hrsg.: Rainer Kuhlen, Dirk Lewandowski, Wolfgang Semar und Christa Womser-Hacker. 7., völlig neu gefasste Ausg
-
Kalmring, D.: Zielorientierte Steuerung der Wissensorganisation mittels Sprechaktprinzip (2006)
0.13
0.13319427 = product of:
0.26638854 = sum of:
0.043248534 = weight(_text_:und in 886) [ClassicSimilarity], result of:
0.043248534 = score(doc=886,freq=8.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.29405463 = fieldWeight in 886, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=886)
0.22313999 = weight(_text_:handelt in 886) [ClassicSimilarity], result of:
0.22313999 = score(doc=886,freq=4.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.56166005 = fieldWeight in 886, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.046875 = fieldNorm(doc=886)
0.5 = coord(2/4)
- Abstract
- Dieser Beitrag geht auf eine der Leitfragen der WissOrg04 ein: Wie kann Wissen und verantwortliche Wissensorganisation quantifiziert und bewertet werden? Damit geht er ebenfalls der Frage nach, wie Ziele (z.B. gesellschaftliche Verantwortung) durch Wissensorganisation operationalisiert werden können. Notwendig ist ferner die Beantwortung der Frage, wie diese Ziele (z.B. mit ökonomischen Aspekten, Flexibilität, Qualität, Innovationszielen) in Einklang gebracht werden können. Da es sich hierbei um Organisationsziele handelt, erscheint es sinnvoll, die informationswissenschaftliche, begriffliche Wissensorganisation für Implikationen aus benachbarten Disziplinen zu öffnen. Dieser Beitrag liefert einen Lösungsvorschlag aus der prozessorientierten Perspektive der Wirtschaftsinformatik. Ziel ist die Strukturierung von organisationalen Wissensbasen entlang der Prozesshierarchie? Dabei ist es unerheblich, ob es sich um privatwirtschaftliche Unternehmungen, Verwaltungsorganisationen, Bibliotheken, Datenbankanbieter, Informationsvermittler, die klassischen Medien oder non profit Organisationen mit vorwiegend sozialen, ökologischen o. ä. Zielen handelt.
- Source
- Wissensorganisation und Verantwortung: Gesellschaftliche, ökonomische und technische Aspekte. Proceedings der 9. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Duisburg, 5.-7. November 2004. Hrsg. von H.P. Ohly u.a
-
Kumpe, D.: Methoden zur automatischen Indexierung von Dokumenten (2006)
0.13
0.13193001 = product of:
0.26386002 = sum of:
0.07977893 = weight(_text_:und in 1782) [ClassicSimilarity], result of:
0.07977893 = score(doc=1782,freq=20.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.5424314 = fieldWeight in 1782, product of:
4.472136 = tf(freq=20.0), with freq of:
20.0 = termFreq=20.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1782)
0.18408109 = weight(_text_:handelt in 1782) [ClassicSimilarity], result of:
0.18408109 = score(doc=1782,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.4633459 = fieldWeight in 1782, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.0546875 = fieldNorm(doc=1782)
0.5 = coord(2/4)
- Abstract
- Diese Diplomarbeit handelt von der Indexierung von unstrukturierten und natürlichsprachigen Dokumenten. Die zunehmende Informationsflut und die Zahl an veröffentlichten wissenschaftlichen Berichten und Büchern machen eine maschinelle inhaltliche Erschließung notwendig. Um die Anforderungen hierfür besser zu verstehen, werden Probleme der natürlichsprachigen schriftlichen Kommunikation untersucht. Die manuellen Techniken der Indexierung und die Dokumentationssprachen werden vorgestellt. Die Indexierung wird thematisch in den Bereich der inhaltlichen Erschließung und des Information Retrieval eingeordnet. Weiterhin werden Vor- und Nachteile von ausgesuchten Algorithmen untersucht und Softwareprodukte im Bereich des Information Retrieval auf ihre Arbeitsweise hin evaluiert. Anhand von Beispiel-Dokumenten werden die Ergebnisse einzelner Verfahren vorgestellt. Mithilfe des Projekts European Migration Network werden Probleme und grundlegende Anforderungen an die Durchführung einer inhaltlichen Erschließung identifiziert und Lösungsmöglichkeiten vorgeschlagen.
- Imprint
- Berlin : Technische Universität Berlin / Institut für Softwaretechnik und Theoretische Informatik, Computergestützte Informationssysteme
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.13
0.13024826 = product of:
0.26049653 = sum of:
0.18194818 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.18194818 = score(doc=50,freq=2.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.078548335 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.078548335 = score(doc=50,freq=38.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Zelewski, S.: Intelligente Informationsbanksysteme : benutzerfreundliche Instrumente für die Informationsvermittlung? (1987)
0.13
0.13015875 = product of:
0.2603175 = sum of:
0.04993911 = weight(_text_:und in 5151) [ClassicSimilarity], result of:
0.04993911 = score(doc=5151,freq=6.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.33954507 = fieldWeight in 5151, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=5151)
0.2103784 = weight(_text_:handelt in 5151) [ClassicSimilarity], result of:
0.2103784 = score(doc=5151,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.52953815 = fieldWeight in 5151, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.0625 = fieldNorm(doc=5151)
0.5 = coord(2/4)
- Abstract
- Vielfach wird eine 'Informationskrise' beklagt, die aus einem exponentiellen Anwachsen der quantitativen Informationsproduktion, einer qualitativen Verschlechterung des Informationsangebotes und einer nicht hinreichend erhöhten Verarbeitungskapazität bei den Informationsnachfragern hergeleitet wird. Zur Lösung dieses Informationsproblems haben sich in jüngster Zeit vor allem zwei Konzepte informationsvermittelnder Institutionen herausgeschält. Es handelt sich um die außerbetrieblichen Informationsbroker und die innerbetrieblichen Informationsvermittlungsstellen. Die instrumentelle Unterstützung dieser Institutionen wird näher untersucht. Ausgehend vom Ansatz der kooperativen Benutzerschnittstellen wird - unter besonderer Berücksichtigung von neueren Resultaten der Künstlichen Intelligenz - das Konzept der intelligenten Informationsbanksysteme entwickelt. Möglich Auswirkungen der Realisierung dieses Konzepts auf die Benutzerfreundlichkeit von Informationsbanksystemen und den Leistungsprozeß der Informationsvermittler werden thematisiert
-
Lewandowski, D.: Abfragesprachen und erweiterte Funktionen von WWW-Suchmaschinen (2004)
0.13
0.13015875 = product of:
0.2603175 = sum of:
0.04993911 = weight(_text_:und in 3314) [ClassicSimilarity], result of:
0.04993911 = score(doc=3314,freq=6.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.33954507 = fieldWeight in 3314, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3314)
0.2103784 = weight(_text_:handelt in 3314) [ClassicSimilarity], result of:
0.2103784 = score(doc=3314,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.52953815 = fieldWeight in 3314, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.0625 = fieldNorm(doc=3314)
0.5 = coord(2/4)
- Abstract
- Der Artikel stellt die erweiterten Suchmöglichkeiten in den wichtigsten Suchmaschinen vor. Dabei handelt es sich um Google, Alta Vista, Hotbot (Inktomi), Teoma und Fireball. Die Oualität von Suchmaschinen wird in der Regel durch Retrievaltests verglichen. Vordem Hintergrund professioneller Ansprüche an die Recherchefähigkeiten der Suchmaschinen müssen aber zusätzlich auch deren Abfragemöglichkeiten betrachtet werden. Nur ausgereifte Abfragesprachen erlauben komplexe Suchanfragen, wie sie im professionellen Umfeld gestellt werden.
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.2, S.97-102
-
Schaefer, K.: ddc.deutsch - 590. Tiere : Mitarbeit im Expertenpool (2005)
0.13
0.13015875 = product of:
0.2603175 = sum of:
0.04993911 = weight(_text_:und in 4574) [ClassicSimilarity], result of:
0.04993911 = score(doc=4574,freq=6.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.33954507 = fieldWeight in 4574, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=4574)
0.2103784 = weight(_text_:handelt in 4574) [ClassicSimilarity], result of:
0.2103784 = score(doc=4574,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.52953815 = fieldWeight in 4574, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.0625 = fieldNorm(doc=4574)
0.5 = coord(2/4)
- Abstract
- Bei dieser Projektarbeit handelt es sich um die fachliche Betreuung der ersten deutschen Übersetzung der DDCKlasse 590 Tiere. Diese Klasse umfasst die Zoologie (Naturgeschichte, Biologie, Ökologie, Ethologie, Tiergruppen, einzelne Arten). Nutztiere, Tierhaltung, Jagd und Veterinärmedizin werden von anderen Klassen abgedeckt. Fachbegriffe und Tiernamen (wissenschaftliche Namen, umgangssprachliche Namen) werfen bei der Übersetzung oft Probleme auf, die von Übersetzern allein nicht gelöst werden können. Hauptaufgabe war es, für diese Probleme fachlich fundierte Lösungen vorzulegen. Die Hintergründe der Probleme werden hier näher dargestellt und anhand einiger Beispiele verdeutlicht.
-
Wirtz, H.-C.: Schnelle Schnittstelle zum Kunden : EZProxy für den authentifizierten Fernzugriff / Stadt- und Landesbibliothek Dortmund macht gute Erfahrungen (2010)
0.13
0.13015875 = product of:
0.2603175 = sum of:
0.04993911 = weight(_text_:und in 338) [ClassicSimilarity], result of:
0.04993911 = score(doc=338,freq=6.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.33954507 = fieldWeight in 338, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=338)
0.2103784 = weight(_text_:handelt in 338) [ClassicSimilarity], result of:
0.2103784 = score(doc=338,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.52953815 = fieldWeight in 338, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.0625 = fieldNorm(doc=338)
0.5 = coord(2/4)
- Abstract
- EZProxy ermöglicht Benutzern den externen Zugriff auf von Bibliotheken angebotene Web-Inhalte. Es handelt sich dabei um eine Software, die Bibliotheksbenutzer anhand lokaler Authentifizierungssysteme erkennt und ihnen unter Berücksichtigung des Benutzerprofils den externen Zugriff auf lizenzierte Inhalte ermöglicht. Mehr als 2 500 Institutionen in über 60 Ländern arbeiten bereits mit EZProxy - unter anderem die Stadt- und Landesbibliothek Dortmund. Die guten Erfahrungen dort fasst im Folgenden Hans-Christian Wirtz zusammen.
-
Pianos, T.: Was macht vascoda? : Vision und Wirklichkeit (2005)
0.13
0.12988302 = product of:
0.25976604 = sum of:
0.07568494 = weight(_text_:und in 4851) [ClassicSimilarity], result of:
0.07568494 = score(doc=4851,freq=18.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.5145956 = fieldWeight in 4851, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=4851)
0.18408109 = weight(_text_:handelt in 4851) [ClassicSimilarity], result of:
0.18408109 = score(doc=4851,freq=2.0), product of:
0.39728656 = queryWeight, product of:
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.066313446 = queryNorm
0.4633459 = fieldWeight in 4851, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.9910407 = idf(docFreq=301, maxDocs=44421)
0.0546875 = fieldNorm(doc=4851)
0.5 = coord(2/4)
- Abstract
- Vascoda (www.vascoda.de), das Internetportal für wissenschaftliche Information, bietet einen interdisziplinären Zugriff auf hochwertige Ressourcen unterschiedlicher Publikationsformen und eine komfortable Navigation zu zahlreichen hochwertigen Fachportalen. Die Einzelportale und vascoda werden mit der finanziellen Unterstützung des Bundesministeriums für Bildung und Forschung (BMBF) und der Deutschen Forschungsgemeinschaft (DFG) aufgebaut. Organisatorisch handelt es sich um einen einmaligen Zusammenschluss unterschiedlicher Informationsanbieter (Bibliotheken und Informationszentren). Dieser Artikel gibt eine Übersicht über den Hintergrund, das derzeitige Angebot und die Perspektiven von vascoda. Dabei werden die Serviceleistungen des Portals und der einzelnen Fachportale sowie Entwicklungen von Diensten beschrieben. Daneben versucht dieser Beitrag auch eine Definition der mit vascoda verbundenen Vision zu liefern.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 52(2005) H.2, S.67-78
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.13
0.12789607 = product of:
0.25579214 = sum of:
0.2183378 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.2183378 = score(doc=1181,freq=2.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.037454337 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.037454337 = score(doc=1181,freq=6.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.13
0.12789498 = product of:
0.25578997 = sum of:
0.20585085 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.20585085 = score(doc=1761,freq=4.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.04993911 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.04993911 = score(doc=1761,freq=24.0), product of:
0.14707653 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.066313446 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997)
0.13
0.12736371 = product of:
0.50945485 = sum of:
0.50945485 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
0.50945485 = score(doc=5463,freq=8.0), product of:
0.4673445 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.066313446 = queryNorm
1.0901057 = fieldWeight in 5463, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=5463)
0.25 = coord(1/4)
- Abstract
- A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
- Object
- JAVA