-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.10
0.10098856 = product of:
0.20197712 = sum of:
0.16858388 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.16858388 = score(doc=729,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.38932347 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.033393238 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.033393238 = score(doc=729,freq=8.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
-
Schuster, A.: Wissensbilanzen : ein strategisches Managementinstrument - auch für Bibliotheken (2009)
0.10
0.09976196 = product of:
0.19952393 = sum of:
0.050089855 = weight(_text_:und in 1220) [ClassicSimilarity], result of:
0.050089855 = score(doc=1220,freq=50.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.3675683 = fieldWeight in 1220, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1220)
0.14943407 = weight(_text_:hiermit in 1220) [ClassicSimilarity], result of:
0.14943407 = score(doc=1220,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.28392458 = fieldWeight in 1220, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.0234375 = fieldNorm(doc=1220)
0.5 = coord(2/4)
- Abstract
- Nicht alles, was zählt, kann gezählt werden, und nicht alles, was gezählt werden kann, zählt. Mit dieser Einsteinschen Erkenntnis beginnt Alexander Schuster seine umfassende Studie zum Thema Wissensbilanzierung, also der Methode, Potenzial und Effizienz von Mitarbeiterinnen und Mitarbeitern eines Unternehmens oder einer Organisation zu beziffern, um im Bewusstsein dieser fundamentalen Ressource strategisches Planen und Handeln zu ermöglichen. Der Autor erliegt nicht der Gefahr, ein neues Managementinstrument enthusiastisch als Garanten für wirtschaftliche Rentabilität zu bewerben. Ziel der ausgezeichneten Studie ist vielmehr, Wissensbilanzierung als eine der bedeutendsten Aufgaben des Qualitätsmanagements zu definieren. Dabei werden Chancen und Risiken der komplexen und hochdifferenzierten Bilanzierungsprozesse analysiert. Ein standardisiertes Modell zur Darstellung und Bewertung, Steuerung und Entwicklung des so genannten intellektuellen Kapitals kann es nicht geben. Die Studie zeichnet sich vielmehr durch ihre reflektierte, konstruktive Abwägung der Machbarkeit, Wissen pekuniär zu bewerten, aus. Der Autor stellt überzeugende Praxisbeispiele vor und entwirft auf dieser Grundlage einen umfassenden Prototypen, der bei der Realisierung von Wissensbilanzen in der Praxis modifiziert werden kann. Er setzt dabei auch einen hervorragenden Standard für die Anwendung der Wissensbilanz in Bibliotheken.
- Footnote
- Rez. in: IWP 60(1009) H.8, S.460 (A. Flicker): "Alexander Schuster, Jahrgang 1979, schloss an sein Diplom im Fach Informations- und Wissensmanagement das Masterstudium Information Science and Engineering in der Studienrichtung Library Science (Hochschule Darmstadt) an. Seine Fächerkombination spiegelt sich im Thema seines Buches wider: Er untersucht die Möglichkeiten, ein Instrument aus dem Wissensmanagement in Bibliotheken einzusetzen. Dabei geht es nicht "nur" um eine Wissensmanagement-Methode, die im operativen Alltagsgeschäft von Bibliotheken angewendet werden soll. Der Autor analysiert vielmehr das komplexe Thema Wissensbilanzierung als strategisches Managementinstrument im Gesamten. Der Leser wird über die Darstellung theoretischer Grundlagen und Terminologie-Definitionen an das Thema herangeführt. Relevante Quellen wurden sorgfältig ausgewertet und unterschiedliche Darstellungen einander gegenübergestellt. Man erfährt, wie die Begriffe Wissen, Intellektuelles Kapital und strategisches Management in der Forschungsliteratur erläutert werden. Zum Begriff Wissensbilanz beschreibt Schuster darüber hinaus die historischen, internationalen Entwicklungsstränge dieses Instruments. Außerdem liefert er Vergleiche mit und Abgrenzungen zu anderen Management-Instrumenten (Wissensmanagement, Qualitätsmanagement und Balanced Scorecard). Komplettiert wird das Kapitel Wissensbilanz durch die Untersuchung unterschiedlicher Ansätze bzw. Modelle, denen der Autor jeweils eine knappe eigene Bewertung angefügt hat.
Damit sind die relevanten Aspekte untersucht, analysiert und komprimiert dargestellt: ein guter theoretischer Unterbau, bevor es dann in die Praxis geht. Die "Praxis" findet sich im nächsten Kapitel in Form einer vergleichenden Analyse real existierender Wissensbilanzen. Die Wissensbilanz jeweils einer Organisation aus den Bereichen Wirtschaft (reinisch AG), Forschung (Austrian Research Centers Seibersdorf) und Bildung (FH Joanneum, Graz) wird vom Autor detailliert beschrieben. Eigene Bewertungen lässt Schuster einfließen, bevor er das Kapitel mit dem Vergleich des Aufbaus der Wissensbilanzen und der Darstellung des Intellektuellen Kapitals abschließt. Rückschlüsse aus dieser Analyse nimmt er mit ins Folgekapitel. Besonders interessant wird es nun im folgenden Kapitel: Schuster entwirft das konkrete Modell einer Wissensbilanz für Bibliotheken. Da eine solche noch nicht existiert, entwickelt er am Beispiel der Fachhochschule Frankfurt am Main und in Anlehnung an das Modell Wissensbilanz - Made in Germany einen Prototyp. Unterstützt wurde er dabei von der dortigen Bibliotheksleitung. Dazu gehört zunächst - und das ist nicht nur methodisch, sondern auch inhaltlich besonders aufschlussreich - die Frage, wie Geschäftserfolg definiert werden kann. Dieses Kapitel wird zu einer Situationsanalyse für Bibliotheken in der heutigen Zeit. Es folgt, dem Wissensbilanz-Modell entsprechend, die Beschreibung von Prozessen und Zielen. Der anschließenden Definition des Intellektuellen Kapitals einer Bibliothek widmet Schuster viel Raum: Er benennt und erläutert zunächst Erfolgsfaktoren des Human-, Struktur- und Beziehungskapitals. Zu jedem Erfolgsfaktor gibt er mehrere Indikatoren an, mit deren Hilfe der Faktor "bewertet" werden kann. Für Bibliotheken, die die Einführung einer Wissensbilanz planen, ist hiermit eine Menge Vorarbeit geleistet, auf die sie in der Praxis zurückgreifen können. Schusters Abschlusskapitel basiert wieder auf einer Auswertung der von ihm analysierten Bilanzen des Intellektuellen Kapitals und bleibt dabei nah an der Praxis: Aus den dokumentierten Erfahrungen leitet der Autor Empfehlungen zur Implementierung von Wissensbilanzen ab. Und zeigt mit dieser Nutzung von "Lessons Learned" einmal mehr, wie wertvoll die Anwendung von Wissensmanagement für das Bibliothekswesen sein kann."
-
Informationsmittel für Bibliotheken : Laufend kumulierendes Register (1998)
0.10
0.09962272 = product of:
0.39849088 = sum of:
0.39849088 = weight(_text_:hiermit in 2027) [ClassicSimilarity], result of:
0.39849088 = score(doc=2027,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.75713223 = fieldWeight in 2027, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.0625 = fieldNorm(doc=2027)
0.25 = coord(1/4)
- Abstract
- Das laufend kumulierende Register zu 'Informationsmittel für Bibliotheken', dessen vierte Ausgabe für die Berichtszeit 1/5.1993/97 hiermit vorgelegt wird, ersetzt als Generalregister der ersten 5 Jahrgänge von IfB alle vorhergehende Register. Enthält 2.438 Einträge. Ab Jg.6 wird eine neue laufend kumulierende Folge einsetzen
-
Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996)
0.10
0.09946322 = product of:
0.19892643 = sum of:
0.1348671 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
0.1348671 = score(doc=2567,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.31145877 = fieldWeight in 2567, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.06405933 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
0.06405933 = score(doc=2567,freq=46.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.47007886 = fieldWeight in 2567, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2567)
0.5 = coord(2/4)
- Abstract
- Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
- Classification
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
- RVK
- ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
-
Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998)
0.10
0.098751634 = product of:
0.19750327 = sum of:
0.16858388 = weight(_text_:java in 617) [ClassicSimilarity], result of:
0.16858388 = score(doc=617,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.38932347 = fieldWeight in 617, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.028919391 = weight(_text_:und in 617) [ClassicSimilarity], result of:
0.028919391 = score(doc=617,freq=6.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.21221566 = fieldWeight in 617, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=617)
0.5 = coord(2/4)
- Abstract
- Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
-
Ovid announces strategic partnerships : Java-based interface (1997)
0.10
0.09536544 = product of:
0.38146177 = sum of:
0.38146177 = weight(_text_:java in 397) [ClassicSimilarity], result of:
0.38146177 = score(doc=397,freq=4.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.8809384 = fieldWeight in 397, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=397)
0.25 = coord(1/4)
- Abstract
- Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
-
Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996)
0.09
0.09242276 = product of:
0.18484552 = sum of:
0.1348671 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
0.1348671 = score(doc=2121,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.31145877 = fieldWeight in 2121, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.049978416 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
0.049978416 = score(doc=2121,freq=28.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.36675057 = fieldWeight in 2121, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.5 = coord(2/4)
- Content
- Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.09
0.09242276 = product of:
0.18484552 = sum of:
0.1348671 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.1348671 = score(doc=346,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.049978416 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.049978416 = score(doc=346,freq=28.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Wortsuche im Millisekunden-Takt (2002)
0.09
0.09132996 = product of:
0.18265992 = sum of:
0.033225853 = weight(_text_:und in 999) [ClassicSimilarity], result of:
0.033225853 = score(doc=999,freq=22.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.24381724 = fieldWeight in 999, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=999)
0.14943407 = weight(_text_:hiermit in 999) [ClassicSimilarity], result of:
0.14943407 = score(doc=999,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.28392458 = fieldWeight in 999, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.0234375 = fieldNorm(doc=999)
0.5 = coord(2/4)
- Content
- "Unsere Fähigkeit zu Sprechen beruht auf einem mehrstufigen Hochgeschwindigkeitsprozeß im Gehirn, belegen niederländische Max-Planck-Wissenschaftler Sprachproduktion ist das Ergebnis zweier sehr schnell ablaufender Vorgänge im Gehirn, dem Abruf geeigneter Einträge aus einem "mentalen Lexikon" sowie der Vorbereitung dieser "Einträge" für das eigentliche Sprechen, berichten Wissenschaftler vom Max-Planck-Institut für Psycholinguistik in Nijmegen/Niederlande. Jeder Mensch lernt Sprechen und das bedeutet vor allem: Wörter zu produzieren. Wächst er in der westlichen Kultur auf, hat er als Erwachsener bereits bis zu 50 Millionen Wörter gesprochen. Es gibt kaum eine andere Tätigkeit, die wir so oft praktizieren. Bei einer Unterhaltung liegt die durchschnittliche Sprechgeschwindigkeit bei zwei bis vier Wörtern pro Sekunde. Die Wörter dazu werden fortlaufend aus unserem "mentalen Lexikon" abgerufen, das mehrere zehntausend "Einträge" enthält. Bei diesem Vorgang machen wir erstaunlich wenig Fehler (und sagen z.B. "links" statt "rechts"). Durchschnittlich passiert uns das nicht mehr als einmal pro Tausend Wörter. Doch wie ist dieser so robuste und schnelle Sprachmechanismus organisiert? Wissenschaftler erklären die prachproduktion als ein System zweier aufeinanderfolgender Verarbeitungsschritte (s. Abb.). Im ersten Schritt erfolgt die Wortauswahl: Erhält das Gehirn einen bestimmten inhaltlichen Reiz, z.B. von den visuellen Zentren, wählt es einen dazu passenden lexikalischen Eintrag aus dem mentalen Lexikon. Der zweiten Schritt behandelt die Formenkodierung und berechnet die artikulatorischen Gesten, die für die Aussprache des Zielwortes benötigt werden. Es ist der Forschergruppe um Prof. Willem Levelt, Dr. Antje Meyer und Dr. Ardi Roelofs in langjähriger Teamarbeit gelungen, das Modell experimentell zu bestätigen; Dr. Roelofs konnte diese Theorie in einem umfassenden Computerprogramm mit dem Namen "WEAVER++" umsetzen. Ein wichtiges experimentelles Verfahren zur Erforschung des lexikalischen Zugriffs im Gehirn ist das Benennen von Bildern. Auf dem Monitor erscheint ein Bild, z.B. ein Pferd, das die Versuchsperson so schnell wie möglich benennen soll. Hierbei wird die Reaktionszeit, d.h. die Zeit zwischen dem Erscheinen des Bildes und dem Beginn des Sprechens exakt gemessen. Diese liegt normalerweise bei 600 Millisekunden (ms). Für die Auswahl und Aussprache eines Wortes brauchen wir also weniger als zwei Drittel einer Sekunde. Die Wortauswahl selbst erfolgt in zwei Teilstufen: Zuerst wird das Bild erkannt und ein Zielkonzept für die Benennungsaufgabe selektiert. Die Tests können so gesteuert werden, dass die Versuchspersonen entweder "Pferd", "Tier" oder "Hengst" auswählen, um das Bild zu benennen. In der zweiten Stufe, der so genannten "Lemma-Selektion", wird der hiermit übereinstimmende Eintrag gewählt, also z.B. nur "Pferd". Diesen Eintrag nennt man "Lemma", was soviel bedeutet wie "syntaktisches Wort", d.h. es enthält alle syntaktischen Eigenschaften wie Wortklasse (Substantiv, Verb usw.) und syntaktische Merkmale (wie Geschlecht bei Substantiven, transitive Beschaffenheit bei Verben). Diese Wortauswahl erfolgt in Konkurrenz zu anderen Wörtern. Die Max-Planck-Wissenschaftler konnten messen, daß semantisch verwandte Wörter, wie "Tier" oder "Hengst", bei diesem Schritt ebenfalls aktiviert werden.
Mit Hilfe der quantitativen Computertheorie wird die Reaktionszeit für eine Wortauswahl unter Konkurrenz vorausgesagt. Überprüft werden diese Voraussagen in spezifischen Bildbenennungsexperimenten: Dabei werden den Versuchspersonen beim Bildbenennen - visuell oder akustisch - andere Wörter präsentiert. Diesen Ablenkungsreiz müssen sie ignorieren. Ist beispielsweise "Pferd" das Zielwort, reagiert die Versuchsperson beim Hören des damit nicht verwandten Wortes "Stuhl" etwas langsamer. Hört die Versuchsperson jedoch das semantisch verwandte Wort "Kuh", wird eine viel stärkere Verzögerung gemessen, zusätzlich etwa 50 bis 100 Millisekunden (je nach Rahmenbedingungen). Diesen "semantischen Verzögerungseffekt" fanden die Max-Planck-Wissenschaftler in einer Vielzahl von Experimenten bestätigt. Der Zeitverlauf der Lemma-Selektion wurde außerdem gemeinsam mit Wissenschaftlern am Max-Planck-Institut für neuropsychologische Forschung in Leipzig mit Hilfe der Magnetenzephalographie (MEG) gemessen und bestätigt. Hierbei fanden die Max-Planck-Forscher außerdem heraus, dass bei der emma-Auswahl Regionen im linken lateralen temporalen Lobus aktiv sind. Nach der Lemma-Selektion erfolgt der zweite Schritt, die Wortformplanung oder Wortformen-Kodierung. Dazu muss zuerst der phonologische Code abgerufen werden, d.h. eine Reihe phonologischer "Segmente" oder "Phoneme", z.B. " p, f, e, r, d". Bei geläufigen Wörtern wird der phonologische Code schneller (bis zu 40 Millisekunden ) abgerufen als bei selten benutzten Wörtern. Bei der Bildbenennung kann der Zugriff dadurch erleichtert werden, dass der Versuchsperson zeitgleich phonologisch verwandte Wörter präsentiert werden. Versuchspersonen nennen "Pferd" schneller, wenn sie während der Bildanbietung das phonologisch verwandte Wort "Pfeil" hören, als das phonologisch unterschiedliche Wort "Stuhl". Auch den Zeitverlauf dieser phonologischen Suche konnten die Wissenschaftler mit dem Computermodell "WEAVER++" exakt voraussagen. Ist das Abrufen des Codes aus dem mentalen Lexikon abgeschlossen, erfolgt die Silbenbildung. Diese wird Phonem für Phonem zusammengestellt, aus "p, f, e, r, d" zum Beispiel wird /pfert/. Wird das Zielwort jedoch im Plural benötigt (z.B. wenn zwei ferde auf dem Bild zu sehen sind), werden nacheinander zwei Silben - /pfer/--/de/ - gebildet. Anders gesagt, ob die Silbe "/pfert/" oder "/pfer/" gebildet wird, ist situationsbedingt. Das schrittweise Zusammenstellen der Silben dauert etwa 25 Millisekunden pro Phonem. Sind mehrsilbige Wörter zu bilden, verändert sich die Reaktionszeit: Testpersonen brauchten beim Benennen für mehrsilbige Wörter länger als für einsilbige. Die letzte Stufe der Wortformen-Kodierung ist das phonetische Kodieren, das Abrufen eines artikulatorisch-motorischen Programms für jede neugebildete Silbe. Die Max-Planck-Wissenschaftler nehmen an, daß dazu ein mentaler Silbenvorrat existiert, ein "Lager" an Gesten oder motorischen Programmen für häufig benutzte Silben. Die Vermutung liegt nahe, daß beim Speichern häufig gebrauchter Silben der prämotorische Cortex/die Broca Area beteiligt ist. Die faktische Ausführung der aufeinanderfolgenden Silbenprogramme vom laryngealen und supralaryngealen Artikulationssytem generiert letztendlich das gesprochene Wort."
-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.09
0.090569064 = product of:
0.18113813 = sum of:
0.1348671 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.1348671 = score(doc=6889,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.046271026 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.046271026 = score(doc=6889,freq=24.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.09
0.090569064 = product of:
0.18113813 = sum of:
0.1348671 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.1348671 = score(doc=1642,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.046271026 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.046271026 = score(doc=1642,freq=24.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
Puschwadt, O.: Auf Platz eins gegoogelt : Erfolgsgeschichte - Von der Garagenfirma zum Marktführer (2005)
0.09
0.089743994 = product of:
0.17948799 = sum of:
0.03005391 = weight(_text_:und in 177) [ClassicSimilarity], result of:
0.03005391 = score(doc=177,freq=18.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.22054097 = fieldWeight in 177, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=177)
0.14943407 = weight(_text_:hiermit in 177) [ClassicSimilarity], result of:
0.14943407 = score(doc=177,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.28392458 = fieldWeight in 177, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.0234375 = fieldNorm(doc=177)
0.5 = coord(2/4)
- Content
- "Thomas Schick ist begeisterter Internetsurfer. Er nutzt das World Wide Web mehrmals täglich - sowohl beruflich als auch privat. Ich hole mir die Informationen, die ich brauche, fast nur noch aus dem Netz", so der 30-jährige Düsseldorfer. Seine Haupt-Recherchequelle ist dabei die Suchmaschine Google. "Dort finde ich einfach alles", lautet sein kurzes Statement. Wie Schick greift der Großteil der Internetnutzer weltweit auf die mittlerweile beliebteste und meist genutzte Suchmaschine zu. 200 Millionen Abrufe täglich wurden im Jähr 2004 unter www.google.com und den mehr als 85 internationalen Ablegern registriert. Sie rangiert damit weit vor den Suchmaschinen von Yahoo oder Microsoft. Angeblich sollen mehr als 70 Prozent aller Anfragen im Internet über Google laufen. Am 7. September 1998 ging die von den beiden Studenten Larry Page und Sergey Brin entwickelte Suchmaschine als Nachfolger ihrer Suchsoftware Pagerank ins Netz. Mittlerweile gehört ihre einstige Garagen-Firma mit über 3000 Mitarbeitern zu den bekanntesten Marken weltweit und ist seit August 2004 sogar an der Börse notiert. Laut "Financial Times" gehört Google - gemessen am Börsenwert - inzwischen zu den hundert größten Unternehmen weltweit. Der Name Google leitet sich von dem mathematischen Begriff Googol ab, der für eine 1 gefolgt von 100 Nullen steht - also ein riesiger Wert. Hiermit soll auf die immense Zahl von Webseiten, auf die Google zugreift, bereits im Namen hingewiesen werden. In Wirklichkeit greift Google allerdings nach Angaben des Computerverlages heise.de "nur" auf etwas mehr als acht Milliarden Seiten zu. Bei geschätzten 500 Milliarden Webseiten Weltweit macht sich diese Zahl dann doch recht klein aus. Dennoch umfasst die Google-Suche weit mehr als die anderer Suchmaschinen: Doch nicht nur eine allgemeine Text-Suche ist bei Google möglich. Es gibt auch Funktionen, die nach Bildern suchen oder auf Wörterbücher, Fahrpläne der Bahn, Stadtpläne und Aktienkurse zugreifen. Auch die Shopping-Suchmaschine Froogle oder der Freemail-Dienst Gmail gehören mittlerweile zum Angebot. Die Omnipräsenz von Google in Deutschland lässt sich allein schon daran ablesen, dass der Begriff "googeln" sogar Einzug in den guten alten Duden gefunden hat. Dort findet man den Eintrag seit der 23. Auflage (2004). "Googeln" bedeutet laut Duden im Allgemeinen etwas im Internet suchen und im Besonderen die Suche in der Suchmaschine Google. Die Marke Google ist also zu einem Synonym für Internetrecherche schlechthin geworden. Dem minimalistischen Design der Startseite ist Google bis heute treu geblieben. An bestimmten Tagen oder zu Ereignissen - so zum Beispiel an Weihnachten oder zu den Olympischen Spielen - wird das Logo allerdings zum Thema des Tages passend verändert. Diese so genannten Google Doodles ersetzen dann das normale Logo. Sie werden alle von dem Koreaner Dennis Hwang entworfen.
Das Erfolgsrezept von Google ist die ursprüngliche Suchsoftware Pagerank. Sie sucht mit atemberaubender Geschwindigkeit nicht nur nach Schlagworten, sondern auch nach Empfehlungen anderer Web-Seiten; ihrer Relevanz sowie ihrer Abfrage und listet sie danach auf. Jeder Link von außen, der auf eine Webseite verweist, wird als Votum für diese angerechnet. Je höher die Relevanz der verweisenden Webseite ist, desto mehr Gewicht hat ihre "Stimme". Dies hat allerdings auch zu viel Kritik geführt. Insbesondere deshalb, weil es möglich sein soll, die Ergebnisse einer Suche zu manipulieren. Das Werbeprogramm AdWords, bei dem Werbetreibende Kontext bezogen - also abhängig vom Suchbegriff - Anzeigen schälten, die am rechten Rand der Suchergebnisse auftauchen, sei von außen steuerbar, so Werbekunden. Ferner sollen auch bei den eigentlichen Suchergebnissen nicht immer die wirklich relevantesten an vorderster Stelle stehen, so die Kritiker. Laut Google wird die Technik ständig so verbessert, dass derartige Manipulationen kaum noch vorkommen können. Auch beim Jugendschutz muss sich bei Google noch einiges tun. Eine Internet-Recherche von Professor Marcel Machill von der Universität Leipzig ergab, dass die Eingabe des Begriffes "Teenies" den User zunächst auf pornographische Seiten führt. Doch laut Google will man auch dieses Problem schnellstmöglich beheben. Für Internet-User Thomas Schick ist die Kritik an Google allerdings nicht relevant. "Selbst wenn es so sein sollte, dass einige Ergebnisse weniger interessant für mich sind oder auf kommerzielle Webseiten führen - bei Google habe ich noch immer die größte Trefferquote, wenn ich im Netz recherchiere." Übrigens waren im Jahr 2004 die meist gesuchten Begriffe bei Google Routenplaner, Wetter und Telefonbuch."
- Footnote
- Mit einem Foto von Larry Page (links) und Sergey Brin
-
Fugmann, R.: ¬Das Buchregister : Methodische Grundlagen und praktische Anwendung (2006)
0.09
0.08833179 = product of:
0.17666358 = sum of:
0.05213517 = weight(_text_:und in 1665) [ClassicSimilarity], result of:
0.05213517 = score(doc=1665,freq=78.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.3825772 = fieldWeight in 1665, product of:
8.83176 = tf(freq=78.0), with freq of:
78.0 = termFreq=78.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=1665)
0.12452841 = weight(_text_:hiermit in 1665) [ClassicSimilarity], result of:
0.12452841 = score(doc=1665,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.23660383 = fieldWeight in 1665, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.01953125 = fieldNorm(doc=1665)
0.5 = coord(2/4)
- Abstract
- 1. Im täglichen Leben oder im Beruf steht man oftmals vor der Aufgabe, nach Wissen zu suchen, das man in einem Buch gefunden hat oder das man darin vermutet. Dann ist es für den Suchenden lästig oder sogar unzumutbar, wenn er bei dieser Suche auf planloses Blättern angewiesen ist, bis er fündig geworden ist oder bis er schließlich zu dem Schluss gelangt, dass das Gesuchte im Buch wohl nicht enthalten ist, dies vielleicht nur irrtümlich, weil er wegen Zeitmangels vorzeitig aufgeben musste. 2. Jedes Buch, in welchem wiederverwertbares Wissen niedergelegt ist und welches nicht ausschließlich der Unterhaltung dient, sollte deswegen ein Register haben. Inhaltsverzeichnisse allein können wegen ihres allzu allgemeinen Charakters keinen ausreichend gut gezielten Zugang zum Wissen des Buches vermitteln. Als Suchender würde man allzu viel Zeit brauchen, um das momentan Interessierende darin aufzufinden. 3. Buchregister werden schon seit Jahrhunderten in unterschiedlichen Varianten angefertigt, in Abhängigkeit von der Eigenart der betreffenden Bücher, von der Verfügbarkeit von Platz und Zeit, und damit auch in Abhängigkeit von dem für das Register verfügbare Geld, abhängig aber auch von Erfahrung und Sachkundigkeit der Indexer und von den verfügbaren technischen Hilfsmitteln. 4. Ein gutes Register macht das im Buch enthaltene Wissen leicht und lückenlos wiederauffindbar und wiederverwertbar. So erlangt ein Buch erst dann seinen vollen Wert, wenn es für das gezielte (Wieder-) Auffinden von darin enthaltenem Wissen in der Weise inhaltlich erschlossen ist, dass man einen gesicherten Zugriff auf das Gesuchte hat. Dies gilt besonders für Lehr- und Anleitungsbücher. Dies ist eine Erfahrung, die schon fast so alt ist wie der Buchdruck selbst (Wellisch 1986, 1994A). 5. Mehr Bücher als jemals zuvor werden heutzutage produziert, aller Konkurrenz durch die elektronischen Medien zum Trotz. An der Notwendigkeit, das Wissen in diesen Büchern zu nutzen, hat sich nichts geändert und auch nichts an der Notwendigkeit, den Inhalt dieser Bücher leicht wiederauffindbar zu machen. Man möchte möglichst vollständig zu denjenigen Stellen im Buch hingeleitet werden, wo der Gegenstand des momentanen Interesses abgehandelt ist, und man möchte hierbei möglichst wenigem Ballast an Hinweisen auf thematisch nichteinschlägige Passagen ausgesetzt sein, denn dem Menschen steht immer nur ein sehr beschränktes Maß an Zeit und Aufmerksamkeit zum Suchen zur Verfügung. Dies sind kostbare Ressourcen, mit denen sorgsam umgegangen werden muss. Es gilt das 4. Gesetz der Bibliothekswissenschaft (Ranganathan 1967): "Save the time of the reader".
6. In diesem Buch wird in den Kapiteln 2 bis 5 ein Grundkursus zur Theorie der Inhaltserschließung angeboten, wobei die Möglichkeiten und Grenzen von natursprachiger und indexsprachiger Ausdrucksweise geklärt werden, sowie auch der Unterschied zwischen Ausdruck und Begriff, zwischen den Recherchetypen von Erinnerung und Entdeckung, zwischen den Indexierungstypen von Zuteilung und Extraktion und auch der Unterschied zwischen Register und Konkordanz. Auf einer solchen Grundlage kann der Indexer besser den Nutzen der einzelnen Indexierungswerkzeuge abschätzen, sowie auch die nachteiligen Folgen, welche durch den Verzicht auf das eine oder das andere dieser Werkzeuge zwangsläufig eintreten. In der Literatur ist zwar der Standpunkt anzutreffen, dass "allzu viel Theorie" zu vermeiden sei, weil sie doch so "grau" sei. Aber wir schließen uns lieber dem Standpunkt des Physikers Ludwig Boltzmann an: "Nichts ist praktischer als Theorie", wenn eine solche Theorie das Beobachtbare erklären und das Zukünftige voraussagen kann. 7. Im Kapitel 7 werden die Bestandteile des Schlagwort-Registers in Gestalt von Schlagwort und Fundstelle, Untereintrag und Verweisung abgehandelt und das Zusammenfügen dieser Komponenten zum Register der herkömmlichen indikativen Art. Dieser Registertyp ist gekennzeichnet durch seine Beschränkungen bezüglich der Inanspruchnahme von Platz für den Druck und durch seine Beschränkungen bezüglich des Aufwandes an Zeit und Geld zu seiner Erstellung. Es werden die hiermit zwangläufig verbundenen Mängel dargelegt. 8. Im Kapitel 8 wird die Überwindung dieser Mängel durch die Einführung von reichlichen und ausführlichen Untereinträgen gezeigt. Das Register nimmt hierdurch einen ausgesprochen informativen Charakter an. Zugleich werden auf diesem Weg auch Wesen und Nutzen eines systematischen Registers dargelegt, welches zusätzlich zum herkömmlichen alphabetischen Register vorgelegt wird. 9. Die Möglichkeit zu alledem eröffnet sich dadurch, dass eine hochentwickelte Software eingesetzt wird und dass ein außergewöhnlicher Arbeitsaufwand aufseiten des Indexers nicht gescheut wird, verbunden mit entsprechend hohen Kosten. Dieser Aufwand ist erforderlich für die Formulierung von zahlreichen und ausführlichen Untereinträgen, zum Aufbau eines systematischen, thesaurusgestützten Schlagwort-Vokabulars und für eine besonders sorgfältige Indexierung. 10. Dieses Modell eines kompletten informativen Registers ist als eine Art Werkzeugkasten zu verstehen, aus welchem man diejenigen gedanklichen und technischen Werkzeuge auswählen und miteinander kombinieren kann, welche der jeweils herrschenden Bedarfslage am besten angemessen sind. Man wird von diesen Werkzeugen besonders dann ausgiebig Gebrauch machen, wenn hohe Anforderungen an die Treffsicherheit und Leichtigkeit der Recherche gestellt werden, Anforderungen, welche mit einem Register der herkömmlichen indikativen Art nicht erfüllbar sind. Der hohe Aufwand für ein gutes Register ist natürlich nur dann gerechtfertigt, wenn aufseiten der Leser auch wirklich Bedarf zum Nachschlagen besteht. Man wird kein Register für ein Buch anlegen, welches nur zur Unterhaltung und Erbauung gelesen und dann für alle Zeiten beiseite gelegt wird.
- Footnote
- Rez. in: Information - Wissenschaft und Praxis 58(2007) H.3, S.186 (J. Bertram): "Bei aller Kritik: Das Buch gemahnt eindrücklich daran, dass ein gutes Register sowohl den Anforderungen einer Entdeckungsrecherche als auch denen einer Erinnerungsrecherche dienlich sein sollte, um es mit Fugmanns Worten auszudrücken. Heißt: Es soll nicht nur denen zugute kommen, die das Buch gelesen haben, sondern eben gerade auch denjenigen, die es nicht gelesen haben. Nicht nur erinnerte Wortlaute sollen mit ihm wieder auffindbar sein, vielmehr soll das Register auch schnelle Antworten auf die Frage ermöglichen, ob ein Buch zum interessierenden Thema Ergiebiges enthält. Und dass für das zweite Anliegen ein Aufwand zu betreiben ist, der über ein reines Stichwortregister hinausgeht, wird von Fugmann anschaulich und überzeugend dargestellt. Auch seinem Wunsch, dass bei der Rezension vor Büchern Vorhandensein und Qualität des Registers (stärkere) Berücksichtigung finden mögen, ist uneingeschränkt zuzustimmen. Dass das vor ihm produzierte Register des Guten zu viel tut, steht auf einem anderen Blatt."
-
Tsai, B.-s.: Infomapping in information retrieval (1997)
0.09
0.087598756 = product of:
0.35039502 = sum of:
0.35039502 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
0.35039502 = score(doc=3877,freq=6.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.8091937 = fieldWeight in 3877, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3877)
0.25 = coord(1/4)
- Abstract
- Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
-
Internet: The editor's choice (2002)
0.08
0.08429194 = product of:
0.33716777 = sum of:
0.33716777 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.33716777 = score(doc=1854,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Sperber, K. (Red.); Riegger, D. (Red.): Wider den Obrigkeitsstaat : Der Entwurf für ein Informationsfreiheitsgesetz möchte den Bürgern mehr Transparenz in Bundesbehörden und Ministerialbürokratie garantieren (2004)
0.08
0.083953746 = product of:
0.16790749 = sum of:
0.043379087 = weight(_text_:und in 3172) [ClassicSimilarity], result of:
0.043379087 = score(doc=3172,freq=54.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.3183235 = fieldWeight in 3172, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.01953125 = fieldNorm(doc=3172)
0.12452841 = weight(_text_:hiermit in 3172) [ClassicSimilarity], result of:
0.12452841 = score(doc=3172,freq=2.0), product of:
0.5263161 = queryWeight, product of:
8.565973 = idf(docFreq=22, maxDocs=44421)
0.06144265 = queryNorm
0.23660383 = fieldWeight in 3172, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
8.565973 = idf(docFreq=22, maxDocs=44421)
0.01953125 = fieldNorm(doc=3172)
0.5 = coord(2/4)
- Abstract
- In der Regel gilt noch fast überall der Grundsatz, dass Informationen der Verwaltung nur im Ausnahmefall an Bürger weitergegeben werden. Die rot-grüne Regierung hatte in ihren Koalitionsverträgen versprochen, das zu ändern. Bislang hat sie nichts erreicht. Nun gibt es einen Vorschlag-von Bürger- und Berufsverbänden.
- Content
- "Unter "Informationsfreiheit" versteht man das Prinzip, dass die Unterlagen und Daten öffentlicher Stellen im Regelfall für jeden Bürger zugänglich sind. Deutschland ist neben Luxemburg das letzte Land in der Europäischen Union, das diese Offenheit nicht praktiziert, sondern am obrigkeitsstaatlichen Prinzip des so genannten "Amtsgeheimnisses" festhält: Bei uns gilt bisher der Grundsatz, dass Informationen der Verwaltung nur im Ausnahmefall an interessierte Bürger weitergegeben werden, z. B. wenn die Antragsteller Akteneinsicht in eigener Sache begehren. Ein Informationsfreiheitsgesetz würde dagegen einen Informationsanspruch für jeden schaffen - unabhängig von der direkten Betroffenheit und sogar ohne dass ein solcher Antrag begründet werden müsste. Das Informationsfreiheitsgesetz (IFG) würde die Beweislast umkehren: Nicht mehr die Antragsteller müssten ihren Informationsanspruch begründen, sondern die Ämter oder Behörden müssten darlegen, warum sie im Ausnahmefall etwas nicht herausgeben können, weil z. B. der Datenschutz dem entgegensteht oder der Schutz von Betriebs- und Geschäftsgeheimnissen. - Keine zusätzliche Bürokratie - Bisher wurden Informationsfreiheitsgesetze in den Bundesländern Brandenburg, Berlin, Schleswig-Holstein und Nordrhein-Westfalen eingeführt. Die Erfahrungen dort zeigen, dass die meisten Bürger die Transparenzverpflichtung nutzen, um ganz nahe liegende Dinge aus ihrem Wohnumfeld oder Interessengebiet zu erfragen: So kann man per Akteneinsicht oder durch eine schriftliche Auskunft (Aktenkopien) z. B. in Erfahrung bringen, was die Brandschutzbegehung im Kindergarten um die Ecke ergeben hat, wie die jüngste Verkehrszählung ausgefallen ist, oder was bei der Lebensmittelkontrolle gefunden wurde. Die befürchtete "Antragsflut" und zusätzliche Bürokratie, die die Gegner der Informationsfreiheit gerne ins Feld führen, ist nirgendwo eingetreten. Im Gegenteil: Das Mehr an Demokratie, das mit einer bürgernahen offenen Verwaltung einhergeht, "wurde mit dem IFG "günstig eingekauft", so der Innenminister von Nordrhein-Westfalen, Fritz Behrens, über die Praxiserfahrungen auf Länderebene.
Auf Bundesebene kommt der Versuch, ein IFG einzuführen, trotzdem bisher nicht voran: Obwohl dieses Reformprojekt in den Koalitionsverträgen von 1998 und 2002 enthalten ist, scheiterte schon die Vorlage eines abgestimmten Gesetzentwurfes an Widerständen aus der Ministerialbürokratie und der Wirtschaft. Um die Debatte über Informationsfreiheit zu beleben, hat sich ein Bündnis von fünf Organisationen zusammengefunden, das einen eigenen Gesetzesvorschlag zur Diskussion stellt: Die Journalistenorganisationen Deutscher Journalisten-Verband, Deutsche Journalistinnen- und Journalisten-Union in ver.di und netzwerk recherche sowie die Nichtregierungsorganisation Transparency International und die Bürgerrechtsgruppe Humanistische Union präsentieren hiermit einen eigenen Vorschlag für ein modernes, bürgerfreundliches und weit reichendes Informationsfreiheitsgesetz. Wir sehen in einem solchen Gesetz einen wichtigen Schritt zur Stärkung der demokratischen Mitwirkungsrechte der Bürger. Außerdem bauen wir auf einen Kulturwandel in Politik und Verwaltung, der durch dieses Gesetz angestoßen werden kann - hin zu mehr Transparenz und Bürgernähe. Für Journalisten würde das IFG die Recherchemöglichkeiten verbessern, vor allem indem Originaldokumente eingesehen werden können. Ferner trägt die Informationsfreiheit zur Korruptionsprävention bei, wie sich in den Staaten gezeigt hat, die auf eine lange Tradition der Behördentransparenz zurückblicken können. Wir halten es für überfällig, dass die deutsche Verwaltung endlich ihr obrigkeitsstaatliches Erbe hinter sich lässt und mehr Offenheit gegenüber den Bürgerf wagt. Es geht dabei nicht mal um einen "mutigen Reformschritt; sondern letztlich nur darum, den Anschluss an längst erreichte Standards anderer westlicher Demokratien wiederzuerlangen.
- Zentrale Punkte des Gesetzentwurfs - - Öffentlichkeit von Informationen wird von der Ausnahme zur Regel: Bisher gilt in Deutschland das Prinzip des Amtsgeheimnisses. Danach haben Behördeninformationen internen Charakter, sofern sie nicht auf Grund. besonderer Regelungen zugänglich sind. Durch das Informationsfreiheitsgesetz wird die Öffentlichkeit von Informationen bei staatlichen Stellen zur Regel und die Verweigerung des Zugangs zu Informationen die begründungsbedürftige Ausnahme. Diese Öffentlichkeit macht die Verwaltung transparenter und beugt Korruption vor. - Weit gefasster Anspruch auf Zugang zu Informationen: Zu diesem Zweck wird ein weit gefasster Anspruch auf Zugang zu Informationen konstituiert., Jeder Person und Organisation steht dieser Anspruch als subjektives Recht zu. Der Nachweis eines Interesses oder sonst eine Begründung des Anspruches ist nicht erforderlich. - Weit gefasster Anwendungsbereich des Gesetzes: Die Verpflichtung, Zugang zu Informationen zu gewährleisten, trifft alle öffentlichen Stellen des Bundes einschließlich solcher Privater, auf die der Bund Einfluss nehmen kann. Ausgenommen sind nur der Bundestag als Gesetzgeber sowie die Gerichte und sonstige Stellen, die in richterlicher Unabhängigkeit handeln. - Eng gefasste Ausnahmeklauseln: Der erforderliche Schutz gewisser öffentlicher Interessen und privater Rechte wird gewährleistet. Regelungstechnisch wird der - international verankerte - Ansatz der "eng begrenzten, genau bestimmten" Ausnahmen zu Grunde gelegt. Das höchste Schutzniveau gilt für personenbezogene Informationen. Auch Betriebs- und Geschäftsgeheimnisse werden einschließlich der Rechte geistigen Eigentum streng geschützt. Die Ermittlungstätigkeiten von Polizei und Ordnungskräften sowie ein Kernbereich des behördlichen Entscheidungsprozesses behalten einen angemessenen Schutz. Das Informationsfreiheitsrecht vermittelt vor allem einen Rechtsanspruch des Bürgers gegenüber dem Staat. Entsprechend sind die Ausnahmeklauseln zum Schutz öffentlicher Interessen besonders eng gefasst.
- Einfache, aber strenge Verfahrensregelungen: Ohne strenge Verfahrensregelungen kann ein Informationszugangsrecht nicht wirksam werden. Der Gesetzentwurf trifft solche Regelungen in knapper und auch für die Allgemeinheit verständlichen Form. Es gelten enge Fristen für den Informationszugang. Antragsteller haben die Wahl hinsichtlich der Form des Informationszugangs (Auskunft, Einsicht in Unterlagen, Überlassung von Kopien). Bei teilweiser Unzugänglichkeit von Informationen müssen Restinformationen zugänglich bleiben. - Keine Kostenbarriere: Die Kosten für den Informationszugang werden bewusst niedrig angesetzt. Erstattet werden muss höchstens der Materialaufwand, nicht der Arbeitsaufwand öffentlicher Stellen. - Wegbereitung für die Informationsgesellschaft: Der Gesetzentwurf trägt der steigenden Nutzung elektronischer Medien, insbesondere des Internets, Rechnung. Als Anreiz, die Verwaltung auf die Informationsgesellschaft vorzubereiten, sieht der Gesetzentwurf vor, dass individuelle Auskunftspflichten staatlicher Stellen entfallen, wenn diese auf einschlägige Veröffentlichungen im Internet verweisen können. Der Gesetzentwurf beschreibt außerdem einen Kernbestand an Informationen, die im Internet veröffentlicht werden müssen. - Mindeststandard definiert - - Anpassung der Vorschriften über den Rechtsschutz: Das gerichtliche Verfahren im Streit um den Zugang zu Informationen weist viele Eigenheiten auf, die eine Anpassung des geltenden Rechtsschutzsystems erforderlich machen. Der Gesetzentwurf verfolgt eine "mittlere" Linie: Ergänzend zum gerichtlichen Rechtsschutz erhält der Bundesbeauftragte für Datenschutz die Rechte und Pflichten eines Informationsfreiheitsbeauftragten. Erfahrungen in anderen Bundesländern haben gezeigt, dass dies nicht nur die Gerichte entlastet, sondern in hohem Maße dazu beiträgt, den beuroffenen: Bürgern rasch und unbürokratisch zu ihrem Recht zu verhelfen. Die Verwaltungsgerichtsordniing wird angepasst, damit Prozesse ums Informationszugangsrechte zügig und kostengünstig durchgeführt werden können. Insbesondere.wird der Rechtsweg schon dann eröffnet, wenn die öffentliche Stelle auf einen Antrag nicht rechtzeitig reagiert. - Verhältnis zu, anderen Informationszugangsrechten: Das Gesetz definiert einen Mindeststandard der Zugänglichkeit von Informationen. Andere Gesetze können einen weitergehenden Informationszugang erlauben, einschränken dürfen sie ihn nicht.
-
Hawk, J.: OCLC SiteSearch (1998)
0.08
0.08344476 = product of:
0.33377904 = sum of:
0.33377904 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
0.33377904 = score(doc=3079,freq=4.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.7708211 = fieldWeight in 3079, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3079)
0.25 = coord(1/4)
- Abstract
- Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.08
0.08344476 = product of:
0.33377904 = sum of:
0.33377904 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.33377904 = score(doc=2673,freq=4.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
-
Ehling, H.: Ananova und ihre Schwestern : Cyberbabes sind im Internet für fast jede Aufgabe einsetzbar (2000)
0.08
0.0783861 = product of:
0.1567722 = sum of:
0.11800871 = weight(_text_:java in 6206) [ClassicSimilarity], result of:
0.11800871 = score(doc=6206,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.2725264 = fieldWeight in 6206, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.038763493 = weight(_text_:und in 6206) [ClassicSimilarity], result of:
0.038763493 = score(doc=6206,freq=22.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.28445345 = fieldWeight in 6206, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=6206)
0.5 = coord(2/4)
- Content
- "Am Anfang war Ananova. Die grünäugige Schönheit liest Nachrichten vor, lächelt dabei freundlich, schlägt die Augen auf und nieder. Nie verspricht sie sich. Letztere Qualität sollte auch Begriffsstutzigen deutlich machen, dass diese Nachrichtensprecherin nicht aus Fleisch und Blut ist. Ananova besteht aus Bytes, vom dunklen Haarschopf bis zu, den schlanken Füßen. Und seit sie im Frühjahr ihr Debüt als Aushängeschild der ehrwürdigen britischen Press Association (PA) gefeiert hat, gilt als ausgemacht, dass im Internet die Zeit der Cyberbabes angebrochen ist. Für die PA war die Idee, eine virtuelle Nachrichtensprecherin zu entwickeln, ein Risiko. Würden die Kunden, die von der PA vor allem seriöse Berichterstattung ohne Glanz und Glamour erwarten, diesen Bruch mit der Tradition dulden? Genau das taten sie - Ananova ist eines der bestbesuchten britischen Nachrichtenangebote im Internet. Vor allem jüngere Nutzer gehören zu den Fans. Damit hat die PA ihr Ziel erreicht: Den teuren Investitionen ins Internet sollten endlich Deckungsbeiträge durch Werbung entgegengestellt werden. Diese Aufgabe erfüllt Ananova mit Leichtigkeit - und verkauft nebenher so allerlei Dinge, die das Leben angenehmer machen oder einfach nur den Kunden um ein paar Pfund erleichtern. Die Provision landet bei der PA. Letztlich hat sich das Risiko vor allem dadurch bezahlt gemacht, dass der Mobiltelefonkonzern Orange, ein Ableger von France Telecom, die weltweiten Nutzungsrechte an dem Cybergeschöpf für die stolze- Summe von umgerechnet über 300 Millionen Mark erworben hat. Das fordert die Nachfolgerinnen heraus - auch wenn Ananovas Schwestern nicht auf das schnöde Lesen von Nachrichten beschränkt sind. Sie sollen vor allem dazu dienen, den E-Commerce anzukurbeln. Dazu werden diese Kreuzungen aus Emma Peel und Karlheinz Köpcke von ihren meist männlichen Programmierern reich]ich mit sekundaren Geschlechtsmerkmalen ausgestattet. Weisheiten der realen Welt gelten nun mal auch im Internet: Sex sells, selbst wenn es nur Cybersex ist. Die neue Generation der Ananovas hört auf den schönen Namen Eva, oder auf den weniger schönen Namen TMmy: Die Softwareschmiede Stratumsoft hat rund 60 der Cyberwesen auf Halde und wartet nun auf Abnehmer. Die Konkurrenz von Digital Animations Group, Schöpfer von Ananova, stellten TMmy kürzlich beim Edinburgh Festival vor Vor allem beim Kundenkontakt sollen die Cyberbabes eingesetzt werden: Der größte Teil der Anfragen in jedem Call Center könne mit standardisierten Antworten abgehandelt werden, argumentiert Stratumsoft. Da in relativ kurzer Zeit ein großer Teil solcher Anfragen über das Internet abgewickelt werden, sei für derartige Routiiie-Arbeit eine charmante Cyber-Dame genau die Richtige. Und Kundendienst wird immer bedeutender, besonders beim E-Commerce: Nach einer Studie des US-Marktanalysten Creative Good verlieren Cyber-Händler pro Jahr mehr als 13 Milliarden Mark an Umsatz durch mangelnde Kundenbetreuung. Da sind rund 350 000 Mark Investition für eine Cyberdame beinahe Kleingeld. Der Trick bei den Evas und TMmys ist ihre Internet-Tauglichkeit: Sie sind ladefreundliche Java-Applikationen, die keine allzu langen Downloads verursachen. Klug hat dabei die Erfahrung gemacht: Der in Konkurs gegangene Modehändler Boo.com verdross tausende potenzielle Käufer durch die quälend langen Ladezeiten der Cyber-Verkäuferin Miss Boo. Die Einsatzmöglichkeiten, der künstlichen Wesen sind fast unbeschränkt. So 'dürfte eine nach persönlichen Maßen und Fettpölsterchen einstellbare, Cyberlady nur noch eine, Frage der Zeit sein. Die kann dann anprobieren, was online gekauft werden soll. Was allerdings nur der Übergangsstadium dazu sein dürfte, dass jeder seinen eigenen Cyber-Ableger im Internet zum Shopping schicken kann. Diese so genannten Avatare sind zwar heute noch recht primitiv - aber wir wissen ja, dass Cyberjahre schnell vergehen."
-
Anderson, R.; Birbeck, M.; Kay, M.; Livingstone, S.; Loesgen, B.; Martin, D.; Mohr, S.; Ozu, N.; Peat, B.; Pinnock, J.; Stark, P.; Williams, K.: XML professionell : behandelt W3C DOM, SAX, CSS, XSLT, DTDs, XML Schemas, XLink, XPointer, XPath, E-Commerce, BizTalk, B2B, SOAP, WAP, WML (2000)
0.08
0.07611608 = product of:
0.15223216 = sum of:
0.10115033 = weight(_text_:java in 1729) [ClassicSimilarity], result of:
0.10115033 = score(doc=1729,freq=2.0), product of:
0.43301752 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06144265 = queryNorm
0.23359407 = fieldWeight in 1729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.05108183 = weight(_text_:und in 1729) [ClassicSimilarity], result of:
0.05108183 = score(doc=1729,freq=52.0), product of:
0.1362736 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06144265 = queryNorm
0.3748476 = fieldWeight in 1729, product of:
7.2111025 = tf(freq=52.0), with freq of:
52.0 = termFreq=52.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1729)
0.5 = coord(2/4)
- Abstract
- In diesem Buch sollen die grundlegenden Techniken zur Erstellung, Anwendung und nicht zuletzt Darstellung von XML-Dokumenten erklärt und demonstriert werden. Die wichtigste und vornehmste Aufgabe dieses Buches ist es jedoch, die Grundlagen von XML, wie sie vom World Wide Web Consortium (W3C) festgelegt sind, darzustellen. Das W3C hat nicht nur die Entwicklung von XML initiiert und ist die zuständige Organisation für alle XML-Standards, es werden auch weiterhin XML-Spezifikationen vom W3C entwickelt. Auch wenn immer mehr Vorschläge für neue XML-basierte Techniken aus dem weiteren Umfeld der an XML Interessierten kommen, so spielt doch weiterhin das W3C die zentrale und wichtigste Rolle für die Entwicklung von XML. Der Schwerpunkt dieses Buches liegt darin, zu lernen, wie man XML als tragende Technologie in echten Alltags-Anwendungen verwendet. Wir wollen Ihnen gute Design-Techniken vorstellen und demonstrieren, wie man XML-fähige Anwendungen mit Applikationen für das WWW oder mit Datenbanksystemen verknüpft. Wir wollen die Grenzen und Möglichkeiten von XML ausloten und eine Vorausschau auf einige "nascent"-Technologien werfen. Egal ob Ihre Anforderungen sich mehr an dem Austausch von Daten orientieren oder bei der visuellen Gestaltung liegen, dieses Buch behandelt alle relevanten Techniken. jedes Kapitel enthält ein Anwendungsbeispiel. Da XML eine Plattform-neutrale Technologie ist, werden in den Beispielen eine breite Palette von Sprachen, Parsern und Servern behandelt. Jede der vorgestellten Techniken und Methoden ist auf allen Plattformen und Betriebssystemen relevant. Auf diese Weise erhalten Sie wichtige Einsichten durch diese Beispiele, auch wenn die konkrete Implementierung nicht auf dem von Ihnen bevorzugten System durchgeführt wurde.
Dieses Buch wendet sich an alle, die Anwendungen auf der Basis von XML entwickeln wollen. Designer von Websites können neue Techniken erlernen, wie sie ihre Sites auf ein neues technisches Niveau heben können. Entwickler komplexerer Software-Systeme und Programmierer können lernen, wie XML in ihr System passt und wie es helfen kann, Anwendungen zu integrieren. XML-Anwendungen sind von ihrer Natur her verteilt und im Allgemeinen Web-orientiert. Dieses Buch behandelt nicht verteilte Systeme oder die Entwicklung von Web-Anwendungen, sie brauchen also keine tieferen Kenntnisse auf diesen Gebieten. Ein allgemeines Verständnis für verteilte Architekturen und Funktionsweisen des Web wird vollauf genügen. Die Beispiele in diesem Buch verwenden eine Reihe von Programmiersprachen und Technologien. Ein wichtiger Bestandteil der Attraktivität von XML ist seine Plattformunabhängigkeit und Neutralität gegenüber Programmiersprachen. Sollten Sie schon Web-Anwendungen entwickelt haben, stehen die Chancen gut, dass Sie einige Beispiele in Ihrer bevorzugten Sprache finden werden. Lassen Sie sich nicht entmutigen, wenn Sie kein Beispiel speziell für Ihr System finden sollten. Tools für die Arbeit mit XML gibt es für Perl, C++, Java, JavaScript und jede COM-fähige Sprache. Der Internet Explorer (ab Version 5.0) hat bereits einige Möglichkeiten zur Verarbeitung von XML-Dokumenten eingebaut. Auch der Mozilla-Browser (der Open-Source-Nachfolger des Netscape Navigators) bekommt ähnliche Fähigkeiten. XML-Tools tauchen auch zunehmend in großen relationalen Datenbanksystemen auf, genau wie auf Web- und Applikations-Servern. Sollte Ihr System nicht in diesem Buch behandelt werden, lernen Sie die Grundlagen und machen Sie sich mit den vorgestellten Techniken aus den Beispielen vertraut.
Das erworbene Wissen sollte sich dann auch auf jedem anderen Betriebssystem umsetzen lassen. Jedes einzelne Kapitel wird sich mit einem bestimmten XML Thema beschäftigen. Kapitel 1 bietet eine Einführung in die Konzepte von XML. Kapitel 2 und 3 sind eng verknüpft, da sie fundamentale Grundlagen behandeln. Kapitel 2 startet mit der Syntax und den grundlegenden Regeln von XML. Kapitel 3 führt dann weiter und stellt Werkzeuge zur Erstellung eigener, problembezogener XML-DTDs vor. Die verbleibenden Kapitel jedoch sind weitestgehend, im Bezug auf die vorgestellten Techniken und Technologien, in sich abgeschlossen. Die wichtigsten Kapitel werden durch ein verbindendes Beispiel zusammengehalten. Das Beispiel geht davon aus, dass ein Verleger seinen Bücher-Katalog mittels XML präsentieren will. Wir werden damit beginnen, Regeln für die Beschreibung von Büchern in einem Katalog festzulegen. Auf der Grundlage dieser Regeln werden wir dann zeigen, wie jede einzelne Technik uns dabei hilft, XML-Anwendungen zu erstellen. Sie werden sehen, wie dieser Katalog sich in ein Dokument umwandeln lässt, wie solche Dokumente manipuliert werden können und wie man aus Programmen heraus auf sie zugreifen kann. Wir werden auch zeigen, wie man die Inhalte der Dokumente für den Leser aufbereitet. Da solche Anwendungen in der Praxis nicht in einem Vakuum existieren, werden Sie auch sehen, wie XML-Anwendungen mit Datenbanken interagieren. Es werden sich verschiedene thematische Stränge durch das Buch ziehen, die wir im folgenden Abschnitt vorstellen möchten. Damit sollten Sie in der Lage sein, gezielt für Sie wichtige Themen herauszugreifen und andere Abschnitte auszulassen