-
Beier, H.: Betriebliches Wissensmanagement : Rollen, Prozesse, Instrumente (2006)
0.10
0.099449694 = product of:
0.19889939 = sum of:
0.04704892 = weight(_text_:und in 798) [ClassicSimilarity], result of:
0.04704892 = score(doc=798,freq=14.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.32416478 = fieldWeight in 798, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=798)
0.15185046 = weight(_text_:helfen in 798) [ClassicSimilarity], result of:
0.15185046 = score(doc=798,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.35803422 = fieldWeight in 798, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0390625 = fieldNorm(doc=798)
0.5 = coord(2/4)
- Abstract
- Die komplexen und dynamischen Rahmenbedingungen der globalen Wirtschaft stellen heutige Unternehmen vor gänzlich neue Herausforderungen. Der Rohstoff Wissen nimmt entscheidend an Bedeutung zu. Nicht nur in der Form, dass der Wert der Unternehmen stark von Ihrer fachspezifischen Expertise abhängt, sondern umso mehr von der Fähigkeit, aus verschiedensten Fachkompetenzen erfolgreiche Produkte und Dienstleistungen zu generieren. Dies erfordert ein aktives Management der Ressource Wissen in der Form eines grundlegenden Verständnisses der den jeweiligen Fachdomänen und Prozessen übergeordneten Zusammenhänge. Nur mittels des relevanten Metawissens über diverse Einflussfaktoren wie Marktmechanismen, rechtliche Rahmenbedingungen oder auch Organisationsstrukturen lassen sich die einzelnen "Organe" moderner vernetzter Organisationen wirtschaftlich erfolgreich orchestrieren. IT-Lösungen. die auf semantischen Modellen beruhen, helfen dieses Metawissen zu sichern und effektiv im Kontext konkreter Prozesse und Ziele zu nutzen. Semantik hilft dabei, die extrem hohe Vernetzung, die als Merkmal von Komplexität sowohl auf der Ebene von Informationen wie auch in der tatsächlichen Organisation von Unternehmen auftritt, transparent zu machen. Ein semantischer Ansatz ist dabei immer mit einem gesteigerten Qualitätsdenken auf Ebene von Informationen verbunden. Dies allerdings erfordert von den Unternehmen nicht nur ein explizites "semantisches" Denken und Handeln, sondern eröffnet wichtige Gestaltungsfelder im Bereich der Aufbauorganisation und dem Rollenverständnis einzelner Organisationsbereiche.
-
Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996)
0.10
0.09843534 = product of:
0.19687068 = sum of:
0.1436409 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
0.1436409 = score(doc=2121,freq=2.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.31145877 = fieldWeight in 2121, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.053229775 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
0.053229775 = score(doc=2121,freq=28.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.36675057 = fieldWeight in 2121, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.5 = coord(2/4)
- Content
- Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.10
0.09843534 = product of:
0.19687068 = sum of:
0.1436409 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.1436409 = score(doc=346,freq=2.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.053229775 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.053229775 = score(doc=346,freq=28.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Hartknopf, A.: Google statt eBay : Moderne Suchtechnologien (2006)
0.10
0.09770465 = product of:
0.1954093 = sum of:
0.043558836 = weight(_text_:und in 3895) [ClassicSimilarity], result of:
0.043558836 = score(doc=3895,freq=12.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.30011827 = fieldWeight in 3895, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3895)
0.15185046 = weight(_text_:helfen in 3895) [ClassicSimilarity], result of:
0.15185046 = score(doc=3895,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.35803422 = fieldWeight in 3895, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0390625 = fieldNorm(doc=3895)
0.5 = coord(2/4)
- Abstract
- Diesen Herbst hat es ordentlich rumort im Netz. Bildschirmfotos und Berichte von einem geheimnisvollen neuen Dienst namens "Base" tauchten auf. Plante Google den Sturmangriff auf eBay und Co.? Nun ist es raus.
- Content
- "Google beschreibt sein neues Angebot Base lapidar so: "Ein Platz, an dem Sie ganz einfach alle möglichen Arten von Online-oder Offline-Inhalten hosten lassen und auffindbar machen können." Und so sieht's auf den ersten Blick auch aus: ein bisschen wie die Grabbelkiste auf dem Flohmarkt. Nur lässt sich hier mit System grabbeln. Im Grunde ist Base (base.google.com) eine Datenbank. Sie nimmt einerseits Inhalte auf, die sich sonst nirgends finden, andererseits aber auch Verweise auf vorhandene Webseiten. Auch Bilder lassen sich einstellen. Suchkategorien von Blogs über Rezepte oder Comics bis zum Auto- und Jobmarkt helfen dabei, sich in den bunten Inhalten zu orientieren. So kann der Nutzer die Base "durchblättern" wie einen Katalog. Die meisten Kategorien lassen sich auf durchdachte Weise nochmals einschränken (bei Autos etwa auf Marke oder Farbe, bei Rezepten auf Suppe oder Dessert etc.). Zudem ist die Sortierung nach Relevanz oder Einstelldatum des Artikels wählbar. Das Ganze folgt der bekannten Google-Optik und ist ähnlich wie die Suchmaschine zu handhaben."
-
FIZ Karlsruhe: Portal erfasst Informatik-Wissen aus der ganzen Welt (2007)
0.10
0.09770465 = product of:
0.1954093 = sum of:
0.043558836 = weight(_text_:und in 2283) [ClassicSimilarity], result of:
0.043558836 = score(doc=2283,freq=12.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.30011827 = fieldWeight in 2283, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2283)
0.15185046 = weight(_text_:helfen in 2283) [ClassicSimilarity], result of:
0.15185046 = score(doc=2283,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.35803422 = fieldWeight in 2283, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0390625 = fieldNorm(doc=2283)
0.5 = coord(2/4)
- Content
- "Web-Portale werden zu immer besseren Fachinformationsquellen. Mit »io-port.net« (www. io-port.net) gibt es für die Informatik seit kurzem ein Portal, in dem moderne semantische Softwarewerkzeuge die Suche nach internationalen Veröffentlichungen unterstützen und bei der Verwaltung der persönlichen Fachbibliothek helfen. Bereits jetzt sind mehr als zwei Millionen Zeitschriftenartikel, Konferenzbeiträge, Dissertationen oder technische Berichte zur Informatik und zu verwandten Forschungsgebieten über io-port.net zentral unter einem Web-Zugang verfügbar. Die Nutzung des io-port. net Basisdienstes ist kostenlos. Mehrwertdienste, von der erweiterten Suche (mit Wortstammreduktion, Trunkierung und Verknüpfung) bis hin zur Nutzung der semantischen Werkzeuge, die beispielsweise Vorschläge für Suchbegriffe machen oder Fachpublikationen dem persönlichen Arbeitskontext des Nutzers zuordnen, sind kostenpflichtig. Mitglieder der Gesellschaft für Informatik (GI) können die Mehrwertlizenz zu einem Sonderpreis von 50 Euro pro Jahr erwerben. Die reguläre Einzelplatzlizenz kostet 125 Euro. io-port.net erfasst internationale wissenschaftliche Fachpublikationen und verknüpft die bibliografischen Angaben mit zahlreichen weiteren Web-Informationsquellen, zum Beispiel mit den Homepages von Autoren, Instituten, Bibliotheken und Verlagen, mit Volltextlieferdiensten, Publikationslisten von Autoren und anderen interessanten weiterführenden Quellen."
-
OCLC: FirstSearch Base Package mit mehr Inhalt und neuer Plattform (2009)
0.10
0.09770465 = product of:
0.1954093 = sum of:
0.043558836 = weight(_text_:und in 123) [ClassicSimilarity], result of:
0.043558836 = score(doc=123,freq=12.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.30011827 = fieldWeight in 123, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=123)
0.15185046 = weight(_text_:helfen in 123) [ClassicSimilarity], result of:
0.15185046 = score(doc=123,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.35803422 = fieldWeight in 123, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0390625 = fieldNorm(doc=123)
0.5 = coord(2/4)
- Content
- "OCLC hat das Angebot für FirstSearch Base Package Abonnenten erweitert. CONTENTdm Quick Start, eine auf Anzahl der Digitalisate begrenzte Version der Managementsoftware für digitale Sammlungen, wurde als kostenlose Erweiterung in das Angebot aufgenommen. Außerdem enthält das Package jetzt auch den Zugriff auf OAIster (Sammlung offener Archive), CAMIO (Katalog von Kunstabbildungen) und ArchiveGrid (Beschreibungen archivierter Sammlungen) - ohne zusätzliche Kosten. Digitale Sammlungen aus FirstSearch, NetLibrary (eBook und eAudiobook Service von OCLC), CAMIO und ArchiveGrid werden im Laufe dieses Jahres ebenfalls über WorldCat.org suchbar sein. Analog können auch digitalisierte Inhalte aus CONTENT-dm von WorldCat geharvested und präsentiert werden. Brian Cannan, OCLC-Produktmanager für Licensed Content, meint dazu: »Die Möglichkeit, über WorldCat. org auf eContent unterschiedlicher Herkunft zuzugreifen, erleichtert die Informationssuche. Relevante Inhalte werden unabhängig vom Format in einer Ergebnisliste zusammengefasst dargestellt. Wir wollen den Benutzern damit helfen, in möglichst wenigen Schritten die Bestände ihrer Bibliothek zu durchsuchen.» OCLC hat kürzlich verschiedene Vereinbarungen mit der British Library, The Modern Language Association (MLA) und W. Wilson geschlossen. Diese Organisationen haben es OCLC erlaubt, artikelbezogene Metadaten in WorldCat zu indexieren, um sie für Benutzer von Bibliotheken sichtbar zu machen. Voraussetzung dafür ist ein Abonnement der entsprechenden Publikation. Das Modell stellt sicher, dass die Bibliotheken die Lizenzen direkt beim Lizenzgeber abonnieren, die Inhalte aber über WorldCat.org einer breiteren Öffentlichkeit zugänglich sind. Vereinbarungen mit weiteren Anbietern sind geplant."
-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.10
0.09646105 = product of:
0.1929221 = sum of:
0.1436409 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.1436409 = score(doc=6889,freq=2.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.0492812 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.0492812 = score(doc=6889,freq=24.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.10
0.09646105 = product of:
0.1929221 = sum of:
0.1436409 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.1436409 = score(doc=1642,freq=2.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.0492812 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.0492812 = score(doc=1642,freq=24.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
Getlnfo: Wissensportal für Naturwissenschaften und Technik (2007)
0.09
0.09410372 = product of:
0.18820743 = sum of:
0.066727065 = weight(_text_:und in 1464) [ClassicSimilarity], result of:
0.066727065 = score(doc=1464,freq=44.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.4597462 = fieldWeight in 1464, product of:
6.6332498 = tf(freq=44.0), with freq of:
44.0 = termFreq=44.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1464)
0.12148037 = weight(_text_:helfen in 1464) [ClassicSimilarity], result of:
0.12148037 = score(doc=1464,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.28642738 = fieldWeight in 1464, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.03125 = fieldNorm(doc=1464)
0.5 = coord(2/4)
- Abstract
- Das Getlnfo-Portal (http://www.getinfo.de) ist eine Kooperation der Technischen Informationsbibliothek (TIB) in Hannover und der deutschen Fachinformationszentren FIZ Technik Frankfurt, FIZ Karlsruhe und FIZ CHEMIE Berlin. Das Projekt wird vom Bundesministerium für Bildung und Forschung gefördert.
- Content
- "Ob Zeitschriftenaufsätze, Fachartikel oder Studiendokumentationen - Getlnfo liefert elektronische und gedruckte Publikationen aus Technik und Naturwissenschaften. Getlnfo ermöglicht den Nutzern einen zentralen Zugang zu den führenden Datenbanken, Verlagen und Bibliothekskatalogen im Bereich der Naturwissenschaften und Technik. Suchende sparen durch den Vorteil einer einzigen Such-Oberfläche bei der Recherche nicht nur Zeit, sondern profitieren auch von einer einzigartigen Breite und Tiefe der Literatur. Die Qualität der Dokumente gewährleistet Getlnfo durch die exzellente Auswahl der beteiligten Partner aus dem In- und Ausland. Weiterhin unterliegen die Fachinformationen von Getlnfo einem aufwendigen Qualifizierungsprozess: Experten, Wissenschaftler, Fachreferenten und -redakteure prüfen die Beiträge auf wissenschaftlichen Gehalt und fachliches Niveau und fassen die Inhalte vieler Veröffentlichungen in einem Abstract zusammen. Literaturnachweise und -empfehlungen aus Datenbanken und Katalogen setzen auf Qualitätskriterien von Fachzeitschriften und Verlagen auf. Getlnfo selektiert diese nach dem informativen Wert für seine Nutzer und übernimmt die Bestellung der gewünschten Publikationen.
Neben der besonderen Qualität und Quantität des Angebots von Getlnfo profitiert der Nutzer von einer Vielzahl weiterer Leistungen: So bietet das Wissensportal eine benutzerfreundliche, leicht zu bedienende Oberfläche mit verschiedenen Suchoptionen. Die Suche erfolgt datenbankübergreifend in Literaturdatenbanken, Konferenzberichten, Forschungsberichten, Bibliothekskatalogen und elektronischen Volltexten wichtiger internationaler Verlage. Neben der Verlagsliteratur wird auch "graue Literatur", die im Verlagshandel nicht erhältlich ist, in Getlnfo berücksichtigt. Für spezielle Suchen lassen sich die Datenquellen einzeln auswählen. Recherche und die Anzeige der Suchergebnisse sind bei Getlnfo gebührenfrei. Nach der erfolgreichen Recherche erhält der registrierte Anwender in bestimmten Datenbanken die passenden Abstracts. Diese von Experten erstellten Kurzzusammenfassungen der Publikationen helfen ihm dabei, sich rasch einen Überblick zu verschaffen und zu entscheiden, welche Dokumente für ihn relevant sind. Danach kann der Suchende gezielt die Dokumente bestellen. Die Lieferung erfolgt üblicherweise per E-Mail mit einer elektronischen Kopie der Veröffentlichung. Im Pay-per-view-Verfahren besteht die Möglichkeit, sich direkt die elektronischen Volltexte der gewünschten Publikationen anzeigen zu lassen. Der Direktzugriff auf Abstracts und elektronische Versionen, die Lieferung von Kopien gedruckter Texte sowie die Anzeige vollständiger Literaturnachweise sind kostenpflichtige Dienstleistungen der einzelnen Getlnfo-Partner."
-
Stock, W.G.: Journal Citation Reports : Ein Impact Factor für Bibliotheken, Verlage und Autoren? (2001)
0.09
0.09370805 = product of:
0.1874161 = sum of:
0.03556564 = weight(_text_:und in 6915) [ClassicSimilarity], result of:
0.03556564 = score(doc=6915,freq=8.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.24504554 = fieldWeight in 6915, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=6915)
0.15185046 = weight(_text_:helfen in 6915) [ClassicSimilarity], result of:
0.15185046 = score(doc=6915,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.35803422 = fieldWeight in 6915, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0390625 = fieldNorm(doc=6915)
0.5 = coord(2/4)
- Abstract
- Gibt es objektive Kriterien für die Bestellung und Abbestellung wissenschaftlicher Zeitschriften? Wie lange sollte eine Bibliothek Periodikabestände benutzernah aufstellen? Kann ein Verlag -außer via Verkaufszahlen - auf Kriterien des Erfolgs seiner Zeitschriften zurückgreifen? Hat ein Autor eine Entscheidungsgrundlage, welcher Zeitschrift er seinen Artikel anbietet? Ist die Forschungsaktivität eines Instituts oder eines Wissenschaftlers über den Impact derjenigen Zeitschriftentitel zu evaluieren, die die Forschungsergebnisse drucken? Können die 'Journal Citation Reports (JCR) "des "Institute for Scientific Information" bei der Klärung solcher Fragen helfen? Sind die JCR ein nützliches oder gar ein notwendiges Hilfsmittel für Bibliotheken, für Verlage, für Wissenschaftsmanager und für wissenschaftliche Autoren? Die 'Journal Citation Reports" geben im Jahresrhythmus informetrische Kennzahlen wie die Zitationsrate, den Impact Factor, den Immediacy Index, die Halbwertszeit für eine Auswahl wissenschaftlicher Zeitschriften an. Zusätzlich berichten sie darüber, weiche Zeitschriften weiche anderen Zeitschriften zitieren bzw. von diesen zitiert werden, so dass "Soziogramme" wissenschaftlicher Zeitschriftenkommunikation entstehen. Wir wollen am Beispiel des aktuellen Jahrgangs ( 1999) die JCR detailliert beschreiben, die Auswahlkriterien der Zeitschriften beleuchten, die verwendeten informetrischen Kennwerte - vor allem den Impact Factor - kritisch hinterfragen, um danach die Einsatzgebiete bei Bibliotheken, in der Wissenschaftsevaluation, bei Verlagen und bei Autoren zu diskutieren. Das Fazit sei vorweggenommen: Die JCR sind ein nicht umgehbares Hilfsmittel für die fokussierten Anwendungsbereiche. Sie sind mitnichten frei von Problemen. Wir schließen daher mit einigen Verbesserungsvorschlägen
-
Mandalka, M.: Open semantic search zum unabhängigen und datenschutzfreundlichen Erschliessen von Dokumenten (2015)
0.09
0.09364486 = product of:
0.18728971 = sum of:
0.058440316 = weight(_text_:und in 3133) [ClassicSimilarity], result of:
0.058440316 = score(doc=3133,freq=60.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.40265095 = fieldWeight in 3133, product of:
7.745967 = tf(freq=60.0), with freq of:
60.0 = termFreq=60.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=3133)
0.1288494 = weight(_text_:helfen in 3133) [ClassicSimilarity], result of:
0.1288494 = score(doc=3133,freq=4.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.30380213 = fieldWeight in 3133, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.0234375 = fieldNorm(doc=3133)
0.5 = coord(2/4)
- Abstract
- Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Immer öfter müssen im Journalismus größere Datenberge und Dokumentenberge erschlossen werden. In eine Suchmaschine integrierte Analyse-Tools helfen (halb)automatisch.
- Content
- "Open Semantic Desktop Search Zur Tagung des Netzwerk Recherche ist die Desktop Suchmaschine Open Semantic Desktop Search zum unabhängigen und datenschutzfreundlichen Erschliessen und Analysieren von Dokumentenbergen nun erstmals auch als deutschsprachige Version verfügbar. Dank mächtiger Open Source Basis kann die auf Debian GNU/Linux und Apache Solr basierende freie Software als unter Linux, Windows oder Mac lauffähige virtuelle Maschine kostenlos heruntergeladen, genutzt, weitergegeben und weiterentwickelt werden. Dokumentenberge erschliessen Ob grösserer Leak oder Zusammenwürfeln oder (wieder) Erschliessen umfangreicherer (kollaborativer) Recherche(n) oder Archive: Hin und wieder müssen größere Datenberge bzw. Dokumentenberge erschlossen werden, die so viele Dokumente enthalten, dass Mensch diese Masse an Dokumenten nicht mehr alle nacheinander durchschauen und einordnen kann. Auch bei kontinuierlicher Recherche zu Fachthemen sammeln sich mit der Zeit größere Mengen digitalisierter oder digitaler Dokumente zu grösseren Datenbergen an, die immer weiter wachsen und deren Informationen mit einer Suchmaschine für das Archiv leichter auffindbar bleiben. Moderne Tools zur Datenanalyse in Verbindung mit Enterprise Search Suchlösungen und darauf aufbauender Recherche-Tools helfen (halb)automatisch.
Unabhängiges Durchsuchen und Analysieren grosser Datenmengen Damit können investigativ arbeitende Journalisten selbstständig und auf eigener Hardware datenschutzfreundlich hunderte, tausende, hunderttausende oder gar Millionen von Dokumenten oder hunderte Megabyte, Gigabytes oder gar einige Terabytes an Daten mit Volltextsuche durchsuchbar machen. Automatische Datenanreicherung und Erschliessung mittels Hintergrundwissen Zudem wird anhand von konfigurierbaren Hintergrundwissen automatisch eine interaktive Navigation zu in Dokumenten enthaltenen Namen von Bundestagsabgeordneten oder Orten in Deutschland generiert oder anhand Textmustern strukturierte Informationen wie Geldbeträge extrahiert. Mittels Named Entities Manager für Personen, Organisationen, Begriffe und Orte können eigene Rechercheschwerpunkte konfiguriert werden, aus denen dann automatisch eine interaktive Navigation (Facettensuche) und aggregierte Übersichten generiert werden. Automatische Datenvisualisierung Diese lassen sich auch visualisieren: So z.B. die zeitliche Verteilung von Suchergebnissen als Trand Diagramm oder durch gleichzeitige Nennung in Dokumenten abgeleitete Verbindungen als Netzwerk bzw. Graph.
Automatische Texterkennung (OCR) Dokumente, die nicht im Textformat, sondern als Grafiken vorliegen, wie z.B. Scans werden automatisch durch automatische Texterkennung (OCR) angereichert und damit auch der extrahierte Text durchsuchbar. Auch für eingebettete Bilddateien bzw. Scans innerhalb von PDF-Dateien. Unscharfe Suche mit Listen Ansonsten ist auch das Recherche-Tool bzw. die Such-Applikation "Suche mit Listen" integriert, mit denen sich schnell und komfortabel abgleichen lässt, ob es zu den einzelnen Einträgen in Listen jeweils Treffer in der durchsuchbaren Dokumentensammlung gibt. Mittels unscharfer Suche findet das Tool auch Ergebnisse, die in fehlerhaften oder unterschiedlichen Schreibweisen vorliegen. Semantische Suche und Textmining Im Recherche, Textanalyse und Document Mining Tutorial zu den enthaltenen Recherche-Tools und verschiedenen kombinierten Methoden zur Datenanalyse, Anreicherung und Suche wird ausführlicher beschrieben, wie auch eine große heterogene und unstrukturierte Dokumentensammlung bzw. eine grosse Anzahl von Dokumenten in verschiedenen Formaten leicht durchsucht und analysiert werden kann.
Virtuelle Maschine für mehr Plattformunabhängigkeit Die nun auch deutschsprachig verfügbare und mit deutschen Daten wie Ortsnamen oder Bundestagsabgeordneten vorkonfigurierte virtuelle Maschine Open Semantic Desktop Search ermöglicht nun auch auf einzelnen Desktop Computern oder Notebooks mit Windows oder iOS (Mac) die Suche und Analyse von Dokumenten mit der Suchmaschine Open Semantic Search. Als virtuelle Maschine (VM) lässt sich die Suchmaschine Open Semantic Search nicht nur für besonders sensible Dokumente mit dem verschlüsselten Live-System InvestigateIX als abgeschottetes System auf verschlüsselten externen Datenträgern installieren, sondern als virtuelle Maschine für den Desktop auch einfach unter Windows oder auf einem Mac in eine bzgl. weiterer Software und Daten bereits existierende Systemumgebung integrieren, ohne hierzu auf einen (für gemeinsame Recherchen im Team oder für die Redaktion auch möglichen) Suchmaschinen Server angewiesen zu sein. Datenschutz & Unabhängigkeit: Grössere Unabhängigkeit von zentralen IT-Infrastrukturen für unabhängigen investigativen Datenjournalismus Damit ist investigative Recherche weitmöglichst unabhängig möglich: ohne teure, zentrale und von Administratoren abhängige Server, ohne von der Dokumentenanzahl abhängige teure Software-Lizenzen, ohne Internet und ohne spionierende Cloud-Dienste. Datenanalyse und Suche finden auf dem eigenen Computer statt, nicht wie bei vielen anderen Lösungen in der sogenannten Cloud."
- Source
- http://www.linux-community.de/Internal/Nachrichten/Open-Semantic-Search-zum-unabhaengigen-und-datenschutzfreundlichen-Erschliessen-von-Dokumenten
-
Barrierefreies E-Government : Leitfaden für Entscheidungsträger, Grafiker und Programmierer (2005)
0.09
0.093336634 = product of:
0.18667327 = sum of:
0.0651929 = weight(_text_:und in 5881) [ClassicSimilarity], result of:
0.0651929 = score(doc=5881,freq=42.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.4491759 = fieldWeight in 5881, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5881)
0.12148037 = weight(_text_:helfen in 5881) [ClassicSimilarity], result of:
0.12148037 = score(doc=5881,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.28642738 = fieldWeight in 5881, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.03125 = fieldNorm(doc=5881)
0.5 = coord(2/4)
- Footnote
- Rez. in: Information - Wissenschaft und Praxis 56(2005) H.8, S.459 (W. Schweibenz): "Der Leitfaden ist Teil des Handbuchs für sicheres E-Govemment, das vom Bundesamt für Sicherheit in der Informationstechnik herausgegeben wird und als Nachschlagewerk und zentrale Informationsbörse mit Empfehlungscharakter konzipiert ist. Die Publikation stellt in sechs Abschnitten alle wichtigen Aspekte für ein barrierefreies EGovernment dar, die inhaltlich auch auf private Web-Angebote übertragen werden können. Ein besonderes Anliegen des Leitfadens ist es, den Entscheidungsträgern die Notwendigkeit eines barrierefreien Internets zu erklären. Dies geschieht im ersten Abschnitt, in dem ausgehend von der mangelhafte Benutzungsfreundlichkeit des Internets im Allgemeinen die Bedürfnisse behinderter Menschen im Besonderen beschrieben werden. In anschaulicher Weise mit Beispielen und Bildern werden die Probleme folgender Benutzergruppen dargestellt: - sehbehinderte und blinde Menschen, - hörgeschädigte und gehörlose Menschen, - kognitiv eingeschränkte und konzentrationsschwache Menschen, - Menschen mit Epilepsie, - manuell-motorisch eingeschränkte Menschen. Dies kann Lesern helfen, sich die Probleme von Menschen mit Behinderungen zu vergegenwärtigen, bevor sie im zweiten Abschnitt auf zehn Seiten mit dem deutschen Gesetze und Richtlinien konfrontiert werden. Der Abschnitt 3 Anleitung zur Gestaltung barrierefreier Internet-Seiten gibt Programmierern und Designem konkrete Hinweise welche Techniken in HTML und CSS wie eingesetzt werden müssen, um Barrierefreiheit zu erreichen. Dies reicht von Fragen der Wahmehmbarkeit (Textäquivalente für Audio- und visuelle Inhalte, Schrift und Farbe) über generelle Aspekte der Bedienbarkeit (Orientierung und Navigation, Frames, eingebettete Benutzerschnittstellen, Formulare) und der allgemeinen Verständlichkeit (Sprache, Abkürzungen, Akronyme) bis zur Einhaltung von Standards (W3C unterstützte Formate, Einhaltung von Markup-Standards, Rückwärtskompatibilität, Geräteunabhängigkeit, Kompatibilität mit assistiven Technologien). Im Abschnitt 4 wird die Kommunikation im Internet betrachtet, wobei vor allem auf Fragen des E-Mail-Verkehrs und der Sicherheit eingegangen wird, Aspekte die für alle Internet-Benutzer interessant sind. Im Abschnitt 5 wird dargestellt, wie Internet-Seiten auf Barrierefreiheit geprüft werden können. Neben Testmethoden technischer Art (Evaluierung durch verschiedene Browser und Prüfprogramme) und mit behinderten Benutzern wird auch auf die Frage der Oualitätssiegel für Barrierefreiheit eingegangen und existierende Testsymbole werden vorgestellt. Ein sechster Abschnitt mit Links und Literatur rundet den Leitfaden ab und verweist interessierte Leser weiter."
-
Tsai, B.-s.: Infomapping in information retrieval (1997)
0.09
0.09329752 = product of:
0.37319008 = sum of:
0.37319008 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
0.37319008 = score(doc=3877,freq=6.0), product of:
0.46118757 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.06543981 = queryNorm
0.8091937 = fieldWeight in 3877, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3877)
0.25 = coord(1/4)
- Abstract
- Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
-
Gärtner, R.: Findenix.com (1999)
0.09
0.091110274 = product of:
0.3644411 = sum of:
0.3644411 = weight(_text_:helfen in 5010) [ClassicSimilarity], result of:
0.3644411 = score(doc=5010,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.85928214 = fieldWeight in 5010, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.09375 = fieldNorm(doc=5010)
0.25 = coord(1/4)
- Abstract
- An den Portalen klebt die Seuche. Die Suchmaschinen sind angeschlagen, finden zuviel, doch das ist paradoxerweise viel zu wenig. Helfen Herzschrittmacher im Kampf gegen Windmühlen?
-
Poschmann, A.; Kaltschmidt, H.: Tips für erfolgreiches Suchen (1999)
0.09
0.091110274 = product of:
0.3644411 = sum of:
0.3644411 = weight(_text_:helfen in 5029) [ClassicSimilarity], result of:
0.3644411 = score(doc=5029,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.85928214 = fieldWeight in 5029, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.09375 = fieldNorm(doc=5029)
0.25 = coord(1/4)
- Abstract
- Wer weiß, wie er suchen muß, gelangt im Web schneller ans Ziel. Unsere Tips helfen Ihnen bei der Recherche
-
Schneider, R.U.: Darf der Computer die Seminararbeit schreiben? (2023)
0.09
0.091110274 = product of:
0.3644411 = sum of:
0.3644411 = weight(_text_:helfen in 2170) [ClassicSimilarity], result of:
0.3644411 = score(doc=2170,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.85928214 = fieldWeight in 2170, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.09375 = fieldNorm(doc=2170)
0.25 = coord(1/4)
- Abstract
- Fast alle Studenten lassen sich bei schriftlichen Arbeiten von künstlicher Intelligenz helfen. Manche halten das für Betrug, andere für die Zukunft der Bildung.
-
Großmann, K.; Schaaf, T.: Datenbankbasiertes Dokumentenmanagementsystem im Versuchswesen (2001)
0.09
0.09091863 = product of:
0.18183726 = sum of:
0.060356893 = weight(_text_:und in 6868) [ClassicSimilarity], result of:
0.060356893 = score(doc=6868,freq=36.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.41585606 = fieldWeight in 6868, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6868)
0.12148037 = weight(_text_:helfen in 6868) [ClassicSimilarity], result of:
0.12148037 = score(doc=6868,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.28642738 = fieldWeight in 6868, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.03125 = fieldNorm(doc=6868)
0.5 = coord(2/4)
- Abstract
- Die Agrarproduktion wird in sehr komplexer Weise durch einen steten Wandel ihrer ökono-mischen und ökologischen Rahmenbedingungen beeinflusst. Aus diesem Prozess resultieren ständig neue Anforderungen an die Agrarforschung. Bei den Forschungs- und Untersuchungsarbeiten in der Pflanzen- und Tierproduktion, im Gartenbau und im Forstwesen nimmt dabei das Experiment eine zentrale Stelle ein. Der derzeitige Stand der Dokumentation und Präsentation von Ergebnissen der Versuchstätigkeit ist gekennzeichnet durch: - Die Existenz einer Vielzahl dezentraler Pools von Versuchsberichten, - hohe Aufwendungen für deren Publizierung, in der Regel im Selbstverlag, - steigende Versandkosten, - relativ kleiner Adressatenkreis, - nur punktuell webbasierte, statische Präsentationen, - kein umfassender Austausch und damit transparente Präsentation von Versuchsresultaten, - keine strukturiert unterstützte (Datenbank-)Recherche nach bestimmten Berichten/Dokumenten/Einrichtungen/Versuchskategorien usw. Das Projekt >Versuchsberichte im Internet< (VIP) soll für Einrichtungen der Beratung, Forschung, Lehre, Praxis und Verwaltung im Agrarbereich helfen, diese Mängel zu mindern und so einen Rationalisierungseffekt auslösen. Dieses Ziel soll im Einzelnen wie folgt realisiert werden: - Input der als verteilte Informationspools in Bund und Ländern vorliegenden Versuchsberichte in eine zentrale Dokumentendatenbank bei uneingeschränkter Verfügungsgewalt und vollen Urheberrechten der beteiligten Einrichtungen; - Bereitstellung einer Online-Lösung im Internet; - Integration eines Moduls für den internetgestützten Online-Input von Dokumenten; - Gewährleistung von Datenschutz; - Unterstützung des Versuchswesens in Bund und Ländern mit dem Ziel, Rationalisierungseffekte z. B. hinsichtlich der Versuchsplanung, Dokumentations- und Kommunikationsaufwendungen, Öffentlichkeitsarbeit, e-commerce zu erreichen. Über diese Funktionen hinaus werden in das Projekt weitere Informationspools, wie Adressen, bibliographische und wissenschaftliche Informationen, Diskussionslisten, Maps u. a. integriert. Entsprechend der föderalen Struktur der Bundesrepublik steht eine Beteiligung am Projekt allen interessierten Einrichtungen in Bund und Ländern offen
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Michelson, M.: Wirtschaftsinformation (2004)
0.09
0.09091863 = product of:
0.18183726 = sum of:
0.060356893 = weight(_text_:und in 3951) [ClassicSimilarity], result of:
0.060356893 = score(doc=3951,freq=36.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.41585606 = fieldWeight in 3951, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3951)
0.12148037 = weight(_text_:helfen in 3951) [ClassicSimilarity], result of:
0.12148037 = score(doc=3951,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.28642738 = fieldWeight in 3951, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.03125 = fieldNorm(doc=3951)
0.5 = coord(2/4)
- Abstract
- Unter "Wirtschaftsinformation" versteht man einerseits Informationen über das Wirtschaftsgeschehen, andererseits auch Informationenfür die "Wirtschaft". Während sich Privatleute, staatliche Institutionen und entsprechende Berufsgruppen (z.B. Journalisten, Wirtschaftsforscher) in der Regel mit dem wirtschaftlichen Geschehen allgemein befassen, bedeutet Wirtschaftsinformation für Unternehmen in erster Linie "Geschäftsinformation", Informationen also, die bei der zielorientierten Unternehmensführung, bei der Planung und Steuerung operativer Abläufe und bei der Beurteilung der Märkte und Marktchancen unterstützen. Der im angelsächsischen Sprachbereich gebräuchliche Begriff "Business Information" macht diesen Sachverhalt auch besser deutlich als der wenig spezifische deutsche Begriff "Wirtschaftsinformation". Nachfolgend wird Wirtschaftsinformation unter der Sicht der Unternehmensinformation betrachtet. Der Bedarf eines Unternehmens an Wirtschaftsinformation resultiert aus seinen Geschäfts- und Aufgabenfeldern, aus seiner Marktstrategie und aus den das Unternehmensumfeld beeinflussenden Faktoren politisch-gesetzlicher, ökonomischer, technologischer und sozio-kultureller Art. Wirtschaftsinformationen bieten die Grundlage für wirtschaftliches Handeln und Entscheiden. Sie sollen die Erkenntnis der wahrscheinlichen Entwicklung eines Sachverhaltes ermöglichen bzw die Auswirkungen bestimmter Entscheidungen oder Handlungen prognostizieren helfen. Die rechtzeitige Identifikation und Erschliessung von Marktpotentialen spielt eine wesentliche Rolle für die Sicherung von Wettbewerbsvorteilen und für die Festigung strategischer Marktpositionen. Neue Informations- und Kommunikationstechnologien machen Produkte und Leistungen auf dem Markt transparenter und vergleichbarer. In einem wettbewerbsintensiven Markt wird der Zugang zur richtigen Information zur richtigen Zeit um so bedeutender, je mehr Marktteilnehmer potentiell über die gleichen Informationen verfügen. Das Wissen über Absatzmärkte, Marktanteile, Wettbewerber, Kundensegmente und Kundenanforderungen ist ein entscheidender Wettbewerbsfaktor. Der schnelle und umfassende Zugriff auf benötigte Informationen ist in Unternehmen eine maßgebliche Voraussetzung für die Wettbewerbsfähigkeit. Neben den im operativen Geschäft und bei den betrieblichen Unterstützungsfunktionen anfallenden Daten sind es die öffentlich zugänglichen Informationen des externen Informationsmarktes, die einen wesentlichen Teil des Informationsbedarfs ausmachen.
- Source
- Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
-
Skulschus, M.; Wiederstein, M.: XSLT und XPath (2005)
0.09
0.09049158 = product of:
0.18098316 = sum of:
0.074687846 = weight(_text_:und in 4665) [ClassicSimilarity], result of:
0.074687846 = score(doc=4665,freq=72.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.5145956 = fieldWeight in 4665, product of:
8.485281 = tf(freq=72.0), with freq of:
72.0 = termFreq=72.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4665)
0.10629532 = weight(_text_:helfen in 4665) [ClassicSimilarity], result of:
0.10629532 = score(doc=4665,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.25062394 = fieldWeight in 4665, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.02734375 = fieldNorm(doc=4665)
0.5 = coord(2/4)
- Abstract
- Mit XSLT können XML-Dokumente in Formate wie HTML oder Text transformiert werden. Das Buch zeigt, wie Sie die Technik nutzen, um XML-Daten flexibel einzusetzen. Die Syntax und die praktische Arbeit mit XSLT und der Basistechnik für Transformationen, XPath, werden von den Autoren verständlich vorgestellt. Es wird gezeigt, wie Stylesheets erzeugt werden und XPath zur Adressierung benutzt wird. Dabei wird neben XPath 1.0 auch die neue Version 2.0 samt der Änderungen ausführlich beschrieben. Die Autoren gehen auf die unterschiedlichen Anforderungen ein, die bestimmte Ein- und Ausgabeformate mit sich bringen, darunter HTML, Text, CSS und XML. Das Buch wird mit einer XSLT-Referenz abgerundet, die die möglichen Elemente auflistet und ihre Funktion und Syntax kompakt erklärt. Zahlreiche Tipps, Hinweise und Beispiele lockern das Werk auf und helfen, die neu erlernten Kenntnisse schnell praktisch umzusetzen und dabei typische Einsteigerfehler zu vermeiden.
XSLT (eXtensible Stylesheet Language forTransformations) ist eine W3C-Syntax, die speziell für die Transformation von XML-Dokumenten geschaffen wurde. In diesem Buch werden die Versionen 1.0 und 2.0 behandelt. Mit XSLT können XML-Dokumente in Formate wie HTML, Text und andere XML-Formate transformiert werden. Diese Technologie lässt sich in (fast) allen Programmiersprachen und in vielen Datenbanken für die XMLVerarbeitung nutzen und stellt die beste Möglichkeit dar, aus mehreren Anwendungen heraus die gleiche Transformation aufzurufen. Dieses Buch stellt Ihnen die Syntax vor und erläutert Ihnen umfassend die Arbeitsweise mit XSLT und XPath 1.0 und 2.0. Nach einer Einführung in die Grundkonzepte gehen die Autoren direkt detailliert auf das Arbeiten mit Vorlagen und XPath ein. Im Folgenden werden alle Techniken ausführlich behandelt, die Sie für professionelle XML-Transformationen brauchen: Kontrollstrukturen, Parameter und Variablen, Sortieren und Gruppieren und Sonderarbeiten für verschiedene Ein-und Ausgabeformate. Zahlreiche Beispiele ermöglichen es Ihnen, die vorgestellten Techniken sofort nachzuvollziehen und anhand des im Internet verfügbaren Quellcodes selber zu bearbeiten. Zusätzlich werden alle neuen Techniken in Schema-Zeichnungen umgesetzt. Neben XSLT stellt dieses Werk auch die zweite Basistechnologie für Transformationen dar: XPath in der neuen Version 2.0. Mit dieserTechnik hat man die Möglichkeit, XML-Strukturen zu lokalisieren und auszuwählen. Beide Technologien gehören eng zusammen. Aus dem Inhalt: - Definition und Aufruf von Vorlagen, Vorlagen-Typen und -Alternativen - XPath: Adressierung, Lokalisierung, Filtern - Algorithmen: Kontrollstrukturen in XSLT und XPath - Auslagerung und Wiederverwendung mit globalen Parametern und eingebetteten Dateien - Einsatz von Parametern und Variablen - Sortieren, Nummerieren und Gruppieren - Unterschiedliche Algorithmen für unterschiedliche Daten-Modellierungen
- Content
- Das Buch wird ergänzt um 2 weitere Titel: Der zweite Band stellt die Syntax von XSL-FO 1.0 bzw. XSL 1.0 mit dem Titel Extensible Stylesheet Language (XSL), Version 1.0, W3C Recommendation 15 October 2001 unter http: //www. w3.org/TR/xs1/ dar. Sie lernen in diesem Band, wie Druckerzeugnisse wie z.B. PDF-Dateien aus XML-Daten erzeugt werden. Dies erfordert einen eigenen Standard mit einer Vielzahl an unterschiedlichen Elementen, um Seitenbereiche, Seitenverläufe, Text- und Absatzformate sowie zusätzliche Dokumenteigenschaften anzugeben wie Inhaltsverzeichnisse. Der dritte Band stellt keine besondere Syntax dar, sondern kombiniert die einzelnen vorgestellten Standards mit allgemeinen Techniken, die nur die Transformation betreffen, mit Ideen, wie XSLT-Anwendungen aufgebaut werden können, und solchen Techniken wie die Verwendung einer Datenbank, um XML- und sogar XSLT Daten abzuspeichern und dynamisch für Transformationsabläufe zusammenzusetzen.
-
XML & Co : Die W3C-Spezifikationen für Dokumenten- und Datenarchitektur (2002)
0.09
0.09006836 = product of:
0.18013673 = sum of:
0.058656357 = weight(_text_:und in 1197) [ClassicSimilarity], result of:
0.058656357 = score(doc=1197,freq=34.0), product of:
0.1451389 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06543981 = queryNorm
0.40413946 = fieldWeight in 1197, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1197)
0.12148037 = weight(_text_:helfen in 1197) [ClassicSimilarity], result of:
0.12148037 = score(doc=1197,freq=2.0), product of:
0.42412275 = queryWeight, product of:
6.481112 = idf(docFreq=184, maxDocs=44421)
0.06543981 = queryNorm
0.28642738 = fieldWeight in 1197, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.481112 = idf(docFreq=184, maxDocs=44421)
0.03125 = fieldNorm(doc=1197)
0.5 = coord(2/4)
- Abstract
- Das Buch ist vor allem für fortgeschrittene Programmierer und professionelle Webmaster geschrieben worden. Anfänger sollten sich zunächst mit der grundlegnden Syntax von XML & Co beschäftigen. Als Referenz und Ratgeber ist XML & Co in jeder Hinsicht zu empfehlen.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.13 (T. Weitzel): "Die Standards der XML-Familie sind nun auch in deutscher Übersetzung und Kommentierung verfügbar. Unter der Leitung von Stefan Mintert, der 1998 bereits die XML-Spezifikation selbst übersetzte, ist zusammen mit einem Team namhafter XML-Spezialisten und mit Unterstützung des deutsch-österreichischen W3C-Büros eine Sammlung aller wichtigen Specs aus der XML-Familie bei Addison-Wesley erschienen. Genauer gesagt handelt es sich um die kommentierten und übersetzten Versionen der Standards aus der W3C Activity Domain Architecture/XML, und zwar, in chronologischer Reihenfolge, XML, Namensräume, Verknüpfen von Stylesheets mit XML-Dokumenten, XPath, XSLT, XML Schema 0-3 (Einführung, Strukturen und Datentypen), XLink, XML Base und XML Information Set. Ziel des Projekts "edition W3C" war es, den Inhalt der jeweiligen Spezifikationen besser verständlich zu machen und so auch einen Beitrag zur Verbreitung der Standards zu leisten. Daher liegen die Übersetzungen nicht nur in Buchform vor, sondern sind sie über das normative Original hinaus in unterschiedlichem Umfang durch die jeweiligen Experten kommentiert. Insbesondere XPath ist so ausführlich und liebevoll mit vielen Erläuterungen und Abbildungen versehen, dass eine analoge Behandlung etwa der Schema-Specs sicherlich den Rahmen des Buchs gesprengt hätte. Das erhoffte Feedback auf die unterschiedlichen Übersetzungen und Kommentierungen soll helfen, das geplante zweite Buch der edition W3C-Reihe zu XHTML und CSS an den Leserwünschen auszurichten. Interessant ist, dass das Buch selbst in XML erstellt wurde (XMLspec-DTD). Wie schon in "XML in der Praxis" (zusammen mit Henning Behme) hat Stefan Mintert für die edition W3C in lehrbuchmäßiger Cross-Media-Manier XML eingesetzt. So konnte beispielsweise das Stichwortverzeichnis (www.edition-w3c.de/ gesamtindex.html) direkt per Single Source aus den jeweiligen Spezifikationen generiert werden. Eine Besonderheit des 1999 initiierten Projekts liegt darin, dass es sich um die einzige durch das W3C legitimierte PrintPublikation überhaupt handelt, nachdem 1997 das WWW Journal (W3J) bei O'Reilly eingestellt wurde. Darüber hinaus ist die edition W3 C das einzige offizielle, also vom örtlichen W3C-Büro unterstützte, Übersetzungsprojekt. Bedenkt man, dass das W3C-neben Boston-Sitze in Frankreich und Japan hat, stellt sich die Frage, ob dort Übersetzungen nicht noch viel stärker nachgefragt werden könnten und somit auch zur weiteren Durchsetzung der XML-Familie beitragen könnten. Die Übersetzungen sind, allerdings ohne Kommentierungen, auch über die Website des Projekts bei www.edition-w3c.de/ verlinkt. Dort gibt es auch weitere Übersetzungen, etwa zu XHTML oder CSS L2."