-
D'Avis, W.: Geisteswissenschaftliche Grundlagen der Naturwissenschaften : eine Kritik des Szientismus (2019)
0.07
0.06893125 = product of:
0.1378625 = sum of:
0.037327714 = weight(_text_:und in 990) [ClassicSimilarity], result of:
0.037327714 = score(doc=990,freq=8.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.29405463 = fieldWeight in 990, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=990)
0.10053478 = weight(_text_:html in 990) [ClassicSimilarity], result of:
0.10053478 = score(doc=990,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.34123653 = fieldWeight in 990, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.046875 = fieldNorm(doc=990)
0.5 = coord(2/4)
- Abstract
- Das Buch ist der Versuch, die Dichotomie zwischen Geistes- und Naturwissenschaften mit einer allgemeinen Theorie des Geistes zu überwinden. Auf diesem Hintergrund wird u.a. gezeigt, dass Adorno und Habermas theoretische Schnittmengen mit Einstein und Heisenberg haben, die in den bisherigen Debatten übersehen wurden. M.a.W.: Dass man mit Elektronen nicht reden kann, schließt eine methodologische Einheit nicht aus.
- Content
- "Hier wird gleichermaßen präzise wie fachlich fundiert nachgewiesen, dass geistige Prozesse zwar neuronale Grundlagen benötigen, aber nicht auf sie zurückgeführt werden können. Mit einem semantisch basierten Kognitionsmodell vollzieht der Autor auch in den Diskussionen über die Einheit der Wissenschaften einen Paradigmenwechsel, mit Folgen bis in die KI-Forschung." (Prof. Dr. med. B. Fischer) Vgl. auch: D'Avis, W.: Denkende Maschinen. [27. September 2020]. In: https://www.heise.de/tp/features/Denkende-Maschinen-4910957.html?seite=all.
- Series
- Gesellschaftsforschung und Kritik
-
Strötgen, R.; Kokkelink, S.: Metadatenextraktion aus Internetquellen : Heterogenitätsbehandlung im Projekt CARMEN (2001)
0.07
0.06882845 = product of:
0.1376569 = sum of:
0.05387792 = weight(_text_:und in 6808) [ClassicSimilarity], result of:
0.05387792 = score(doc=6808,freq=24.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.42443132 = fieldWeight in 6808, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=6808)
0.083778985 = weight(_text_:html in 6808) [ClassicSimilarity], result of:
0.083778985 = score(doc=6808,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.28436378 = fieldWeight in 6808, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0390625 = fieldNorm(doc=6808)
0.5 = coord(2/4)
- Abstract
- Die Sonderfördermaßnahme CARMEN (Content Analysis, Retrieval and Metadata: Effective Networking) zielt im Rahmen des vom BMB+F geförderten Programms GLOBAL INFO darauf ab, in der heutigen dezentralen Informationsweit geeignete Informationssysteme für die verteilten Datenbestände in Bibliotheken, Fachinformationszentren und im Internet zu schaffen. Diese Zusammenführung ist weniger technisch als inhaltlich und konzeptuell problematisch. Heterogenität tritt beispielsweise auf, wenn unterschiedliche Datenbestände zur Inhaltserschließung verschiedene Thesauri oder Klassifikationen benutzen, wenn Metadaten unterschiedlich oder überhaupt nicht erfasst werden oder wenn intellektuell aufgearbeitete Quellen mit in der Regel vollständig unerschlossenen Internetdokumenten zusammentreffen. Im Projekt CARMEN wird dieses Problem mit mehreren Methoden angegangen: Über deduktiv-heuristische Verfahren werden Metadaten automatisch aus Dokumenten generiert, außerdem lassen sich mit statistisch-quantitativen Methoden die unterschiedlichen Verwendungen von Termen in den verschiedenen Beständen aufeinander abbilden, und intellektuell erstellte Crosskonkordanzen schaffen sichere Übergänge von einer Dokumentationssprache in eine andere. Für die Extraktion von Metadaten gemäß Dublin Core (v. a. Autor, Titel, Institution, Abstract, Schlagworte) werden anhand typischer Dokumente (Dissertationen aus Math-Net im PostScript-Format und verschiedenste HTML-Dateien von WWW-Servern deutscher sozialwissenschaftlicher Institutionen) Heuristiken entwickelt. Die jeweilige Wahrscheinlichkeit, dass die so gewonnenen Metadaten korrekt und vertrauenswürdig sind, wird über Gewichte den einzelnen Daten zugeordnet. Die Heuristiken werden iterativ in ein Extraktionswerkzeug implementiert, getestet und verbessert, um die Zuverlässigkeit der Verfahren zu erhöhen. Derzeit werden an der Universität Osnabrück und im InformationsZentrum Sozialwissenschaften Bonn anhand mathematischer und sozialwissenschaftlicher Datenbestände erste Prototypen derartiger Transfermodule erstellt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Wollschläger, T.: ¬Die aktuelle Abgabepraxis von Online-Hochschulschriften an den deutschen Hochschulen (2003)
0.07
0.06802623 = product of:
0.13605246 = sum of:
0.041267347 = weight(_text_:und in 743) [ClassicSimilarity], result of:
0.041267347 = score(doc=743,freq=22.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.32508966 = fieldWeight in 743, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=743)
0.09478511 = weight(_text_:html in 743) [ClassicSimilarity], result of:
0.09478511 = score(doc=743,freq=4.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.3217209 = fieldWeight in 743, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.03125 = fieldNorm(doc=743)
0.5 = coord(2/4)
- Abstract
- Die DFG fördert seit dem 1. Januar 2003 ein Projekt zum "Aufbau einer Koordinierungsstelle für elektronische Hochschulschriften", um nötige Weiterentwicklungen anzuregen, die die Ergebnisse des Projekts "Dissertationen Online" auf dem Stand der Technik halten, und um ein Kompetenznetzwerk aufzubauen. Das Projekt beinhaltet u.a. eine Analyse zur Infrastruktur im Bereich Online-Dissertationen an den deutschen Hochschulen mit Vergleichen von Promotionsordnungen, Geschäftsgängen, Online-Angeboten und -Portalen. Mit den daraus gewonnenen Ergebnissen wird ein interaktives Informationssystem aufgebaut und die Empfehlungen für Promovenden, Fachbereiche, Bibliotheken werden ergänzt und erweitert werden. Für die Klärung rechtlicher Fragen wird projektbegleitend in Werkverträgen gesorgt. Als Ergebnis des Projekts sollen Vorschläge zu einem einheitlichen, praktikablen Verfahren DissOnline in Deutschland stehen, die mit Fachbereichen, Rechenzentren und Bibliotheken diskutiert und abgestimmt werden. Zu Umsetzung des ersten Teils des Projektes, der Analyse zur Infrastruktur, hat die Koordinierungsstelle DissOnline an Der Deutschen Bibliothek im März 2003 zwei Umfragen gestartet. Eine richtete sich an alle Hochschulen, die potenziell Online-Dissertationen abliefern können, eine zweite an die Promovenden. Zwar lagen der Koordinierungsstelle DissOnline bereits umfangreiche Erfahrungen durch die laufende Betreuung des Workflows für Online-Hochschulschriften zwischen den Hochschulbibliotheken und Der Deutschen Bibliothek sowie durch umfangreiche Eigenrecherchen zu Beginn des Projekts vor. Jedoch sollten durch die Umfrage bei den Hochschulen das oft schwer überschaubare Verhältnis zwischen Regelungen, Abgabemöglichkeiten und dem tatsächlichen Abgabegrad an den einzelnen Fachbereichen der jeweiligen Hochschulen geklärt sowie ermittelt werden, in welchem Umfang bereits Maßnahmen zur Förderung des elektronischen Publizierens getroffen wurden und wo möglicherweise noch Unterstützung angebracht wäre. Die Promovenden-Umfrage richtete sich sowohl an Doktoranden, die eine Online-Dissertation eingereicht hatten bzw. gerade dabei waren, als auch an solche, welche die Print-Variante gewählt hatten. Durch diese Umfrage sollte ermittelt werden, inwieweit die Promovenden zur Online-Abgabe angeregt wurden, welche Möglichkeiten ihnen bezüglich Abgabe-Modalitäten und formaler Eigenschaften der Online-Publikation zur Verfügung standen und wie die bestehenden Möglichkeiten von den Promovenden auch wahrgenommen wurden. Für Interessierte stehen die Fragebogen-Formulare unter <http:www.dissonline.de/html/umfrage-promovend.pdf> bzw. <http:www.dissonline.de/html/umfrage-hochschule.pdf> zum Ausdrucken zur Verfügung.
-
Henze, V.; Junger, U.; Mödden, E.: Grundzüge und erste Schritte der künftigen inhaltlichen Erschliessung von Publikationen in der Deutschen Nationalbibliothek (2017)
0.07
0.06802623 = product of:
0.13605246 = sum of:
0.041267347 = weight(_text_:und in 4772) [ClassicSimilarity], result of:
0.041267347 = score(doc=4772,freq=22.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.32508966 = fieldWeight in 4772, product of:
4.690416 = tf(freq=22.0), with freq of:
22.0 = termFreq=22.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4772)
0.09478511 = weight(_text_:html in 4772) [ClassicSimilarity], result of:
0.09478511 = score(doc=4772,freq=4.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.3217209 = fieldWeight in 4772, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.03125 = fieldNorm(doc=4772)
0.5 = coord(2/4)
- Abstract
- Die parallele Verbreitung von analogen und digitalen Informationen führt zu einer stetig ansteigenden Menge neu erscheinender Publikationen. Die Auswertungsmöglichkeiten digitaler Inhalte, die Kooperationsmöglichkeiten durch das Internet sowie die Entwicklung technischer Verfahren, Inhalte miteinander vernetzen und thematisch in Beziehung setzen zu können, lassen Raum, bibliothekarische Erschließungsverfahren neu zu denken. Erschließung muss dabei nicht mehr als einmaliger abgeschlossener Vorgang, sondern kann als zyklisches Verfahren betrachtet werden, bei dem Erschließungsdaten immer wieder verändert und aktualisiert werden. Im Strategischen Kompass 2025 der Deutschen Nationalbibliothek, der im vergangenen Jahr erschienen ist, wird die Neuausrichtung der inhaltlichen Erschließung mittels maschineller Verfahren im Grundsatz skizziert (Strategischer Kompass 2025, S. 5). Dieser strategischen Festlegung gingen fachliche Diskussionen sowohl hausintern als auch in den Gremien der Deutschen Nationalbibliothek voraus, im Erschließungskonzept 2015 ist die Entwicklung bereits kurz beschrieben. Von externen Kolleginnen und Kollegen kam immer wieder die Aufforderung an die Deutsche Nationalbibliothek, sich hier stärker einzubringen und zu engagieren. In den Strategischen Prioritäten 2017-2020 wurden daher entsprechende Ziele formuliert, die bei der Erschließung sowohl der digitalen als auch der analogen Publikationen zum Tragen kommen sollen.
Bisher war die intellektuelle inhaltliche Erschließung nur auf einen Teil des Bibliothekszugangs, insbesondere gedruckte monografische Werke und Zeitschriftentitel, beschränkt. Für Online-Publikationen hat die DNB 2010 die Grundsatzentscheidung getroffen, diese nicht mehr intellektuell zu erschließen, sondern die Metadaten der Ablieferer nachzunutzen und maschinelle Verfahren zu entwickeln, um solche Publikationen zum Beispiel mit inhaltserschließenden Daten anzureichern. Dies wird seitdem praktiziert. Durch das enorme Anwachsen des digitalen Zugangs wird der Anteil intellektuell erschlossener Publikationen in Relation zu maschinell erstellten Daten immer geringer. Damit geht das Problem einher, dass die Heterogenität zunimmt und der thematische Zugriff auf Daten und damit Publikationen erschwert wird. Diesem Umstand will die Deutsche Nationalbibliothek durch den Umstieg auf automatische Inhaltserschließungsverfahren für alle Medienwerke entgegentreten. Im Sinne des oben genannten veränderten Verständnisses von Erschließung als zyklischem Vorgang können die maschinell entstandenen Metadaten zu jedem späteren Zeitpunkt erweitert und damit verbessert werden. Eine Metadatencodierung für den Datensatz oder die einzelnen Informationsanteile gibt Auskunft über deren Status. Identifikatoren für den Datensatz oder für einzelne Informationsanteile, wie zum Beispiel GND- oder WV-Identnummern dienen der Nachnutzung.
- Content
- Vgl. auch: Ceynowa, K.: In Frankfurt lesen jetzt zuerst Maschinen. Unter: http://www.faz.net/aktuell/feuilleton/buecher/maschinen-lesen-buecher-deutsche-nationalbibliothek-setzt-auf-technik-15128954.html?printPagedArticle=true#pageIndex_2.
- Source
- http://www.dnb.de/DE/Erwerbung/Inhaltserschliessung/grundzuegeInhaltserschliessungMai2017.html
-
Barlow, L.: ¬The spider's apprentice : how to use Web search engines (1997)
0.07
0.06702319 = product of:
0.26809275 = sum of:
0.26809275 = weight(_text_:html in 7533) [ClassicSimilarity], result of:
0.26809275 = score(doc=7533,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.9099641 = fieldWeight in 7533, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.125 = fieldNorm(doc=7533)
0.25 = coord(1/4)
- Source
- http://www.monash.com/spidap4.html
-
Raggett, D.: ¬A review of the HTML plus document format (1994)
0.07
0.06702319 = product of:
0.26809275 = sum of:
0.26809275 = weight(_text_:html in 1567) [ClassicSimilarity], result of:
0.26809275 = score(doc=1567,freq=8.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.9099641 = fieldWeight in 1567, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0625 = fieldNorm(doc=1567)
0.25 = coord(1/4)
- Abstract
- HTML plus is a set of modular extensions to the hypertext markup language which is in widespread use in WWW. The use of SGML to specify HTML plus allows authors to create documents in a variety of ways: with text editors, SGML, authorizing tools and filters from common word processing formats like Framemaker, Microsoft Word and LaTeX. Looks at extensions under current consideration and encourages wider debate on which is needed to fuel the next stage in the development of the Web
- Object
- HTML
-
Paoli, J.: Extending the Web's tag set using SGML : authoring new tags with Grif Symposia (1996)
0.07
0.06702319 = product of:
0.26809275 = sum of:
0.26809275 = weight(_text_:html in 5581) [ClassicSimilarity], result of:
0.26809275 = score(doc=5581,freq=8.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.9099641 = fieldWeight in 5581, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0625 = fieldNorm(doc=5581)
0.25 = coord(1/4)
- Abstract
- Discusses the advantages of using a mixed HTML/SGML data model for the WWW. The Grif Symposia has developed an integrated authoring browsing environment with full extensible capabilities to handle mixed HTML/SGML data models. Presents the different layers developed for the Grif Symposia and highlights the advantages of authoring in a mixed SGML/HTML environment
- Object
- HTML
-
Wusteman, J.: Whither HTML? (2004)
0.07
0.06702319 = product of:
0.26809275 = sum of:
0.26809275 = weight(_text_:html in 2001) [ClassicSimilarity], result of:
0.26809275 = score(doc=2001,freq=8.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.9099641 = fieldWeight in 2001, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0625 = fieldNorm(doc=2001)
0.25 = coord(1/4)
- Abstract
- HTML has reinvented itself as an XML application. The working draft of the latest version, XHTML 2.0, is causing controversy due to its lack of backward compatibility and the deprecation - and in some cases disappearance - of some popular tags. But is this commotion distracting us from the big picture of what XHTML has to offer? Where is HTML going? And is it taking the Web community with it?
- Object
- HTML
-
Hehl, H.: Verknüpfung von MathDatabase mit elektronischen Aufsätzen und Verbundkatalogen : ¬Das Linksystem Math-Link (2001)
0.07
0.06643077 = product of:
0.13286154 = sum of:
0.032326754 = weight(_text_:und in 735) [ClassicSimilarity], result of:
0.032326754 = score(doc=735,freq=6.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.25465882 = fieldWeight in 735, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=735)
0.10053478 = weight(_text_:html in 735) [ClassicSimilarity], result of:
0.10053478 = score(doc=735,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.34123653 = fieldWeight in 735, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.046875 = fieldNorm(doc=735)
0.5 = coord(2/4)
- Abstract
- Math-Link ist eines der in das Multisuchsystem E-Connect integrierten Linksysteme, die Datenbanken mit verfügbaren E-Zeitschriften bzw. den Standortnachweisen der zuständigen Verbundkataloge verknüpfen. In diesem Fall besteht eine Verknüpfung der Datenbank MathDatabase mit den E-Zeitschriften verschiedener Bibliotheken sowie mit den deutschen Verbundkatalogen. Math-Link ist wie die anderen Linksysteme ein mit JavaScript erstelltes und mit einem Webformular verbundenes Programm, das unabhängig von MathDatabase in einem besonderen Frame wie hier oder einem eigenen Browserfenster läuft. Der Zugriff auf die von MathDatabase angezeigten Suchergebnisse erfolgt nicht direkt, sondern lediglich von außen her durch Einfügen der vorher insgesamt markierten und kopierten Webseiten dieser Suchergebnisse in das Formulareingabefeld des Linksystems. Math-Link existiert in zwei Versionen. Eine inzwischen etwas veraltete Version ist auf das HTML-Format der Datanbankanzeige, eine neue Version auf das Ascii-Format eingestellt. Diese neue Version soll hier vorgestellt werden.
-
Pany, T.: Google-Grenzerfahrung (2005)
0.07
0.06643077 = product of:
0.13286154 = sum of:
0.032326754 = weight(_text_:und in 5699) [ClassicSimilarity], result of:
0.032326754 = score(doc=5699,freq=24.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.25465882 = fieldWeight in 5699, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=5699)
0.10053478 = weight(_text_:html in 5699) [ClassicSimilarity], result of:
0.10053478 = score(doc=5699,freq=8.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.34123653 = fieldWeight in 5699, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0234375 = fieldNorm(doc=5699)
0.5 = coord(2/4)
- Content
- "Hossein Derakhshan ("Hoder") ist eine Internet-Berühmtheit, ein www-VIP. Von ihm gingen entscheidende Impulse aus, die zur Gründung der famosen iranischen Blogosphäre (vgl. "Ich möchte kotzen, zerspringen, explodieren" (1)) geführt haben. Der gebürtige Iraner Derakhshan betreibt seinen Blog - Editor:myself (2) (englisch, persisch hier (3) - von Toronto/Kanada aus, wohin er vor einigen Jahren ausgewandert ist, da ihm seine Arbeit als Journalist, der sich offen für die Reformbewegung in Iran aussprach, dort zu riskant wurde. Seine Blog-Einträge werfen sporadische, kurze und erhellende Schlaglichter auf bemerkenswerte Entwicklungen in der iranischen Politik; besonders aufmerksam ist Hoder natürlich für Tendenzen, die sich im Umgang mit den publizistischen Möglichkeiten des Internet zeigen. Sein "Fachgebiet" sind die Blogs: für ihn wichtige "Fenster" und "Brücken" zwischen den verschiedenen Welten. Es gibt wohl kaum eine wichtige Veranstaltung, die sich mit Blogs beschäftigt, zu der Hossein Derakshan nicht eingeladen ist (vgl. Bestes Blog der Welt (4)).
A sad but real story Entsprechend viel ist Hoder unterwegs. Im November war er in Paris, Barcelona, Tunis mit einem Zwischenaufenthalt in Deutschland. Nachzulesen sind diese Stationen in seinem Blog, eigentlich keine bemerkenswerte Info, ebenso wenig wie die Mitteilung, dass er sich für eine Weile in New York aufhalte. Über so etwas gibt man halt seinen treuen Lesern Bescheid. Jetzt gewann Hoder zwei neue Leser hinzu, die alles, was er in den letzten Monaten zu berichten hatte, mit großer Neugier, stundenlang intensiv verfolgten und er ist alles andere als glücklich darüber: "a sad but real story". Hoder war im Bus von Toronto nach New York City unterwegs, der Bus wurde an der Grenze zwischen Kanada und den USA aufgehalten. Als zwei Beamte der US Customs and Border Security von Hoder erfuhren, dass er zu einer Blogger-Konferenz (ConvergeSouth) in den Staaten unterwegs sei, wurden sie neugierig. Vor seinen Augen googelten sie seinen Namen und fanden seinen Blog. Einer der beiden, so Hoder, las jeden seiner Einträge sorgfältig, es dauert nicht lange, bis er etwas fand, dass ihn mehr als alles andere interessierte: --You live in New York, right? That's what you've written in your on blog.--
Überrascht, dass sich jetzt auch Grenzbeamten die Informationen über Besucher von Google holten, und etwas verwirrt darüber, mit welcher ernsthafter Gewichtung seine Blogeinträge jetzt auf ihn zurückkamen, gab Hoder zu, dass er sich einige Zeit in New York aufgehalten habe, weil dort Konferenzen stattfanden, und dies in seinem Blog schrieb, nicht zuletzt deswegen, weil es Spaß machte, so etwas hinzuschreiben: In New York zu leben sei doch sexier als in Toronto, don't you think? Der Grenzbeamte wurde "ekstatisch", suchte weiter und fand im Archiv des Blogs eine Stelle, wo sich Hoder über die Gefahren lustig machte, die ihm bei seinem diesjährigen Besuch in Iran tatsächlich bevorstanden (vgl. Zweierlei Iran (5)). In dem Posting hatte er seine Leser (scherzhaft) davor gewarnt, dass die iranischen Grenzer bei Verhören herausfinden könnten, dass er mit Drogen handle und Geld von der CIA bekäme. Für den amerikanischen Grenzbeamten war dies - "So you are getting money from the Bush administration" - das Stichwort, um, berauscht von dieser Fahndungsquelle, online nach weiteren Spuren zu suchen, die bestätigten, dass Derakhshan illegal Geld in den USA verdienen würde und dass er sich dort einen unerlaubten ständigen Wohnsitz halte. Zwar gelang es dem Exil-Iraner den Grenzpolizisten davon zu überzeugen, dass der CIA-Eintrag witzig gemeint war, doch der nahm aber andere Einträge, wie eben die über Konferenzen in den USA, bei denen man doch Geld verdiene, ernst und schließlich gab eine Newsweek-Ausgabe, die sich in Hoders Gepäck befand und eine New Yorker Adresse für Hossein Derakhshan hatte ("Ich wollte keine Nummer versäumen") den Ausschlag. In den nächsten sechs Monaten darf Hoder nicht mehr in die USA einreisen. So kam die Pein am Ende von der Seite, von welcher er es am wenigsten befürchtet hatte. Sein Besuch in Iran nämlich hatte keine unangenehmen Konsequenzen gehabt."
(1) http://www.telepolis.de/r4/artikel/21/21209/1.html (2) http://www.hoder.com/weblog/ (3) http://i.hoder.com/ (4) http://www.telepolis.de/r4/artikel/21/21401/1.html (5) http://www.telepolis.de/r4/artikel/20/20295/1.html
- Source
- http://www.telepolis.de/r4/artikel/21/21435/1.html
-
Briggs, G.; Scheutz, M.: Befehlsverweigerung durch Roboter (2017)
0.07
0.06643077 = product of:
0.13286154 = sum of:
0.032326754 = weight(_text_:und in 4779) [ClassicSimilarity], result of:
0.032326754 = score(doc=4779,freq=6.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.25465882 = fieldWeight in 4779, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=4779)
0.10053478 = weight(_text_:html in 4779) [ClassicSimilarity], result of:
0.10053478 = score(doc=4779,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.34123653 = fieldWeight in 4779, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.046875 = fieldNorm(doc=4779)
0.5 = coord(2/4)
- Abstract
- Künstliche Intelligenzen, welche die Menschheit vernichten wollen, liefern zwar guten Filmstoff. Viel realistischer und damit gefährlicher sind jedoch Roboter, die einen Auftrag missverstehen - oder von böswilligen Befehlshabern instruiert werden. Bericht über ein Experiment, in dem ein Roboter lernen muss, einem Menschen zu vertrauen, wenn er dem Roboter sagt, er solle ruhig von der Tischplatte springen, weil der Mensch ihn auffängt.
- Content
- "Dass Maschinen mit überlegenen Geistesgaben die Weltherrschaft übernehmen, ist zurzeit nicht eines unserer vorrangigen Probleme - aber dass Roboter mit rudimentärer künstlicher Intelligenz Menschen, Sachen, die Umwelt oder sich selbst schädigen, durchaus. Dabei ist das größte Problem nicht die Fehlbarkeit der Roboter, sondern die ihrer menschlichen Erbauer und Befehlsgeber. Menschen machen Fehler. Sie geben falsche oder missverständliche Anweisungen, sind unaufmerksam oder versuchen, die Maschinen für ihre Absichten zu missbrauchen. Wegen unserer eigenen Schwächen müssen wir den Robotern beibringen, wann und wie sie Nein zu sagen haben." Vgl. auch den Beitrag "Rojas, P.: Die Tugend des Roboters" unter: https://www.heise.de/tp/features/Die-Tugend-des-Roboters-3798701.html.
-
Reichert, B.; Wahlster, W.: Künstliche Intelligenz als Hilfswissenschaftler : KI revolutioniert die Forschung (2018)
0.07
0.06643077 = product of:
0.13286154 = sum of:
0.032326754 = weight(_text_:und in 433) [ClassicSimilarity], result of:
0.032326754 = score(doc=433,freq=6.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.25465882 = fieldWeight in 433, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=433)
0.10053478 = weight(_text_:html in 433) [ClassicSimilarity], result of:
0.10053478 = score(doc=433,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.34123653 = fieldWeight in 433, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.046875 = fieldNorm(doc=433)
0.5 = coord(2/4)
- Abstract
- KI kann die Forschung nicht nur beschleunigen, sondern auch die Qualität verbessern, sagt der Chef des Deutschen Forschungszentrums für Künstliche Intelligenz. Nach dem Einzug in Fabriken, Büros, Autos und Wohnungen kommt Künstliche Intelligenz (KI) jetzt auch zunehmend in die Forschungslabore. Immer mehr Wissenschaftler nutzten Roboter oder digitale Assistenzsysteme, um Routinearbeiten bei Recherchen und Analysen sowie Experimente zu erledigen, sagte der Chef des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), Professor Wolfgang Wahlster, der Deutschen Presse-Agentur in Saarbrücken. Dies revolutioniere nicht nur das wissenschaftliche Arbeiten: "Es bietet auch die Chance, eine neue, bislang unerreichte Qualitätsstufe in der Forschung zu erklimmen", sagte der 65-Jährige. [Zusammenfassung eines Interviews]. Enthält ein Bild, das einen Roboter vor einer Tafel mit völlig Zusammenhang losen, teilweise trivialen Formeln zeigt.
- Content
- Darin auch die Aussage: ""Durch KI kann der Wissenschaftler nicht ersetzt werden." Bei diesen Systemen handele es sich um "hochgezüchtete Spezialisten". "Natürlich muss der Mensch weiterhin die Theorie dahinter entwickeln." Forschung auf KI-Basis sei vor allem in der Mathematik, Informatik, den Naturwissenschaften und der Technik ein Thema.". Vgl.: http://www.heise.de/-4158507.
- Source
- https://www.heise.de/newsticker/meldung/Kuenstliche-Intelligenz-als-Hilfswissenschaftler-KI-revolutioniert-die-Forschung-4158507.html
-
Weber, S.: ¬Die Automatisierung der Inhalte-Erstellung (2018)
0.07
0.06643077 = product of:
0.13286154 = sum of:
0.032326754 = weight(_text_:und in 565) [ClassicSimilarity], result of:
0.032326754 = score(doc=565,freq=6.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.25465882 = fieldWeight in 565, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=565)
0.10053478 = weight(_text_:html in 565) [ClassicSimilarity], result of:
0.10053478 = score(doc=565,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.34123653 = fieldWeight in 565, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.046875 = fieldNorm(doc=565)
0.5 = coord(2/4)
- Abstract
- KI als Autor von Content: "Als ich das zum ersten Mal sah, dachte ich: Was zur Hölle ist das?" ( Ein Nutzer berichtet in der Dokumentation "Inside Google" über seine Reaktion auf das für ihn erste automatisch generierte Fotoalbum von Google Photos) - "Kopieren, Programmieren, Automatisieren sind die neuen [.] Werkzeuge. (Kenneth Goldsmith, Klappentext zu "Uncreative Writing") Weshalb staunte der versierte App-Nutzer? Die Google Photos-App hat automatisch eine Bildergalerie von Fotos seines jüngsten Urlaubs produziert. Wie aus dem Nichts war sie da, ungefragt: Ein- und auszoomende Urlaubsbilder, die Übergänge zum Teil mit Effekten, wie wir sie von PowerPoint kennen. Die Google-App hat alle Bilder geolokalisiert, die Reiseroute rekonstruiert und Datumsangaben ergänzt. Schließlich unterlegte sie das Ganze mit der üblichen Einheitsmusik, die wir von Abertausenden anderen Videos im Netz kennen.
- Content
- Dieser Artikel ist eine leicht überarbeitete Fassung von Kapitel 2 des Buchs "Roboterjournalismus, Chatbots & Co. Wie Algorithmen Inhalte produzieren und unser Denken beeinflussen", erschienen am 19.11.2018 in der Heise-Reihe "Telepolis". Mit einer Liste von Anbietern. Vgl. auch: http://www.heise.de/_]4228345.
- Source
- https://www.heise.de/tp/features/Die-Automatisierung-der-Inhalte-Erstellung-4228345.html?view=print
-
Rötzer, F.: Bindestriche in Titeln von Artikeln schaden der wissenschaftlichen Reputation (2019)
0.07
0.06643077 = product of:
0.13286154 = sum of:
0.032326754 = weight(_text_:und in 697) [ClassicSimilarity], result of:
0.032326754 = score(doc=697,freq=6.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.25465882 = fieldWeight in 697, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=697)
0.10053478 = weight(_text_:html in 697) [ClassicSimilarity], result of:
0.10053478 = score(doc=697,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.34123653 = fieldWeight in 697, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.046875 = fieldNorm(doc=697)
0.5 = coord(2/4)
- Abstract
- Wissenschaftler wollen herausgefunden haben, dass das wichtige Ranking nach Zitierhäufigkeit und dem Journal Impact Factor fehlerhaft ist. Man sollte ja denken, dass Programme, seien sie nun KI-gestützt oder nicht, vorurteilslos nach bestimmten Kriterien etwa ein Ranking erstellen können. Aber es kommen immer wieder unbedachte Einflüsse ins Spiel, die lange Zeit unbemerkt bleiben können. Bei KI-Programmen ist in letzter Zeit klar geworden, dass die Datenauswahl eine verzerrende Rolle spielen kann, die zu seltsamen Ergebnissen führt.
- Content
- "Aber warum werden Titel mit Bindestrichen weniger häufig zitiert? Die Wissenschaftler vermuten, dass Autoren, wenn sie einen Artikel zitieren, möglicherweise übersehen, Bindestriche anzugeben. Dann kann in den Datenbanken keine Verlinkung mit dem Artikel mit Bindestrichen im Titel hergestellt werden, weswegen der Zitationsindex falsch wird. Das Problem scheint sich bei mehreren Bindestrichen zu verstärken, die die Irrtumshäufigkeit der Menschen erhöhen. Dass die Länge der Titel etwas mit der Zitationshäufigkeit zu tun hat, bestreiten die Wissenschaftler. Längere Titel würden einfach mit höherer Wahrscheinlichkeit mehr Bindestriche enthalten - und deswegen weniger häufig wegen der Bindestrichfehler zitiert werden. Und Artikel mit Bindestrichen sollen auch den JIF von Wissenschaftsjournalen senken."
- Source
- https://www.heise.de/tp/features/Bindestriche-in-Titeln-von-Artikeln-schaden-der-wissenschaftlichen-Reputation-4456177.html
-
Qualität in der Inhaltserschließung (2021)
0.07
0.065838344 = product of:
0.13167669 = sum of:
0.0646535 = weight(_text_:und in 1754) [ClassicSimilarity], result of:
0.0646535 = score(doc=1754,freq=54.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.5093176 = fieldWeight in 1754, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1754)
0.06702319 = weight(_text_:html in 1754) [ClassicSimilarity], result of:
0.06702319 = score(doc=1754,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.22749102 = fieldWeight in 1754, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.03125 = fieldNorm(doc=1754)
0.5 = coord(2/4)
- Abstract
- Der 70. Band der BIPRA-Reihe beschäftigt sich mit der Qualität in der Inhaltserschließung im Kontext etablierter Verfahren und technologischer Innovationen. Treffen heterogene Erzeugnisse unterschiedlicher Methoden und Systeme aufeinander, müssen minimale Anforderungen an die Qualität der Inhaltserschließung festgelegt werden. Die Qualitätsfrage wird zurzeit in verschiedenen Zusammenhängen intensiv diskutiert und im vorliegenden Band aufgegriffen. In diesem Themenfeld aktive Autor:innen beschreiben aus ihrem jeweiligen Blickwinkel unterschiedliche Aspekte zu Metadaten, Normdaten, Formaten, Erschließungsverfahren und Erschließungspolitik. Der Band versteht sich als Handreichung und Anregung für die Diskussion um die Qualität in der Inhaltserschließung.
- Content
- Inhalt: Editorial - Michael Franke-Maier, Anna Kasprzik, Andreas Ledl und Hans Schürmann Qualität in der Inhaltserschließung - Ein Überblick aus 50 Jahren (1970-2020) - Andreas Ledl Fit for Purpose - Standardisierung von inhaltserschließenden Informationen durch Richtlinien für Metadaten - Joachim Laczny Neue Wege und Qualitäten - Die Inhaltserschließungspolitik der Deutschen Nationalbibliothek - Ulrike Junger und Frank Scholze Wissensbasen für die automatische Erschließung und ihre Qualität am Beispiel von Wikidata - Lydia Pintscher, Peter Bourgonje, Julián Moreno Schneider, Malte Ostendorff und Georg Rehm Qualitätssicherung in der GND - Esther Scheven Qualitätskriterien und Qualitätssicherung in der inhaltlichen Erschließung - Thesenpapier des Expertenteams RDA-Anwendungsprofil für die verbale Inhaltserschließung (ET RAVI) Coli-conc - Eine Infrastruktur zur Nutzung und Erstellung von Konkordanzen - Uma Balakrishnan, Stefan Peters und Jakob Voß Methoden und Metriken zur Messung von OCR-Qualität für die Kuratierung von Daten und Metadaten - Clemens Neudecker, Karolina Zaczynska, Konstantin Baierer, Georg Rehm, Mike Gerber und Julián Moreno Schneider Datenqualität als Grundlage qualitativer Inhaltserschließung - Jakob Voß Bemerkungen zu der Qualitätsbewertung von MARC-21-Datensätzen - Rudolf Ungváry und Péter Király Named Entity Linking mit Wikidata und GND - Das Potenzial handkuratierter und strukturierter Datenquellen für die semantische Anreicherung von Volltexten - Sina Menzel, Hannes Schnaitter, Josefine Zinck, Vivien Petras, Clemens Neudecker, Kai Labusch, Elena Leitner und Georg Rehm Ein Protokoll für den Datenabgleich im Web am Beispiel von OpenRefine und der Gemeinsamen Normdatei (GND) - Fabian Steeg und Adrian Pohl Verbale Erschließung in Katalogen und Discovery-Systemen - Überlegungen zur Qualität - Heidrun Wiesenmüller Inhaltserschließung für Discovery-Systeme gestalten - Jan Frederik Maas Evaluierung von Verschlagwortung im Kontext des Information Retrievals - Christian Wartena und Koraljka Golub Die Qualität der Fremddatenanreicherung FRED - Cyrus Beck Quantität als Qualität - Was die Verbünde zur Verbesserung der Inhaltserschließung beitragen können - Rita Albrecht, Barbara Block, Mathias Kratzer und Peter Thiessen Hybride Künstliche Intelligenz in der automatisierten Inhaltserschließung - Harald Sack
- Footnote
- Vgl.: https://www.degruyter.com/document/doi/10.1515/9783110691597/html. DOI: https://doi.org/10.1515/9783110691597. Rez. in: Information - Wissenschaft und Praxis 73(2022) H.2-3, S.131-132 (B. Lorenz u. V. Steyer). Weitere Rezension in: o-bib 9(20229 Nr.3. (Martin Völkl) [https://www.o-bib.de/bib/article/view/5843/8714].
- Series
- Bibliotheks- und Informationspraxis; 70
-
Weiter auf dem Weg zur virtuellen Bibliothek! : Kundenservice zwischen Quantität und Qualität. 3. INETBIB-Tagung vom 4.-6. März 1998 in Köln (1998)
0.07
0.06521931 = product of:
0.13043863 = sum of:
0.04665964 = weight(_text_:und in 2836) [ClassicSimilarity], result of:
0.04665964 = score(doc=2836,freq=18.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.36756828 = fieldWeight in 2836, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=2836)
0.083778985 = weight(_text_:html in 2836) [ClassicSimilarity], result of:
0.083778985 = score(doc=2836,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.28436378 = fieldWeight in 2836, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0390625 = fieldNorm(doc=2836)
0.5 = coord(2/4)
- Abstract
- Enthält die Beiträge: DANIEL, F. u.a.: Die ÖB geht ans Internet: aktuelle Probleme; H. BEST u.a.: Interneterschließung in Öffentlichen Bibliotheken: Stand und Kooperationsmöglichkeiten; MÜLLER, A.: Einführung in HTML; KOCH, T. u.a.: Informationen im Web anbieten und wiederfinden; TRÖGER, B.: Nutzerforschung: bibliothekarische Marketingstrategie im Zeitalter des Internet; BUßMANN, D. u. R. BRAUN: Das 'Virtuelle Institut': Benutzerforschung im Spannungsfeld zwischen EDV, internationaler Wissenschaft und Bibliothek, erläutert am Aufbau des Internet-Angebotes des MPI für ausländisches öffentliches Recht und Völkerrecht, Heidelberg; ILJON, A.: Das europäische Bibliotheksprogramm: Ein Überblick über vorhandene Ergebnisse und zukünftige Pläne; HOBOHM, H.-C.: Bibliothekarische Internet-Projekte in Deutschland: Qualität und Nutzerorientierung bei bibliothekarischen Internetprojekten - marketingstrategische Überlegungen zu den neuen Informationsdienstleistungen; MELICHAR, F.: Die Bibliothek als elektronischer Verlag: Fragen im Zusammenhang mit elektronischen Veröffentlichungen durch die Bibliotheken; STADLER, U.: Elektronische Zeitschriften unter besonderer Berücksichtigung der Universitätsbibliothek Wuppertal; KLUGKIST, A.C.: Digitale Sammlungen in elektronischen Bibliotheken; OBST, O.: 'Bannerwerbung' in der virtuellen Bibliothek am Beispiel der 'LIteraturliste Internet'; SCHAARWÄCHTER, M.: InetBiB: Psychologie der elektronischen Kommunikation ;-); WALTON, G.: Personal an wissenschaftlichen Bibliotheken - Arbeiten in einer elektronischen Umgebung: Ein Bericht über das IMPEL-Projekt von eLib: der zukünftige Strukturwandel in den Hochschulen und die Stellung der Bibliotheken; JEDWABSKI, B. u. J. NOWAK: Alte und neue Qualifikationen für die Zukunft; Podiumsdiskussion: Internet Frischzellenkur für Bibliotheken? (A. Oßwald, A, Cervelló-Margalef, H. Neißer, H.-J. Wätjen)
-
BOND: Web-Opac Premium (2004)
0.07
0.06521931 = product of:
0.13043863 = sum of:
0.04665964 = weight(_text_:und in 3251) [ClassicSimilarity], result of:
0.04665964 = score(doc=3251,freq=18.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.36756828 = fieldWeight in 3251, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3251)
0.083778985 = weight(_text_:html in 3251) [ClassicSimilarity], result of:
0.083778985 = score(doc=3251,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.28436378 = fieldWeight in 3251, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0390625 = fieldNorm(doc=3251)
0.5 = coord(2/4)
- Content
- "Orientiert an den Anforderungen der Bibliotheksbenutzer, hat BOND nun eine PremiumVersion des Web-Opacs entwickelt. Ziel dabei war es, das Angebot der Bibliothek für ihre LeserInnen noch attraktiver zu gestalten. Im Mittelpunkt steht dabei das tatsächliche Informationsverhalten der Bibliotheksbenutzer. Mit dem neuen Web-Opac Premium werden Informationen kanalisiert und so aufbereitet, dass die LeserInnen sie noch schneller und bequemer im Zugriffhaben. Neben den Standard WebOpac-Funktionen (recherchieren, verlängern, vorbestellen, etc.) ist der neue Web-Opac Premium daher zusätzlich mit zahlreichen nützlichen Web-Portalfunktionen gespickt. Diese ermöglichen der Bibliothek, ihren LeserInnen ganz individuell gewünschte Informationen und eine Vielzahl attraktiver Services anzubieten. Beispiele für die Portalfunktionen: Mit dem Web-Opac Premium können die Leser einfach und übersichtlich in hochwertigen Allgemein- und Fach-Lexika suchen. Jeder Benutzer kann sich ein persönliches Interessen-Profil selbst erstellen. So wird er gesondert auf die für ihn interessanten Medien und Informationen hingewiesen. Das persönliche Profil zeigt unter anderem auch entliehene Medien, Fristen und Gebühren. Als weiteren Service kann die Bibliothek automatisch Medien-Listen mit personalisierten Empfehlungen für ihre Benutzer (je nach Interessen-Profil) erstellen. Über eine Verwaltungsoberfläche kann die Bibliothek zudem globale Profile festlegen, mit denen zum Beispiel Erwachsene andere Informationen im Zugriff haben als Kinder oder wiederum andere als Mitarbeiter. Über diese Verwaltungsoberfläche können auch kinderleicht attraktive Informationsquellen (kommentierte Linklisten, gestaltete Informationsseiten [HTML], Veranstaltungskalender, Neuigkeiten, Diskussionsforen etc.) eingebunden und aktualisiert werden. Der Web-Opac Premium lässt sich durch zusätzliche Web-Module erweitern. So zum Beispiel durch WebGate, den Zugang zur DigiBib (Digitale Bibliothek des HBZ), und durch SpiderSearch, den grafischen Assoziativ-Opac. So kann sich jede Bibliothek ihr individuelles »Informationszentrum Bibliothek« bauen. - Weitere Informationen bei BOND, Telefon 0 63 24/9612311, oder E-Mail <vertrieb@ bond-online.de>."
-
Lanvent, A.: Praxis - Windows-Suche und Indexdienst : Auch Windows kann bei der Suche den Turbo einlegen: mit dem Indexdienst (2004)
0.07
0.06521931 = product of:
0.13043863 = sum of:
0.04665964 = weight(_text_:und in 4316) [ClassicSimilarity], result of:
0.04665964 = score(doc=4316,freq=18.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.36756828 = fieldWeight in 4316, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=4316)
0.083778985 = weight(_text_:html in 4316) [ClassicSimilarity], result of:
0.083778985 = score(doc=4316,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.28436378 = fieldWeight in 4316, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0390625 = fieldNorm(doc=4316)
0.5 = coord(2/4)
- Content
- "Für eine 4-GByte-Festplatte mit mehreren Partitionen sucht Windows XP im Volltextmodus weit über zwei Stunden. Der Indexdienst verkürzt diese Recherchedauer drastisch um mehr als eine Stunde. Im Gegensatz zu den Indizes der kommerziellen Suchwerkzeuge erfasst der Windows-Indexdienst nur Text-, HTML- und OfficeDateien über entsprechend integrierte Dokumentfilter. Da er weder ZIP-Files noch PDFs erkennt und auch keine E-Mails scannt, ist er mit komplexen Anfragen schnell überfordert. Standardmäßig ist der Indexdienst zwar installiert, aber nicht aktiviert. Das erledigt der Anwender über Start/Arbeitsplatz und den Befehl Verwalten aus dem Kontextmenü. In der Computerverwaltung aktiviert der Benutzer den Eintrag Indexdienst und wählt Starten aus dem Kontextmenü. Die zu indizierenden Elemente verwaltet Windows über so genannte Kataloge, mit deren Hilfe der User bestimmt, welche Dateitypen aus welchen Ordnern indiziert werden sollen. Zwar kann der Anwender neben dem Katalog System weitere Kataloge einrichten. Ausreichend ist es aber in den meisten Fällen, dem Katalog System weitere Indizierungsordner über die Befehle Neu/Verzeichnis hinzuzufügen. Klickt der Benutzer dann einen der Indizierungsordner mit der rechten Maustaste an und wählt Alle Tasks/Erneut prüfen (Vollständig), beginnt der mitunter langwierige Indizierungsprozess. Über den Eigenschaften-Dialog lässt sich allerdings der Leistungsverbrauch drosseln. Eine inkrementelle Indizierung, bei der Windows nur neue Elemente im jeweiligen Verzeichnis unter die Lupe nimmt, erreicht der Nutzer über Alle Tasks/Erneut prüfen (inkrementell). Einschalten lässt sich der Indexdienst auch über die Eigenschaften eines Ordners und den Befehl Erweitert/ln-halt für schnelle Dateisuche indizieren. Auskunft über die dem Indexdienst zugeordneten Ordner und Laufwerke erhalten Sie, wenn Sie die WindowsSuche starten und Weitere Optionen/ Andere Suchoptionen/Bevorzugte Einstellungen ändern/Indexdienst verwenden anklicken."
-
Rötzer, F.: Brauchen Roboter eine Ethik und handeln Menschen moralisch? (2017)
0.07
0.06521931 = product of:
0.13043863 = sum of:
0.04665964 = weight(_text_:und in 243) [ClassicSimilarity], result of:
0.04665964 = score(doc=243,freq=18.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.36756828 = fieldWeight in 243, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=243)
0.083778985 = weight(_text_:html in 243) [ClassicSimilarity], result of:
0.083778985 = score(doc=243,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.28436378 = fieldWeight in 243, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0390625 = fieldNorm(doc=243)
0.5 = coord(2/4)
- Abstract
- Überlegungen dazu, wie autonome Systeme handeln sollten, um in die Welt der Menschen integriert werden zu können Ob Maschinen oder Roboter eine Ethik brauchen, um verantwortungsvoll zu handeln, oder ob Regeln schlicht reichen, ist umstritten. Um moralisch handeln zu können, müssten KI-Systeme nach geläufigen philosophischen Überlegungen entweder Selbstbewusstsein und freien Willen besitzen und vernünftig oder emotional in uneindeutigen Situationen eine moralisch richtige Entscheidung treffen. Ob Menschen meist so handeln, sofern sie überhaupt moralisch verantwortlich entscheiden, oder auch nur meinen, sie würden moralisch richtig handeln, was andere mit gewichtigen Argumenten bestreiten können, sei dahingestellt, ganz abgesehen davon, ob es einen freien Willen gibt. Man kann aber durchaus der Überzeugung sein, dass Menschen in der Regel etwa im Straßenverkehr, wenn schnelle Reaktionen erforderlich sind, instinktiv oder aus dem Bauch heraus entscheiden, also bestenfalls nach einer Moral handeln, die in der Evolution und durch Vererbung und eigene Erfahrung entstanden ist und das Verhalten vor jedem Selbstbewusstsein und freiem Willen determiniert. Ist es daher nicht naiv, wenn von Maschinen wie autonomen Fahrzeugen moralische Entscheidungen gefordert werden und nicht einfach Regeln oder eine "programmierte Ethik" eingebaut werden?
- Source
- https://www.heise.de/tp/features/Brauchen-Roboter-eine-Ethik-und-handeln-Menschen-moralisch-3876309.html?wt_mc=nl.tp-aktuell.woechentlich
-
Einsporn, N.: Fachinformationen im WWW (2006)
0.06
0.06388506 = product of:
0.12777013 = sum of:
0.043991137 = weight(_text_:und in 44) [ClassicSimilarity], result of:
0.043991137 = score(doc=44,freq=16.0), product of:
0.12694143 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.057234988 = queryNorm
0.34654674 = fieldWeight in 44, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=44)
0.083778985 = weight(_text_:html in 44) [ClassicSimilarity], result of:
0.083778985 = score(doc=44,freq=2.0), product of:
0.29461905 = queryWeight, product of:
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.057234988 = queryNorm
0.28436378 = fieldWeight in 44, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
5.1475344 = idf(docFreq=701, maxDocs=44421)
0.0390625 = fieldNorm(doc=44)
0.5 = coord(2/4)
- Abstract
- Mittels professioneller Suchtechniken lässt sich die Recherche im WWW wesentlich schneller und zuverlässiger gestalten. Selbst eine universelle Suchmaschine, wie Google, erlaubt mittels spezieller Suchfunktionen qualifizierte Recherchen über den Freitext hinaus. Von besonderer Bedeutung sind hier die Selektion nach Domainnamen und die Einbeziehung der URL. In Kombination mit dem Verständnis der Ranking-Techniken, z. B. der Prioritäten der im HTML-Quelltext verankerten inhaltlichen Meta-Informationen (Title-Tag, Meta-Tags Keywords, Description) gegenüber dem Standardverfahren (Google PageRank) lässt sich die Recherche auf professionelle Informationsangebote ausrichten. Eine weitere Qualifizierung lässt sich durch geschickten Einsatz der Phrasensuche erreichen. In jedem Fall setzt eine erfolgreiche Recherche, auch bei scheinbar einfachen Benennungen und Zusammenhängen eine intellektuelle Recherchevorbereitung voraus - bei der zunächst das Thema strukturiert und dann eine Vorstellung über die möglichen Zusammenhänge entwickelt wird, in der die Zielinformation im WWW zu finden sein könnte. Soweit die Möglichkeit besteht, sollte bei anspruchsvollen technischwissenschaftlichen Themen der WWW-Suche eine Recherche in professionellen Literaturdatenbanken vorausgehen. Diese haben den Vorzug, dass eine transparente und sorgfältig selektierte Quellenbasis vorliegt und durch Suche mit kontrolliertem Wortschatz die typischen Unschärfen einer Freitextrecherche (unerwünschte Zusammenhänge, Synonyme, Homonyme, Schreibvarianten usw.) umgangen werden können. Die FIZ-Technik-Inform GmbH bietet kostenpflichtige Weiterbildungsveranstaltungen auch zur WWW-Recherche an.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer