-
Fuhr, N.: Theorie des Information Retrieval I : Modelle (2004)
0.14
0.13506219 = product of:
0.27012438 = sum of:
0.21645102 = weight(_text_:jedes in 3912) [ClassicSimilarity], result of:
0.21645102 = score(doc=3912,freq=4.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.492093 = fieldWeight in 3912, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0390625 = fieldNorm(doc=3912)
0.05367337 = weight(_text_:und in 3912) [ClassicSimilarity], result of:
0.05367337 = score(doc=3912,freq=16.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.34654674 = fieldWeight in 3912, product of:
4.0 = tf(freq=16.0), with freq of:
16.0 = termFreq=16.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=3912)
0.5 = coord(2/4)
- Abstract
- Information-Retrieval-(IR-)Modelle spezifizieren, wie zur einer gegebenen Anfrage die Antwortdokumente aus einer Dokumentenkollektion bestimmt werden. Dabei macht jedes Modell bestimmte Annahmen über die Struktur von Dokumenten und Anfragen und definiert dann die so genannte Retrievalfunktion, die das Retrievalgewicht eines Dokumentes bezüglich einer Anfrage bestimmt - im Falle des Booleschen Retrieval etwa eines der Gewichte 0 oder 1. Die Dokumente werden dann nach fallenden Gewichten sortiert und dem Benutzer präsentiert. Zunächst sollen hier einige grundlegende Charakteristika von Retrievalmodellen beschrieben werden, bevor auf die einzelnen Modelle näher eingegangen wird. Wie eingangs erwähnt, macht jedes Modell Annahmen über die Struktur von Dokumenten und Fragen. Ein Dokument kann entweder als Menge oder Multimenge von so genannten Termen aufgefasst werden, wobei im zweiten Fall das Mehrfachvorkommen berücksichtigt wird. Dabei subsummiert 'Term' einen Suchbegriff, der ein einzelnes Wort, ein mehrgliedriger Begriff oder auch ein komplexes Freitextmuster sein kann. Diese Dokumentrepräsentation wird wiederum auf eine so genannte Dokumentbeschreibung abgebildet, in der die einzelnen Terme gewichtet sein können; dies ist Aufgabe der in Kapitel B 5 beschriebenen Indexierungsmodelle. Im Folgenden unterscheiden wir nur zwischen ungewichteter (Gewicht eines Terms ist entweder 0 oderl) und gewichteter Indexierung (das Gewicht ist eine nichtnegative reelle Zahl). Ebenso wie bei Dokumenten können auch die Terme in der Frage entweder ungewichtet oder gewichtet sein. Daneben unterscheidet man zwischen linearen (Frage als Menge von Termen, ungewichtet oder gewichtet) und Booleschen Anfragen.
- Source
- Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
-
Fromherz, P.; Ehrlenspiel, J.: Über die Verbindung von lebenden Nervenzellen und Computerchips (2001)
0.13
0.13370475 = product of:
0.2674095 = sum of:
0.21427558 = weight(_text_:jedes in 6799) [ClassicSimilarity], result of:
0.21427558 = score(doc=6799,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.4871472 = fieldWeight in 6799, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0546875 = fieldNorm(doc=6799)
0.053133924 = weight(_text_:und in 6799) [ClassicSimilarity], result of:
0.053133924 = score(doc=6799,freq=8.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.34306374 = fieldWeight in 6799, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=6799)
0.5 = coord(2/4)
- Abstract
- Ich fand es einfach grundsätzlich wichtig, die Elemente des Computers und des Hirns zu kombinieren motiviert durch die Idee einen Hirnchip zu bauen. Das war und ist natürlich Science Fiction Aber allein die Vorstellung davon trieb mich, es doch einmal ganz unten zu versuchen. Das bescheidene Ziel war es, die Kontaktstelle zwischen zwei völlig verschiedenen Informationssystemen zu schaffen: auf der einen Seite die Elektronik, einen Chip, Schaltprozesse, die in einer Tausendstel Millisekunde ablaufen. Auf der anderen Seite ein Organ, Nervenzellen, deren Signalübertragung durch Ionen getragen wird in Zeiten von einigen Millisekunden. Vollkommen verschiedene Weiten. Hirn und Computer sind beide erfolgreiche informationsverarbeitende Maschinen. Ob die beiden Systeme zusammen mehr leisten könnten, als jedes für sich, das ist allerdings unbekannt
-
Puschmann, C.: eLanguage - das Linguistik-Portal : Internationales »Open Access«-Projekt zur Sprachwissenschaft geht online (2008)
0.13
0.13014546 = product of:
0.26029092 = sum of:
0.21427558 = weight(_text_:jedes in 1353) [ClassicSimilarity], result of:
0.21427558 = score(doc=1353,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.4871472 = fieldWeight in 1353, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0546875 = fieldNorm(doc=1353)
0.04601533 = weight(_text_:und in 1353) [ClassicSimilarity], result of:
0.04601533 = score(doc=1353,freq=6.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.29710194 = fieldWeight in 1353, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=1353)
0.5 = coord(2/4)
- Content
- Die Welt des wissenschaftlichen Publizierens befindet sich im Umbruch. Das Internet ermöglicht den schnellen und unkomplizierten Zugang zu wissenschaftlicher Information. Dem Trend folgend, haben der Lehrstuhl für Anglistische Sprachwissenschaft der Universität Düsseldorf und der Fachverband für Sprachwissenschaft »Linguistic Society of America« (LSA) die Publikationsplattform eLanguage entwickelt. Die Konzeption der Open Access-Plattform bringt verschiedene Forschergruppen aus der ganzen Welt an einen Tisch. Dabei ist eLanguage nicht nur eine elektronische Zeitschrift, sondern ein Portal, durch das auf eine Sammlung unabhängiger Publikationen, den »cojournals«, zugegriffen werden kann. Jedes Journal hat einen speziellen Fokus und wird durch ein eigenes Redaktionsteam betreut. Cornelius Puschmann stellt das von ihm betreute Publikationsprojekt im Folgenden vor.
-
Münch, V.: "Wenn man mit dem Organisieren fertig ist, ist mehr neue Information da, als man bewältigen kann" (2009)
0.13
0.13014546 = product of:
0.26029092 = sum of:
0.21427558 = weight(_text_:jedes in 3655) [ClassicSimilarity], result of:
0.21427558 = score(doc=3655,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.4871472 = fieldWeight in 3655, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0546875 = fieldNorm(doc=3655)
0.04601533 = weight(_text_:und in 3655) [ClassicSimilarity], result of:
0.04601533 = score(doc=3655,freq=6.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.29710194 = fieldWeight in 3655, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=3655)
0.5 = coord(2/4)
- Abstract
- Auf der Konferenzmesse Online Information 2008, 2. bis 4. Dezember, waren Prozessorganisation und internationale Vernetzung der Branchenteilnehmer erstmals wichtiger als technische Neuentwicklungen
- Content
- Bericht über die Themenfelder: Semantische Technologien und Social Web Organisieren ohne Organisationen Jedes Stück Information ist eine latente Community Semantische Tools als Sahnehäubchen für die Suche Google Beta 1: Benutzerdefinierte Suche Google Beta 2: Plattform zum Teilen von Wissen (Knol) Weitkämper's HitEngine: Das spannendste Produkt der Messe Web of Science speist Thomson Collexis Dashboards Elseviers Illumin8 - Technologiewissen aus allen Quellen gleichzeitig Deutsche Stunde thematisiert das Potential von PS I Europaweite Studie zum Sektor öffentliche Daten OCLC baut an einer weltweiten Bibliotheken-G enossenschaft OCLC plant SaaS-Software für Bibliotheken Goportis wird aktiv
- Source
- Information - Wissenschaft und Praxis. 60(2009) H.2, S.97-103
-
Lauck, D.: ¬Das müssen Sie über die Warn-App wissen (2020)
0.13
0.13014546 = product of:
0.26029092 = sum of:
0.21427558 = weight(_text_:jedes in 888) [ClassicSimilarity], result of:
0.21427558 = score(doc=888,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.4871472 = fieldWeight in 888, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0546875 = fieldNorm(doc=888)
0.04601533 = weight(_text_:und in 888) [ClassicSimilarity], result of:
0.04601533 = score(doc=888,freq=6.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.29710194 = fieldWeight in 888, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=888)
0.5 = coord(2/4)
- Content
- ... "Jedes Mobiltelefon mit installierter und aktivierter App soll sich über Bluetooth automatisch mit Geräten in seiner Nähe verbinden. Dazu soll über die Signalstärke die Entfernung zwischen zwei Smartphones ermittelt werden, und zugleich sollen die Handys bei einer engen Begegnung per Bluetooth anonyme ID-Schlüssel, sogenannte Kurzzeit-Identifikationsnummern, austauschen. Wird ein Nutzer positiv auf Covid-19 getestet und dieser Status in der App erfasst, werden die anderen betroffenen Anwender darüber informiert, dass sie sich in der Vergangenheit in der Nähe einer infizierten Person aufgehalten haben. Für diese Nutzer wird zugleich eine persönliche "Risikostufe für eine Infektion" mitgeteilt." ...
-
Wilf, P.: LectureLounge : Neue Möglichkeiten zur multimedialen Vortragsaufzeichnung (2004)
0.13
0.12598991 = product of:
0.25197983 = sum of:
0.18366478 = weight(_text_:jedes in 3303) [ClassicSimilarity], result of:
0.18366478 = score(doc=3303,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.41755477 = fieldWeight in 3303, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.046875 = fieldNorm(doc=3303)
0.068315044 = weight(_text_:und in 3303) [ClassicSimilarity], result of:
0.068315044 = score(doc=3303,freq=18.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.44108194 = fieldWeight in 3303, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3303)
0.5 = coord(2/4)
- Abstract
- Das Aufzeichnen von Vorträgen scheint mittlerweile Alltag in Forschung und Lehre zu werden. Allerdings lässt der Durchbruch immer noch auf sich warten. Warum ist das so? Warum wird nicht jeder Vortrag, jede Vorlesung oder jedes Seminar auf Video aufgezeichnet und bereitgestellt? Zunächst einmal ist es mit dem Aufzeichnen auf Video alleine nicht getan. Während die technische Ausstattung preiswert ist ist die schiere Masse an Handarbeit und der Grad der benötigten Qualifikation sehr hoch und damit auch die Kosten eines Vortragsaufzeichnungssystems. Falls man dann noch versuchen möchte, mehr als Video zu bieten und zusätzliches Material zu sammeln, verlangt man den Präsentierenden Arbeit ab, da die benötigten Informationen nur von ihnen stammen können. Das Vortragsaufzeichnungs-, -analyse und Managementsystem LectureLounge zeigt, dass man computergenerierte Vorträge (z.B. MS PowerPoint) automatisch aufzeichnen und verwalten kann, ohne vom Vortragenden mehr zu verlangen als vorzutragen, und bietet trotzdem direkte Einstiegspunkte in eine multimediale Aufzeichnung des Vortrags.
- Source
- Information - Wissenschaft und Praxis. 55(2004) H.1, S.35-41
-
Wagenknecht, G.; Schreckenberger, M.; Sabri, O.; Büll, U.: Einblick ins Gehirn : tomographische Verfahren zuur Diagnostik des Gehirns (1996)
0.13
0.12592347 = product of:
0.25184694 = sum of:
0.21427558 = weight(_text_:jedes in 5888) [ClassicSimilarity], result of:
0.21427558 = score(doc=5888,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.4871472 = fieldWeight in 5888, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0546875 = fieldNorm(doc=5888)
0.03757136 = weight(_text_:und in 5888) [ClassicSimilarity], result of:
0.03757136 = score(doc=5888,freq=4.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.24258271 = fieldWeight in 5888, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=5888)
0.5 = coord(2/4)
- Abstract
- In den letzten Jahrzehnten wurden verschiedene Verfahren entwickelt, die Ärzten Einblicke in das Gehrin und die Bestimmung physiologischer Parameter durch externe Messungen erlauben. Zu diesen Methoden gehören die Positronen-Emissions-Tomographie (PET), die Single Photon Emissions Computer Tomographie (SPECT) sowie die Magnetische Resonanz-Tomographie (MRT). Jedes dieser Verfahren ist für unterschiedliche Bausteine des Gehirns sensitiv. Ambitioniertes Ziel ist es, durch eine Zusammenführung der einzelnen Messungen ein vollständiges dreidimensionales Bild des Gehirns, vor allem zur Früherkennung von Krankheiten, zu erhalten. Am Beispiel eines entsprechenden Forschungsprojektes am Klinikum der RWTH Aachen werden diese Methoden und die bisherigen Ergebnisse beschrieben
-
Toegel, J.: Kognitive Kriegsführung : neueste Manipulationstechniken als Waffengattung der NATO (2023)
0.13
0.12592347 = product of:
0.25184694 = sum of:
0.21427558 = weight(_text_:jedes in 2030) [ClassicSimilarity], result of:
0.21427558 = score(doc=2030,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.4871472 = fieldWeight in 2030, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0546875 = fieldNorm(doc=2030)
0.03757136 = weight(_text_:und in 2030) [ClassicSimilarity], result of:
0.03757136 = score(doc=2030,freq=4.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.24258271 = fieldWeight in 2030, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=2030)
0.5 = coord(2/4)
- Abstract
- Wie die psychologische Kriegsführung unseren Verstand ins Visier nimmt. Seit 2020 treibt die NATO eine neue Form der psychologischen Kriegsführung voran: die sogenannte "Kognitive Kriegsführung", die von der NATO selbst als "fortschrittlichste Form der Manipulation" bezeichnet wird. Diese nimmt die Psyche jedes Menschen direkt ins Visier, mit dem Ziel, unseren Verstand wie einen Computer zu 'hacken'. Der Propagandaforscher Jonas Tögel erläutert die Hintergründe und Entstehungsgeschichte der Kognitiven Kriegsführung; vom Beginn moderner Kriegspropaganda vor 100 Jahren, über die Militarisierung der Neurowissenschaften bis hin zu Zukunftstechnologien wie Nano-Robotern oder Neurowaffen. Und er zeigt, dass der Gedankenkrieg oft unbemerkt über sogenannte "Soft Power-Techniken" bereits heute stattfindet.
-
Schnelling, H.M.: Shakespeare im Schlagwortkatalog : Vergleichende Untersuchungen anglo-amerikanischer und deutscher Praxis verbaler Sacherschließung (1983)
0.13
0.12510163 = product of:
0.25020325 = sum of:
0.03220402 = weight(_text_:und in 1216) [ClassicSimilarity], result of:
0.03220402 = score(doc=1216,freq=4.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.20792803 = fieldWeight in 1216, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1216)
0.21799922 = weight(_text_:headings in 1216) [ClassicSimilarity], result of:
0.21799922 = score(doc=1216,freq=8.0), product of:
0.3388535 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06983213 = queryNorm
0.64334357 = fieldWeight in 1216, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.046875 = fieldNorm(doc=1216)
0.5 = coord(2/4)
- Content
- Teilw. zugl.: Köln, Fachhochschule für Bibliotheks- und Dokumentationswesen, Hausarbeit zur Laufbahnprüfung für den Höheren Bibliotheksdienst
- LCSH
- Subject headings / Literature
Subject headings / Shakespeare, William, 1564 / 1616
- Subject
- Subject headings / Literature
Subject headings / Shakespeare, William, 1564 / 1616
-
Riehm, U.; Böhle, K.; Wingert, B.: Elektronisches Publizieren (2004)
0.12
0.1219565 = product of:
0.243913 = sum of:
0.18366478 = weight(_text_:jedes in 3945) [ClassicSimilarity], result of:
0.18366478 = score(doc=3945,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.41755477 = fieldWeight in 3945, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.046875 = fieldNorm(doc=3945)
0.060248207 = weight(_text_:und in 3945) [ClassicSimilarity], result of:
0.060248207 = score(doc=3945,freq=14.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.38899773 = fieldWeight in 3945, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3945)
0.5 = coord(2/4)
- Abstract
- Publizieren bezeichnet einen indirekten, räumlich und zeitlich entkoppelten Kommunikationsprozess, der über ein Artefakt, die Publikation, vermittelt wird. Nicht jedes Dokument, das erstellt, und nicht jede Information, die verbreitet wird, ist eine Publikation. Eine Publikation ist für die Öffentlichkeit, für ein mehr oder weniger anonymes Publikum bestimmt. Der Publikationsprozess selbst ist in der Regel arbeitsteilig organisiert. Am Anfang des Publikationsprozesses steht die Annahme oder die Ablehnung eines Manuskripts; danach erfolgt die weitere Aufbereitung zur Publikation. Durch Selektion und inhaltliche wie gestalterische Aufbereitung wird eine besondere Qualität erzeugt. Akteure, Verfahren und Qualitätskriterien des Publikationsprozesses sind historisch gewachsen und unterliegen einem ständigen Wandel, der durch technische Innovationen beeinflusst wird.
- Source
- Grundlagen der praktischen Information und Dokumentation. 5., völlig neu gefaßte Ausgabe. 2 Bde. Hrsg. von R. Kuhlen, Th. Seeger u. D. Strauch. Begründet von Klaus Laisiepen, Ernst Lutterbeck, Karl-Heinrich Meyer-Uhlenried. Bd.1: Handbuch zur Einführung in die Informationswissenschaft und -praxis
-
Arnold, A.: Google undokumentiert : Geheim: Google-Suche, wie Sie sie noch nicht kennen (2003)
0.12
0.120421275 = product of:
0.24084255 = sum of:
0.21427558 = weight(_text_:jedes in 3085) [ClassicSimilarity], result of:
0.21427558 = score(doc=3085,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.4871472 = fieldWeight in 3085, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0546875 = fieldNorm(doc=3085)
0.026566962 = weight(_text_:und in 3085) [ClassicSimilarity], result of:
0.026566962 = score(doc=3085,freq=2.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.17153187 = fieldWeight in 3085, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0546875 = fieldNorm(doc=3085)
0.5 = coord(2/4)
- Abstract
- Mit geheimen Befehlen kitzeln Sie aus der Suchmaschine Google alles heraus. Versteckte Links zeigen, was das Internet wirklich bietet, und Spezial-Tools verkürzen die Suchzeit - ganz einfach
- Content
- 1. Zeitreise: Suche nach Datum genau eingrenzen 2. Schneller suchen: Google mit der Tastatur bedienen 3. Zitate: Mehr Infos zur Fundstelle anzeigen 4. Diashow: Automatisch gefundene Seiten anzeigen 5. Mini-Tools: Google für Ihren Desktop 6. Spezial-Suche: Nur bestimmte Sites durchforsten 7. Spezialisten: Nur Top-Sites zum Thema anzeigen 8. Google-Nachrichten: Auch mit deutscher Übersetzung (http://news.google.com) 9. Gratis: Das größte Wörterbuch der Welt 10. Froogle: Findet jedes Produkt (http://froogle.google.com)
-
Mühlberger, G.: ¬Der digitalisierte Nominalkatalog der Universitätsbibliothek Innsbruck (2004)
0.12
0.11972189 = product of:
0.23944378 = sum of:
0.18366478 = weight(_text_:jedes in 3200) [ClassicSimilarity], result of:
0.18366478 = score(doc=3200,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.41755477 = fieldWeight in 3200, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.046875 = fieldNorm(doc=3200)
0.055779003 = weight(_text_:und in 3200) [ClassicSimilarity], result of:
0.055779003 = score(doc=3200,freq=12.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.36014193 = fieldWeight in 3200, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3200)
0.5 = coord(2/4)
- Abstract
- Mit dem Projekt "Imagekatalog der UB Innsbruck" wurde die in ALO (Austrian Literature Online) entwickelte Technologie auf die Digitalisierung und Online-Verfügbarmachung von Altbestandskatalogen übertragen. Wir haben uns dabei die Erfahrungen diverser Vorgängerprojekte zunutze gemacht und bieten eine umfassende Lösung an: - Blättern im Katalog Die elektronische Präsentation des Katalogs ist der tatsächlichen Benutzung nachgebildet und macht sich die implizite (alphabetische) Ordnung zu nutze. Das reine Blättern im Katalog wurde virtuos in Szene gesetzt durch Wilhelm Dikovich und dem für die Österreichische Nationalbibliothek entwickelten KatZoom (http: ~/katzoom.onb.ac.at/katzoom/). - Ordnungswortsuche Viele Vorgängerprojekte haben in bestimmten Abständen (z.B. jedes 40. oder 50. Kärtchen) die Ordnungswörter der Kärtchen genau erfasst. Damit erhält der Benutzer bei seiner Suchabfrage einen klar definierten Einstiegspunkt in den Katalog. Im Fall der UB Innsbruck sind dies rund 20.000 Einstiegspunkte in den Katalog. - Volltextsuche Die Firma EuroSpider der ETH Zürich hat diese Lösung bereits Mitte der 90er Jahre verwirklicht. Der unkorrigierte Volltext verbirgt sich hinter den Images der Karteikarten. Gleichzeitig zur Ordnungswortsuche wird auch der komplette - allerdings unkorrigierte - Volltext der Karteikarten indiziert und durchsucht.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 57(2004) H.1, S.67-69
-
Puzicha, J.: Informationen finden! : Intelligente Suchmaschinentechnologie & automatische Kategorisierung (2007)
0.12
0.11972189 = product of:
0.23944378 = sum of:
0.18366478 = weight(_text_:jedes in 3817) [ClassicSimilarity], result of:
0.18366478 = score(doc=3817,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.41755477 = fieldWeight in 3817, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.046875 = fieldNorm(doc=3817)
0.055779003 = weight(_text_:und in 3817) [ClassicSimilarity], result of:
0.055779003 = score(doc=3817,freq=12.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.36014193 = fieldWeight in 3817, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3817)
0.5 = coord(2/4)
- Abstract
- Wie in diesem Text erläutert wurde, ist die Effektivität von Such- und Klassifizierungssystemen durch folgendes bestimmt: 1) den Arbeitsauftrag, 2) die Genauigkeit des Systems, 3) den zu erreichenden Automatisierungsgrad, 4) die Einfachheit der Integration in bereits vorhandene Systeme. Diese Kriterien gehen davon aus, dass jedes System, unabhängig von der Technologie, in der Lage ist, Grundvoraussetzungen des Produkts in Bezug auf Funktionalität, Skalierbarkeit und Input-Methode zu erfüllen. Diese Produkteigenschaften sind in der Recommind Produktliteratur genauer erläutert. Von diesen Fähigkeiten ausgehend sollte die vorhergehende Diskussion jedoch einige klare Trends aufgezeigt haben. Es ist nicht überraschend, dass jüngere Entwicklungen im Maschine Learning und anderen Bereichen der Informatik einen theoretischen Ausgangspunkt für die Entwicklung von Suchmaschinen- und Klassifizierungstechnologie haben. Besonders jüngste Fortschritte bei den statistischen Methoden (PLSA) und anderen mathematischen Werkzeugen (SVMs) haben eine Ergebnisqualität auf Durchbruchsniveau erreicht. Dazu kommt noch die Flexibilität in der Anwendung durch Selbsttraining und Kategorienerkennen von PLSA-Systemen, wie auch eine neue Generation von vorher unerreichten Produktivitätsverbesserungen.
-
Schillerwein, S.: ¬Der 'Business Case' für die Nutzung von Social Tagging in Intranets und internen Informationssystemen (2008)
0.12
0.11972189 = product of:
0.23944378 = sum of:
0.18366478 = weight(_text_:jedes in 3893) [ClassicSimilarity], result of:
0.18366478 = score(doc=3893,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.41755477 = fieldWeight in 3893, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.046875 = fieldNorm(doc=3893)
0.055779003 = weight(_text_:und in 3893) [ClassicSimilarity], result of:
0.055779003 = score(doc=3893,freq=12.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.36014193 = fieldWeight in 3893, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=3893)
0.5 = coord(2/4)
- Abstract
- Trendthemen, wie Social Tagging oder Web 2.0, bergen generell die Gefahr, dass Adaptionsentscheidungen auf Basis von im öffentlichen Internet vorgefundenen und den Medien lautstark thematisierten Erfolgsbeispielen getroffen werden. Für die interne Anwendung in einer Organisation ist dieses Vorgehen jedoch risikoreich. Deshalb sollte ein ausführlicher Business Case am Anfang jedes SocialTagging-Projekts stehen, der Nutzen- und Risikopotenziale realistisch einzuschätzen vermag. Der vorliegende Beitrag listet dazu exemplarisch die wichtigsten Aspekte für die Einschätzung des Wertbeitrags und der Stolpersteine für Social Tagging in Intranets und vergleichbaren internen Informationssystemen wie Mitarbeiterportalen, Dokumenten-Repositories und Knowledge Bases auf.
-
Schneider, K.: Über den Musik-Thesaurus und die inhaltliche Erschliessung von Musik (1996)
0.12
0.117946945 = product of:
0.23589389 = sum of:
0.030362243 = weight(_text_:und in 3558) [ClassicSimilarity], result of:
0.030362243 = score(doc=3558,freq=2.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.19603643 = fieldWeight in 3558, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=3558)
0.20553164 = weight(_text_:headings in 3558) [ClassicSimilarity], result of:
0.20553164 = score(doc=3558,freq=4.0), product of:
0.3388535 = queryWeight, product of:
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.06983213 = queryNorm
0.60655016 = fieldWeight in 3558, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
4.8524013 = idf(docFreq=942, maxDocs=44421)
0.0625 = fieldNorm(doc=3558)
0.5 = coord(2/4)
- Abstract
- Lecture given at the AIBM conference, Karlsruhe, Sep 95. The thesaurus appeared 1st in 1982, produced according to DIN standard 1463. This standard is largely adhered to, with 2 deviations: the controlled vocabulary is rather universal, covering more than 1 musical field, and descriptors are used as systematic collection points, with non-decriptors as subordinate headings. The 1994 edition has widened its contents range. There are still problems with ambiguity of headings and titles
-
Revision des Altbestandes der kartographischen Sammlung vor dem Abschluss (2004)
0.12
0.117291905 = product of:
0.23458381 = sum of:
0.18366478 = weight(_text_:jedes in 2348) [ClassicSimilarity], result of:
0.18366478 = score(doc=2348,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.41755477 = fieldWeight in 2348, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.046875 = fieldNorm(doc=2348)
0.05091903 = weight(_text_:und in 2348) [ClassicSimilarity], result of:
0.05091903 = score(doc=2348,freq=10.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.3287631 = fieldWeight in 2348, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2348)
0.5 = coord(2/4)
- Content
- "Von Deutschlands bedeutendster kartographischer Sammlung wurden 400.000 Werke mit Erscheinungsjahr bis 1939 in drei Phasen nahezu komplett revidiert. Die Kartenabteilung der Staatsbibliothek zu Berlin konzentrierte ihren Altbestand im Haus Unter den Linden 8 und stellte diesen neu auf. Anhand von zweihundert Katalogbänden überprüfte sie den Zustand und die Vollständigkeit jedes einzelnen Stückes, darunter 30.000 Stadtpläne, 3.000 groß- und unzählige kleinformatige Atlanten sowie 150.000 Ansichten. Der Neubestand mit rund 600.000 Blatt der modernen Kartographie ab dem Erscheinungsjahr 1940 befindet sich weiterhin im Haus Potsdamer Straße 33. Unter den herausragenden Stücken des Kartenaltbestandes sind die Sammlung ostasiatischer Karten mit handgezeichneten und seltenen gedruckten Darstellungen aus China und Japan, eine Deutschlandkarte von Cusanus (1491), der erste Reiseatlas von Europa (1580), der Globus von Livio Sanuto (1572), der erste thematische Atlas von Preußen (1830) sowie frühe Mondkartierungen um 1830. Im Jahr 1919 wurden 200.000 Karten des Preußischen Großen Generalstabs übernommen, von denen viele handgezeichnete Unikate sind."
-
Brantl, M.; Ceynowa, K.; Fabian, C.; Messmer, G.; Schäfer, I.: Massendigitalisierung deutscher Drucke des 16. Jahrhunderts : ein Erfahrungsbericht der Bayerischen Staatsbibliothek (2009)
0.12
0.117291905 = product of:
0.23458381 = sum of:
0.18366478 = weight(_text_:jedes in 1188) [ClassicSimilarity], result of:
0.18366478 = score(doc=1188,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.41755477 = fieldWeight in 1188, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.046875 = fieldNorm(doc=1188)
0.05091903 = weight(_text_:und in 1188) [ClassicSimilarity], result of:
0.05091903 = score(doc=1188,freq=10.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.3287631 = fieldWeight in 1188, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1188)
0.5 = coord(2/4)
- Abstract
- Der Beitrag stellt differenziert die von 2006 bis Juni 2009 gesammelten, praxiserprobten Erfahrungen und Projektergebnisse der Bayerischen Staatsbibliothek bei der Digitalisierung von über 20.000 im deutschen Sprachbereich erschienenen Drucken des 16. Jahrhunderts im Rahmen der von der DFG aufgelegten Aktionslinie zur Digitalisierung der in VD16 und VD17 erschlossenen Drucke dar. Ziel der Projekte ist es, jede im VD16 mit Bestand der Bayerischen Staatsbibliothek nachgewiesene Ausgabe in einem Exemplar zu digitalisieren. Der Digitalisierungsprozess wird im Hinblick auf konservatorische Vorgaben für buchschonendes, objektadäquates Arbeiten optimiert. Seit 2007 wird Scanrobotertechnik für die Digitalisierung dieses Bestands eingesetzt. Der Beitrag bietet detaillierte Projekterkenntnisse - sowohl hinsichtlich der differenzierten Materialität der Objekte wie auch in der Auswirkung auf eine Angleichung und Verbesserung der Technik - und Leistungszahlen, die es erlauben, die Kosten für Altbestandsdigitalisierung korrekt zu ermitteln. Es wird deutlich, dass grundsätzlich nahezu jedes Buch des historischen Altbestands digitalisiert werden kann,jedoch objektbezogen je andere Verfahren unterschiedlichen Durchsatzes angewendet werden müssen, was unmittelbare Auswirkungen auf die Kosten dieser Aktivitäten hat.
- Source
- Zeitschrift für Bibliothekswesen und Bibliographie. 56(2009) H.6, S.327-338
-
Stellungnahme des dbv zur öffentlichen Konsultation "Europeana - die nächsten Schritte" (SEK (2009)1124) (2009)
0.12
0.117291905 = product of:
0.23458381 = sum of:
0.18366478 = weight(_text_:jedes in 222) [ClassicSimilarity], result of:
0.18366478 = score(doc=222,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.41755477 = fieldWeight in 222, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.046875 = fieldNorm(doc=222)
0.05091903 = weight(_text_:und in 222) [ClassicSimilarity], result of:
0.05091903 = score(doc=222,freq=10.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.3287631 = fieldWeight in 222, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=222)
0.5 = coord(2/4)
- Abstract
- Der Deutsche Bibliotheksverband begrüßt Europeana als das zentrale Eingangstor zum digitalen kulturellen Erbe Europas von höchstem Rang. In ihrer Bedeutung für Kultur und Wissenschaft ist Europeana kaum zu überschätzen. Jede Initiative und jedes Projekt, das geeignet ist, Europeana weiter zu fördern, wird von den deutschen Bibliotheken grundsätzlich positiv gesehen. Die Bibliotheken in Deutschland wollen unbedingt größere Teile ihrer Bestände digitalisieren und in Europeana einstellen. Zwei Hemmnisse jedoch behindern bisher eine aktivere Beteiligung aus Deutschland. Erstens steht den Bibliotheken keine ausreichende Finanzausstattung zur Verfügung, um aufwändige und teure Digitalisierungsprojekte durchzuführen. Neue Aufgaben der Bibliotheken, wie z.B. eine Digitalisierung der Bestände, müssen durch entsprechende zusätzliche Mittelzuweisungen begleitet werden. Dies ist bisher nur in Ansätzen der Fall. Zweitens stehen die rechtlichen Rahmenbedingungen, insbesondere die vielen Unklarheiten bis hin zu fehlenden Regelungen im Urheberrecht sowie eine fehlende europäische Harmonisierung auf diesem Gebiet der offensiven Digitalisierung von Bibliotheksbeständen und der digitalen Verbreitung entgegen.
-
Pöppe, C.: Ist jedes Rechteck ein Trapez? : Nein, sagt der normale Mensch. Ja, sgt der Mathematiker. Das ist vielleicht nicht normal - aber richtig (2003)
0.12
0.11598541 = product of:
0.23197082 = sum of:
0.18366478 = weight(_text_:jedes in 2561) [ClassicSimilarity], result of:
0.18366478 = score(doc=2561,freq=8.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.41755477 = fieldWeight in 2561, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.0234375 = fieldNorm(doc=2561)
0.04830603 = weight(_text_:und in 2561) [ClassicSimilarity], result of:
0.04830603 = score(doc=2561,freq=36.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.31189203 = fieldWeight in 2561, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2561)
0.5 = coord(2/4)
- Content
- "Die Fernsehshow »Wer wird Millionär?« veranlasste Anfang Februar Millionen Zuschauer, längst verstaubte Erinnerungen aus der Schule wieder hervorzukramen. Was genau war die Definition von »Trapez«? Man schaut im Lexikon nach und findet (zum Beispiel bei Brockhaus und Meyer nahezu gleich lautend): »ein ebenes Viereck mit zwei parallelen, nicht gleich langen Seiten«. Dann ist ein Rechteck offensichtlich kein Trapez. Das hatten die Aufgabensteller von »Wer wird Millionär?« auch so gesehen und daraufhin auf die Frage »Jedes Rechteck ist ein ...?« als eine der falschen Antwortmöglichkeiten »Trapez« angeboten. Die Raterin gab an dieser Stelle verunsichert das Spiel auf. Aber nach größeren Protesten sahen sich die Veranstalter veranlasst, die Frage zurückzuziehen und der Kandidatin das zu gewähren, was der Jurist »Wiedereinsetzung in den vorigen Stand« nennt. Ein Rechteck ist nämlich insbesondere einTrapez. Die Leute, die es wissen müssen, die Mathematiker, sind sich da ganz sicher. Das »Lexikon der Mathematik« (Spektrum Akademische rVerlag) spricht von einem »Viereck, in dem zwei gegenüberliegende Seiten parallel zueinander sind«, und es kommt eben nicht darauf an, ob die beiden Seiten gleich lang sind oder nicht. Wie kommt ein so auffälliger Fehler in gleich mehrere, eigentlich zuverlässige Lexika? Weil die Lexikon-Redakteure normal denken. Dazu gehört es auch, eine Sache mit dem engsten Begriff zu benennen, der auf sie passt. Eine Lungenentzündung ist eine Infektion und geht mit Fieber einher. Sie als »fieberhaften Infekt« zu bezeichnen wäre zwar korrekt, aber verfehlt, weil es das Wesentliche einer Lungenentzündung nicht trifft. Wer ein Rechteck als Trapez bezeichnet, gibt damit ebenfalls eine mangelhafte Beschreibung seines Objekts ab. Ein normaler Mensch verschweigt eben nicht das Wesentliche, zum Beispiel dass das vorliegende Viereck auch noch vier rechte Winkel hat. Warum können die Mathematiker das nicht einsehen und mit ihrer Definition von »Trapez« auf die im »Brockhaus« konkretisierte Denkweise des vernünftigen Normalmenschen einschwenken? Weil das unzweckmäßig wäre. Eine Gelegenheit, bei der Trapeze massenhaft Verwendung finden, ist die Integralrechnung. Man möchte den Inhalt der krummlinig begrenzten Fläche unter einer Kurve bestimmen. Dazu schneidet man die Fläche in dünne senkrechte Streifen und ersetzt die krumme Oberseite jedes Streifchens durch eine gerade Linie mit denselben Eckpunkten. Aus jedem Streifchen wird dadurch ein Trapez; dessen Flächeninhalt kann man mit der Flächenformel für Trapeze bestimmen und dann damit weiterrechnen. Und was ist, wenn zufällig-oder absichtlich-die Oberkante des Streifchens genau waagerecht liegt, sodass aus dem Trapez ein Rechteck wird? Nichts ist. Die Flächenformel gilt für alle Trapeze. Wenn sich unter ihnen ein Rechteck findet, soll es bitte nicht so tun, als sei es etwas Besonderes. Es kommt in diesem Kontext nämlich gar nicht darauf an. Ganz im Gegenteil: Wenn man zwischen den Fällen Trapez und Rechteck unterscheiden müsste, dann wäre die Einführung in die Integralrechnung doppelt so mühsam; und das kann kein Mensch ernsthaft wollen. Also müssen die Mathematiker darauf bestehen, dass RechteckeTrapeze sind. Das ist der tiefere Grund, warum mathematische Begriffsbildungen manchmal so albern anmuten. Die Fachleute missachten häufig die gute Regel »Bezeichne ein Ding präzise und nenne seine wesentlichen Eigenschaften«, weil sie sich nicht auf die Frage einlassen wollen, was eine wesentliche Eigenschaft ist. Das weiß man nämlich nicht immer so genau; es ändert sich auch häufig im Verlauf der Untersuchung. Und warum soll man eigens über einen Spezialfall reden, wenn er genauso zu behandeln ist wie der allgemeine Fall?
Dass dabei dem herkömmlichen Sprachverständnis Gewalt angetan wird, daran muss man sich gewöhnen. Von einer »Menge« spricht ein normaler Mensch nur, wenn es etwas gibt, das zu der Menge gehört; die Mathematiker kultivieren ihre leere Menge. Nach einer »Transformation« sieht dasTransformierte anders aus als zuvor, sollte man meinen. Falsch: Nichtstun ist ein - hoch geschätzter - Spezialfall einer Transformation. Eine »Kurve« ist etwas Krummes? Nicht notwendig. Definiert ist sie als der Weg eines Punktes, und der darf auch gerade sein. Besonders bizarr: Es gibt Mathematiker, die »linear« als Spezialfall von »nichtlinear« ansehen, und das mit gutem Grund: Lineare Gleichungssysteme sind, grob gesprochen, regelmäßig und mit Standardmethoden lösbar, nichtlineare dagegen nur in besonderen Fällen und mit spezialisierten Verfahren. Wer ein solches Verfahren entwirft, möchte es auf eine möglichst große Klasse von Problemen anwenden können. Wenn es bei den leichten schon nicht funktioniert, wie soll es erst bei den schweren gehen? Also wendet man jedes Verfahren für nichtlineare Gleichungen zuerst probeweise auf den linearen Spezialfall an. Mathematiker denken vielleicht nicht normal - aber richtig."
-
Hartmann, B.: Ab ins MoMA : zum virtuellen Museumsgang (2011)
0.11
0.11460407 = product of:
0.22920814 = sum of:
0.18366478 = weight(_text_:jedes in 2821) [ClassicSimilarity], result of:
0.18366478 = score(doc=2821,freq=2.0), product of:
0.43985796 = queryWeight, product of:
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.06983213 = queryNorm
0.41755477 = fieldWeight in 2821, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
6.2987905 = idf(docFreq=221, maxDocs=44421)
0.046875 = fieldNorm(doc=2821)
0.04554336 = weight(_text_:und in 2821) [ClassicSimilarity], result of:
0.04554336 = score(doc=2821,freq=8.0), product of:
0.15488061 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.06983213 = queryNorm
0.29405463 = fieldWeight in 2821, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=2821)
0.5 = coord(2/4)
- Content
- "Bin gestern im MoMA gewesen. Hab dann noch mal in der Tate vorbeigeschaut. Nachher dann noch einen Abstecher in die Alte Nationalgalerie gemacht. New York, London, Berlin an einem Tag, das ist dank Google kein Problem mehr. Auf der Plattform www.googleartproject.com bietet der Netz-Gigant jetzt einige virtuelle Museumsrundgänge durch einige der bekanntesten und bedeutendsten Häuser der Welt an. Googles neuestes Angebot unterscheidet sich von den in der Regel gut aufgestellten Homepages der Museen vor allem durch die Street-View-Technologie, mit der man von Raum zu Raum und von Bild zu Bild wandeln kann. Dazu hat der Besucher die Möglichkeit, zahlreiche Informationen zu den Kunstwerken abzurufen, oder die Werke in hochauflösenden Vergrößerungen anzuschauen. Aus jeder der teilnehmenden 17 Sammlungen hat Google ein Werk in einer Auflösung von sieben Milliarden Pixeln fotografiert. Wenn man da beim Rundgang durch die Alte Nationalgalerie auf Edouard Manets "Dans la Serre" (Im Wintergarten) trifft und nur einmal den Fingerring des Mannes heranzoomt, wird er gleichsam zur Unkenntlichkeit vergrößert, und man sieht wie unter einem Mikroskop jedes kleinste Detail des Farbauftrags, jeden feinsten Riss. Faszinierend. Auch wenn es das Original nicht ersetzt."