-
Kaminsky, P.: Vom armen Studenten zum "Million-Boy" : Mit winzigen Web-Werbeflächen macht Brite (21) das große Geld (2005)
0.10
0.09723484 = product of:
0.19446968 = sum of:
0.03375422 = weight(_text_:und in 5317) [ClassicSimilarity], result of:
0.03375422 = score(doc=5317,freq=12.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.24009462 = fieldWeight in 5317, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=5317)
0.16071546 = weight(_text_:hoffen in 5317) [ClassicSimilarity], result of:
0.16071546 = score(doc=5317,freq=2.0), product of:
0.4801183 = queryWeight, product of:
7.574333 = idf(docFreq=61, maxDocs=44421)
0.063387536 = queryNorm
0.33474138 = fieldWeight in 5317, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.574333 = idf(docFreq=61, maxDocs=44421)
0.03125 = fieldNorm(doc=5317)
0.5 = coord(2/4)
- Content
- "Das Internet hat einige Glückspilze rasant reich gemacht, vielen aber herbe Verluste gebracht: Der britische Studienanfänger Alex Tew (21) steht mit einer cleveren Geschäftsidee derzeit auf der Gewinnerseite. Er startete Ende August eine Internetseite mit dem verführerischen Namen "Million Dollar Homepage". Sein Ziel: ohne Aufwand schnell Geld zu verdienen. Dafür verkauft Tew winzig kleine Web-Werbeflächen. Keine aufregende Sache, mag man denken. Falsch. Die britische "Times" prüfte im Oktober die Kontendes "Million-Boy" ("Millionen-Junge"): 200.000 Euro waren eingegangen. Und die Seite boomt. "Ich war schon immer ein Mensch mit 1000 Ideen", erzählt der unauffällige 21-Jährige. Im Sommer hatten ihn Finanzsorgen geplagt. Sein Wirtschaftsstudium an der Universität Nottingham sollte allein im ersten Jahr 10.000 Euro für Unterkunft und Gebühren kosten. Der Ausblick, einen Schuldenberg anzuhäufen, sei "fürchterlich" gewesen. Also bot Tew eine Million Bildpunkte = Pixel genannt - auf seiner Web-Seite für je einen US-Dollar zum Kauf an. Werbekunden können dort ein Mini-Symbol platzieren. Kleinste Einheit ist ein Pixelquadrat aus 10 mal 10 Punkten für 100 Dollar - sonst ließe sich nichts erkennen. Der Clou: Beim Anklicken des Logos kommt der Nutzer direkt auf die Homepage des Kunden. Rund, sechs Wochen nach dem Start sieht die Seite des Briten aus wie ein wirres Sammelsurium: Online-Casinos, Poker-Runden und oft undurchsichtige Kreditanbieter stehen neben Hotel-Buchungsmaschinen, Vermittlern von Studienreisen nach China oder einem Händler von Anti-Bush-Stickern. Selbst der deutsche TÜV Rheinland hat sich ein Pixel-Quadrat gesichert. "Die Idee ist brillant in ihrer Schlichtheit", urteilt Professor Martin Blinks vom Innovationsinstitut der Uni Nottingham: "Ich denke, die Werbekunden sind von den Faktoren Neuheit und Kuriosität angezogen." Und die Web-Surfer ebenfalls. Wie nicht anders zu erwarten, wurde die Idee nach den ersten Presseberichten vielfach kopiert, auch in Deutschland. Stets mit leicht geänderten Namen. Doch die Nachahmer können längst nicht alle auf Geldströme hoffen - manche Seiten sind fast leer. Tews Pixelkäufer, die die "Times" befragte, kalkulieren offen mit dem Medieninteresse. Chris Magras von der US-Firma engineseeker.com ist zudem überzeugt, dass sein Pixelfeld Zulauf bringt: Wir hatten 40.000 Besucher am Tag auf unserer Seite - das ist auf 60.000 hochgegangen.« Tews lebt weiter in seiner kleinen Studentenbude. Eingekauft hat er dennoch: Reichlich Socken und eine Digitalkamera, wie er in seinem Web-Tagebuch erzählt. Nachdem die Geldsorgen vorbei sind, macht sich der Jungunternehmer nun Sorgen über zu wenig Zeit für Sport: "Geldverdienen macht dick." "
-
Gömpel, R.; Frodl, C.; Hengel, C.; Kunz, M.; Münnich, M.; Werner, C.: Aus den Veranstaltungen der Division IV Bibliographic Control des Weltkongresses Bibliothek und Information, 69. IFLA-Generalkonferenz in Berlin (2003)
0.10
0.09589102 = product of:
0.19178204 = sum of:
0.051156014 = weight(_text_:und in 2940) [ClassicSimilarity], result of:
0.051156014 = score(doc=2940,freq=36.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.36387405 = fieldWeight in 2940, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=2940)
0.14062603 = weight(_text_:hoffen in 2940) [ClassicSimilarity], result of:
0.14062603 = score(doc=2940,freq=2.0), product of:
0.4801183 = queryWeight, product of:
7.574333 = idf(docFreq=61, maxDocs=44421)
0.063387536 = queryNorm
0.2928987 = fieldWeight in 2940, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.574333 = idf(docFreq=61, maxDocs=44421)
0.02734375 = fieldNorm(doc=2940)
0.5 = coord(2/4)
- Abstract
- Unter dem Motto "Bibliothek als Portal: Medien - Information - Kultur" fand vom 1.-9. August 2003 in Berlin die 69. IFLA-Generalkonferenz erstmals unter ihrem neuen Namen "Weltkongress Bibliothek und Information" statt. Der Weltverband der Bibliothekarinnen und Bibliothekare gastierte damit nach 1956 (München), 1968 (Frankfurt am Main), 1981 (Leipzig) und 1983 (München) bereits zum fünften Mal in Deutschland. Die Veranstaltung war von der IFLA und dem nationalen Organisationskomitee hervorragend organisier und wies mit 4.582 Teilnehmerinnen und Teilnehmern aus 131 Ländern eine erfreulich hohe Teilnehmerzahl auf. Bemerkenswert hoch war auch die deutsche Beteiligung mit über 972 Teilnehmerinnen und Teilnehmern. In dieser Zahl berücksichtigt sind auch die 197 freiwilligen Helferinnen und Helfer, die die erfolgreiche Durchführung des Kongresses überhaupt erst möglich machten. Die hohe deutsche Teilnehmerzahl ist ein eindeutiges Indiz dafür, dass seitens des IFLA-Nationalkomitees und des IFLA 2003Sekretariats sehr erfolgreich Überzeugungsarbeit geleistet wurde. Es bleibt zu hoffen, dass dieser Schwung auch das künftige deutsche Engagement bei den Weltkongressen dauerhaft positiv beeinflussen wird. Nachdem es erstmals in Glasgow im letzten Jahr gelungen war, die Konferenzzeitschrift "IFLA Express" in deutscher Sprache zu veröffentlichen, wurde auch in Berlin täglich eine deutsche Ausgabe produziert. Wie in den Vorjahren soll hier über die Veranstaltungen der Division IV Bibliographic Control berichtet werden'. Die Arbeit der Division mit ihren Sektionen Bibliography, Cataloguing, Classification and Indexing bildet einen der Schwerpunkte der IFLA-Arbeit, die dabei erzielten konkreten Ergebnisse und Empfehlungen haben maßgeblichen Einfluss auf die tägliche Arbeit der Bibliothekarinnen und Bibliothekare. Die Tätigkeit der Division wird auch in Zukunft ergänzt durch Kernaktivitäten. Nachdem das bisherige Kernprogramm "Universal Bibliographic Control and International MARC (UBCIM)", dessen Büro von 1990 bis Februar 2003 an der Deutschen Bibliothek Frankfurt am Main angesiedelt war, mit dem Eintritt der bisherigen Leiterin Marie-France Plassard in den Ruhestand endete, eruieren die verantwortlichen IFLA-Gremien bereits in den Vorjahren Möglichkeiten, wie die Betreuung des Formates UNIMARC und die Fortführung eines Programms, das sich mit der universellen bibliographischen Kontrolle beschäftigt, sichergestellt werden könnten. Die portugiesische Nationalbibliothek hat nunmehr zu Beginn diesen Jahres die Pflege und Entwicklung von UNIMARC sowie die Herausgabe der Publikation "International Cataloguing and Bibliographic Control (ICBC)" übernommen. Darüber hinaus gelang es, mit der IFLA-CDNL Alliance for Bibliographic Standards (ICABS) ein neues strategisches Vorhaben für bibliographische Standards ins Leben zu rufen. Die feierliche Unterzeichnung der ICABS-Vereinbarung fand am 7. August 2003 im Rahmen der IFLA-Konferenz statt. Mit ICABS setzen die National Library of Australia, die Library of Congress, die British Library, die Koninklijke Bibliotheek und Die Deutsche Bibliothek gemeinsam mit der Biblioteca Nacional de Portugal, der IFLA und der Conference of Directors of National Libraries (CDNL) die Koordination und Unterstützung von Schlüsselaktivitäten im Bereich der bibliographischen und der Ressourcen-Kontrolle sowie damit zusammenhängender Formatstandards fort.
-
Mertens, M.: ¬Ein Manager regelt Sprache und Raum (2003)
0.10
0.095764354 = product of:
0.19152871 = sum of:
0.030813245 = weight(_text_:und in 3228) [ClassicSimilarity], result of:
0.030813245 = score(doc=3228,freq=10.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.2191754 = fieldWeight in 3228, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=3228)
0.16071546 = weight(_text_:hoffen in 3228) [ClassicSimilarity], result of:
0.16071546 = score(doc=3228,freq=2.0), product of:
0.4801183 = queryWeight, product of:
7.574333 = idf(docFreq=61, maxDocs=44421)
0.063387536 = queryNorm
0.33474138 = fieldWeight in 3228, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.574333 = idf(docFreq=61, maxDocs=44421)
0.03125 = fieldNorm(doc=3228)
0.5 = coord(2/4)
- Content
- "Das menschliche Gehirn besteht aus zwei äußerlich fast spiegelgleichen Hälften. Doch die Kompetenzen der beiden Partner sind klar geregelt. Die linke Seite ist für Sprache zuständig, die räumlichen Fähigkeiten sitzen rechts. Hirnforscher um Gereon Fink vom Forschungszentrum Jülich konnten nun erstmals nachweisen, wo sich die Schaltzentrale befindet, die eingehende Aufgaben an den jeweils zuständigen Sachbearbeiter weiterleitet. Sie fanden heraus, dass ein Bereich im Stirnhirn die Arbeit im Gehirn einteilt und koordiniert, berichten sie im Wissenschaftsmagazin Science (Bd. 301, S. 384, 2003). Die Hirnforscher baten Versuchspersonen, kurze Hauptwörter zu betrachten, in denen ein Buchstabe rot gefärbt war. Nun erhielten die Teilnehmer unterschiedliche Aufträge: Mal sollten sie angeben, ob das jeweils gezeigte Wort den Buchstaben A enthielt - eine sprachliche Aufgabe also. Ein andermal wurden die Teilnehmer gefragt, ob der rote Buchstabe rechts oder links der Wortmitte stand - hier war die räumliche Wahrnehmung gefordert. Nicht der Augenschein zählt, sondern der Auftrag: Die Forscher beobachteten die erwartete Arbeitsteilung - mal war die rechte, mal die linke Hirnhälfte besonders aktiv. Mit Hilfe der Magnetresonanz-Tomographie, die misst, wie gut das Hirngewebe mit Sauerstoff versorgt wird, machten sie diejenigen Bereiche des Hirns sichtbar, die gerade intensiv arbeiteten. Dabei spürten die Neurologen einen weiteren aktiven Bereich im Stirnhirn auf, den so genannten 'anterior cingular cortex (ACC)'. Es zeigte sich, dass dieses Kontrollzentrum für Managementaufgaben zuständig ist und darüber entscheidet, welche Hirnhälfte die Arbeit erledigen muss. "Der linke Teil des ACC arbeitete immer intensiver mit der Sprach-Region der linken Hirnhälfte zusammen, während die Entscheidung zu Gunsten der Buchstabenerkennung fiel. Im anderen Fall nahm der Einfluss des rechten ACC auf den Scheitellappen der rechten Hirnhälfte zu", erklärt Teamkollege Klaas Stephan. Damit konnten die Forscher zum ersten Mal direkt verfolgen, wie die verschiedenen Regionen des Gehirns miteinander kommunizierten, während sie ein Problem beurteilten und die Zuständigkeit ermitteln. "Wir sehen auf diese Weise, wie sich die verschiedenen beteiligten Hirnregionen miteinander unterhalten, und wie sich das 'Gespräch' verändert, wenn die Aufgabe wechselt", erläutert Gereon Fink. Die Neurologen hoffen nun, dass ihre Erkenntnisse bei der Therapie von Menschen helfen können, deren Kontrollmechanismen etwa infolge eines Schlaganfalls gestört sind."
-
Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996)
0.10
0.095348276 = product of:
0.19069655 = sum of:
0.13913614 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
0.13913614 = score(doc=2121,freq=2.0), product of:
0.44672412 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063387536 = queryNorm
0.31145877 = fieldWeight in 2121, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.051560417 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
0.051560417 = score(doc=2121,freq=28.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.36675057 = fieldWeight in 2121, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=2121)
0.5 = coord(2/4)
- Content
- Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
-
Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004)
0.10
0.095348276 = product of:
0.19069655 = sum of:
0.13913614 = weight(_text_:java in 346) [ClassicSimilarity], result of:
0.13913614 = score(doc=346,freq=2.0), product of:
0.44672412 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063387536 = queryNorm
0.31145877 = fieldWeight in 346, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.051560417 = weight(_text_:und in 346) [ClassicSimilarity], result of:
0.051560417 = score(doc=346,freq=28.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.36675057 = fieldWeight in 346, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=346)
0.5 = coord(2/4)
- Abstract
- In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
-
Goodman, J.; Heckerman, D.; Rounthwaite, R.: Schutzwälle gegen Spam (2005)
0.09
0.09413783 = product of:
0.18827567 = sum of:
0.027560202 = weight(_text_:und in 4696) [ClassicSimilarity], result of:
0.027560202 = score(doc=4696,freq=8.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.19603643 = fieldWeight in 4696, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=4696)
0.16071546 = weight(_text_:hoffen in 4696) [ClassicSimilarity], result of:
0.16071546 = score(doc=4696,freq=2.0), product of:
0.4801183 = queryWeight, product of:
7.574333 = idf(docFreq=61, maxDocs=44421)
0.063387536 = queryNorm
0.33474138 = fieldWeight in 4696, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.574333 = idf(docFreq=61, maxDocs=44421)
0.03125 = fieldNorm(doc=4696)
0.5 = coord(2/4)
- Abstract
- Die erste Spam wurde 1978 an 400 Empfänger im Arpanet geschickt. Absender war ein Mitarbeiter der PR-Abtei lung von Digital Equipment Corporation (Dec), der darin für den damals neuen Decsystem-20-Rechner der Firma warb. Heute macht Spam mehr als zwei Drittel der über das Internet versandten E-Mails aus; täglich werden mehrere Milliarden solcher unverlangten Werbebotschaften versandt. Ein Drittel aller EMail-Nutzer hat mehr als 80 Prozent Spam in der elektronischen Post. Seit einiger Zeit sorgt Spam zudem durch so genannte Phishing-Attacken für Ärger: Dabei werden gefälschte E-Mails, die Fake-E-Mails, verschickt, die scheinbar von Mitarbeitern großer, Vertrauen erweckender Institutionen stammen, tatsächlich aber von Betrügern kommen - um damit Kreditkartennummern oder andere persönliche Informationen auszuspionieren. Nach einer Studie von Gartner Research von 2004 verursachen Phishing-Attacken in den USA Schäden in Höhe von jährlich 1,2 Milliarden Dollar. Spammer nutzen nicht nur E-Mail. In Chatrooms warten »Roboter«, die sich als Menschen ausgeben und Leute zu Klicks auf pornografische Webseiten verleiten sollen. Nutzer von Instant-Messaging-Systemen (IM) bekommen es mit so genannten splMs zu tun, engen »Verwandten« des Spams. In Web-Blogs (Web-Tagebüchern) lauern »Link-Spammer«, welche die Arbeit von Internetsuchmaschinen manipulieren, indem sie unerwünschte Links hinzufügen - was die Nutzung von Webseiten und Links erschwert. Spam steht teilweise in dem Ruf, die Internetkommunikation zu behindern oder gar zum Erliegen zu bringen. Die Wirklichkeit sieht indes nicht ganz so schwarz aus. Softwareentwickler haben verschiedene Techniken ersonnen, Spam auszufiltern und Spammern das Handwerk zu erschweren - weitere werden in Labors erprobt. Die hier vorgestellten Methoden richten sich gegen Junk-EMail, könnten aber auch zur Eindämmung anderer Spamvarianten verwendet werden. Keine dieser Techniken vermag Wunder zu vollbringen, doch ihre Kombination - sofern möglichst viele User sie anwenden - verspricht zumindest deutliche Verbesserungen. Es ist nicht unrealistisch zu hoffen, dass unsere E-MailPostfächer eines Tages wieder nahezu frei von Spam sein werden.
- Footnote
- Mit einer Grafik zum Prinzip des Spamming und der Spam-Abwehr
-
Wagner, K. (Bearb.); Ulrike Adamek, U. (Red.); Gerd Fenner, G. (Red.); Heike Heinzel, H. (Red.); Alexander Link, A. (Red.); Reher, U. (Red.): Systematik zur Inventarisierung kulturgeschichtlicher Bestände in Museen (1993)
0.09
0.09366243 = product of:
0.18732487 = sum of:
0.046698842 = weight(_text_:und in 5015) [ClassicSimilarity], result of:
0.046698842 = score(doc=5015,freq=30.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.33217007 = fieldWeight in 5015, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5015)
0.14062603 = weight(_text_:hoffen in 5015) [ClassicSimilarity], result of:
0.14062603 = score(doc=5015,freq=2.0), product of:
0.4801183 = queryWeight, product of:
7.574333 = idf(docFreq=61, maxDocs=44421)
0.063387536 = queryNorm
0.2928987 = fieldWeight in 5015, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.574333 = idf(docFreq=61, maxDocs=44421)
0.02734375 = fieldNorm(doc=5015)
0.5 = coord(2/4)
- Abstract
- Vor vier Jahren, als sich eine Arbeitsgruppe im Hessischen Museumsverband zusammenfand, um über die Inventarisierung von Museumsbeständen und den möglichen Einsatz von EDV zu beraten, wurde der seit Jahren immer wieder geäußerte Wunsch vieler Museen nach einem praktikablen Ordungssystem erneut aufgegriffen. Wieso; wird mancher sich fragen, denkt man im Zeitalter der elektronischen Datenverarbeitung noch über konventionelle Methoden der Bestandserfassung nach'? Wäre es nicht besser, seine Energie darauf zu lenken, brauchbare Software zu entwickeln, die die mühselige Inventarisierungsarbeit zu einem Kinderspiel werden läßt? Wer sich jedoch intensiv mit dieser Frage auseinandersetzt, bemerkt schnell, daß er auf vielfältige Probleme stößt, die gelöst werden müssen, um einen sinnvollen Einsatz von EDV zu gewährleisten. Mit einem Kinderspiel hat das ganze nämlich nichts zu tun: schon wenn es darum geht, einen "universellen" Fundus, den wir in unseren Museen vorfinden, EDV-gerecht zu strukturieren, wird klar, daß im Vorfeld eine Menge Kopfarbeit geleistet werden muß. Eine wesentliche Schranke ist z.B. die natürliche Sprache. Da der Computer nicht nach Bedeutungsinhalten von Wörtern unterscheiden kann, sondern stur formalistisch recherchiert, ist eine strenge terminologische Kontrolle aller Begriffe notwendig. bevor die Daten eingegeben werden können. Bezeichnungen und Schreibweisen sind also im Vorfeld akribisch festzulegen. Dies ist insbesondere für die Fülle von Objekten, die Eingang in kulturgeschichtliche Museen finden können, eine Fleißarbeit, die Mitarbeiter an kleinen und mittleren Museen sicherlich überfordert. Wer sich dennoch auf diesen Pfad begeben möchte, dem seien die beiden umfangreichen Broschüren zu diesem Thema von Jane Sunderland und Lenore Sarasan und Christoph Wolters als Lektüre empfohlen.
Zur Erfassung ihrer Bestände gehen viele Museen auch heute noch den konventionellen Weg und legen gegliederte Bestandskarteien an. Wer sich dabei nicht auf das Klassifikationssystem des Schweizer Museumswissenschaftlers Walter Trachsler stützen möchte, steht gewöhnlich vor einem Vakuum Ihm bleiben zwei Möglichkeiten: Entweder die Erarbeitung eigener, auf den Bestand bezogener Ordnungskriterien oder die Übernahme von Systematiken anderer Museen, die zunächst auf die eigene Sammlung zugeschnitten werden müssen. Der erste Weg ist sinnvoll, doch wird er in der Praxis selten beschritten. Die zweite Methode wird dagegen häufiger praktiziert. Doch mancher, der diesen Weg gegangen ist, wird in einer Sackgasse steckengeblieben sein. Denn Aufbau und Struktur bestandsbezogener Ordungssystenie lassen Änderungen, Erweiterungen und Einschübe oftmals nicht zu So kann ein undurchschaubares System von Begriffen und Zahlen entstehen, das dann doch irgendwann einer kompletten Neuordnung bedarf. Mit der Einstellung einer wissenschaftlichen Mitarbeiterin im Rahmen des "Sonderprogramms Inventarisierung" des Hessischen Museumsverbandes wurde die Erarbeitung eines Klassifikationssystems realisierbar. Es sollte eine benutzerfreundliche Inventarisierungsvorlage für eine Hauptkartei geschaffen werden, die in ihrer Struktur übersichtlich und nachvollziehbar ist. Es war ein steiniger Weg, der da beschritten wurde. Inventarverzeichnisse und Ordnungskriterien unterschiedlicher Museen wurden beschafft und durchgearbeitet, Museumsdepots nach ihren Sammlungsbeständen durchforstet, Experten befragt, Literatur zu Rate gezogen und erste Gliederungsversuche zu Papier gebracht. Daraus entwickelten sich Grundzüge, die dann zu einer dreistufigen, hierarchischen Ordnung ausgearbeitet wurden. Ein wichtiges Ziel war es, in allen hierarchischen Ebenen Ergänzungsmöglichkeiten für weitere Bestände zu schaffen. Alle Bereiche wurden in einer wissenschaftlichen Arbeitsgruppe ständig beraten, verändert, in mehreren Museen getestet und neu gefaßt. Das Ergebnis dieser mehr als zweijährigen Arbeit liegt nun vor. Wir hoffen, daß die Systematik als willkommene Hilfe zur Inventarisierung in den Museen angenommen wird und dazu beiträgt, den kulturhistorischen Fundus unseres Landes zu dokumentieren.
-
Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001)
0.09
0.093435906 = product of:
0.18687181 = sum of:
0.13913614 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
0.13913614 = score(doc=6889,freq=2.0), product of:
0.44672412 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063387536 = queryNorm
0.31145877 = fieldWeight in 6889, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.047735672 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
0.047735672 = score(doc=6889,freq=24.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.33954507 = fieldWeight in 6889, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=6889)
0.5 = coord(2/4)
- Abstract
- Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
- Series
- Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
- Source
- Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
-
Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008)
0.09
0.093435906 = product of:
0.18687181 = sum of:
0.13913614 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
0.13913614 = score(doc=1642,freq=2.0), product of:
0.44672412 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063387536 = queryNorm
0.31145877 = fieldWeight in 1642, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.047735672 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
0.047735672 = score(doc=1642,freq=24.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.33954507 = fieldWeight in 1642, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1642)
0.5 = coord(2/4)
- Abstract
- Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
-
Sixtus, M.: Absturz im zweiten Level : Wenn in Computerspielen plötzlich Waffen versagen, könnte das an einem neuen Kopierschutz liegen - der bald auch DVD-Seher überraschen soll (2003)
0.09
0.0928707 = product of:
0.1857414 = sum of:
0.045115367 = weight(_text_:und in 3970) [ClassicSimilarity], result of:
0.045115367 = score(doc=3970,freq=28.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.32090676 = fieldWeight in 3970, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=3970)
0.14062603 = weight(_text_:hoffen in 3970) [ClassicSimilarity], result of:
0.14062603 = score(doc=3970,freq=2.0), product of:
0.4801183 = queryWeight, product of:
7.574333 = idf(docFreq=61, maxDocs=44421)
0.063387536 = queryNorm
0.2928987 = fieldWeight in 3970, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.574333 = idf(docFreq=61, maxDocs=44421)
0.02734375 = fieldNorm(doc=3970)
0.5 = coord(2/4)
- Content
- "Sowjettruppen haben das kleine Eiland Nogova besetzt. Nur Widerstandskämpfer Victor Troska und seine Mannen sind in der Lage, den Eindringlingen Gegenwehr zu leis- ten. Die Szenerie des PC-Spiels Upmtion Flashpoint ist zu Zeiten des Kalten Kriegs angesiedelt und glänzt nicht unbedingt durch Originalität. Es sei denn, es liegt eine kopierte CD im Laufwerk. Denn neben bösen Russen, Explosivgeschossen und anderen genreüblichen Unannehmlichkeiten haben sparsame Fans des Ballerabenteuers mit ganz außergewöhnlichen Schwierigkeiten zu kämpfen: Urplötzlich versagen Waffen, Spielstände lassen sich auf einmal nicht' mehr speichern, und sich spurlos auflösende Ausrüs-tungsgegenstände vermiesen ihnen zunehmend das Vergnügen. "Fade" nennt die Computerspielindustrie ihren Trick. Er soll Kopierschutz und Marketingmasche zugleich sein. Zunächst ist es problemlos möglich, die Software zu vervielfältigen. Und anfangs laufen die Kopien perfekt. Aber mit zunehmender Spieldauer büßen sie mehr und mehr ihre Funktionalitäten ein, bis die genervten Bildschirmdaddler schließlich kapitulieren und das Originalspiel kaufen-das hoffen zumindest die Hersteller. Die britische Spieleschmiede Codemaster hat "Fade" entwickelt. Das Verfahren gehört mittlerweile zum Safedisc-Paket des Kopierschutzspezialisten Macrovision: Unternehmenssprecher Simon Mehlman äußert sich zurückhaltend: "Es ist durchaus begründet anzunehmen, dass der Vorgeschmack auf ein Spiel einen illegalen User dazu ermuntern kann, sich die Software zu kaufen. In erster Linie handelt es sich bei Fade und Safedisc aber um einen Schutz vor Raubkopien." Die Sicherung wird nicht, wie sonst bisher üblich, dem fertigen Spiel übergestülpt. "Unser System erlaubt es den Programmierern, Kopierschutz und AntiHack-Codes bereits während der Entwicklung des Spieles einzufügen "Unerwünschtes Raubkopieren zu verhindern wird damit tatsächlich zu einem kreativen Vorgang: Bereits in der Planungsphase können die Autoren überlegen; über welche Funktionen, die versagen, sich illegale Spieler wohl am meisten ärgern. Der Kopierschutz wird so zu einem Teil des Drehbuchs und - wenn man so will - zu einem Spiel im Spiel: Nicht nur kopierte Computergames haben sich die Leute von Macrovision vorgenommen: Im nächsten Schritt sollen auch Nutzer vervielfältigter Film-DVD Überraschungen der unangenehmen Art. erleben. Mit Hilfe eines ähnlichen Verfahrens namens Safe-DVD soll ein Spielfilm beispielsweise an einer besonders spannenden Stelle einfrierenoder einzelne Szenen nur in einer Endlosschleife zeigen. Nun ist das Erstellen. einer privaten Sicherheitskopie in Deutschland auch nach der Urheberrechtsnovelle egal - sofern dabei' nicht ein Kopierschutz umgangen wird. Laut Macrovision ist es allein Sache der Spielehersteller, den Käufern auf den eventuellen Einsatz von Fade aufmerksam zu machen. Wie kann der rechtmäßige Besitzer einer Software oder eines Films denn nun ein Backup seines Datenträgers herstellen, ohne dass plötzlich auch die legale Kopie an einem wundersamen Funktionsschwund leidet? Zu dieser Problematik möchte man sich im Hause Macrovision nicht äußern. Das muss nicht überraschen, haben sich die Kopierschützer mit ihrem originellen Vorgehen wohl unabsichtlich in eine rechtliche Grauzone gebracht. Erfahrungsgemäß dürften die ersten Tools, die in der Lage sind, Fade auszuhebeln, nicht lange auf sich warten lassen. Ob die Umgehung eines Kopierschutzes, der sich selbst als solcher nicht zu erkennen gibt, strafrechtlich relevant ist, darüber dürften wohl noch einige juristische Fachschriften verfasst werden. Kenner der Szene zweifeln indes auch an dem Erfolg einer Marketingstrategie, die auf der Selbstzerstörung des Produkts basiert. Sie verweisen stattdessen auf den Erfolg der Ego-Shooter Doom und Quake. Die Millionenseller kommen seit jeher gänzlich ohne Kopierschutz aus."
- Footnote
- Falsche Fehler: Das Kopierschutzsystem Fade schaltet auf vervielfältigten CD bestimmte Funktionen ab. Technisch basiert es auf dem Konzept "falsche Fehler". Die Originaldiskwird mit virtuellen Fehlen ge brannt-die herkömmliche Brennprogramme während des Kopierens prompt automatisch beseitigen. Findet das Spiel später die vermeintlichen Datenfehler nicht vor, beginnt der unaufhaltsame Zerfallsvorgang - und zwar genau so langsam, dass den Raubkopierern noch genügend Zeit bleibt, sich mit der virtuellen Welt anzufreunden und sich in ihr zurechtzufinden,
-
Tsai, B.-s.: Infomapping in information retrieval (1997)
0.09
0.09037158 = product of:
0.36148632 = sum of:
0.36148632 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
0.36148632 = score(doc=3877,freq=6.0), product of:
0.44672412 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063387536 = queryNorm
0.8091937 = fieldWeight in 3877, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=3877)
0.25 = coord(1/4)
- Abstract
- Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
-
Zur Theorie und Praxis des modernen Bibliothekswesens : Bd.1: Gesellschafftliche Aspekte - Bd.2: Technologische Aspekte - Bd.3: Betriebswirtschaftliche Aspekte (1976)
0.09
0.08950031 = product of:
0.17900062 = sum of:
0.05846402 = weight(_text_:und in 4365) [ClassicSimilarity], result of:
0.05846402 = score(doc=4365,freq=64.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.41585606 = fieldWeight in 4365, product of:
8.0 = tf(freq=64.0), with freq of:
64.0 = termFreq=64.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4365)
0.1205366 = weight(_text_:hoffen in 4365) [ClassicSimilarity], result of:
0.1205366 = score(doc=4365,freq=2.0), product of:
0.4801183 = queryWeight, product of:
7.574333 = idf(docFreq=61, maxDocs=44421)
0.063387536 = queryNorm
0.25105605 = fieldWeight in 4365, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.574333 = idf(docFreq=61, maxDocs=44421)
0.0234375 = fieldNorm(doc=4365)
0.5 = coord(2/4)
- Abstract
- Bibliotheken spielen in zunehmendem Maße eine wichtige Rolle bei der Befriedigung des Informationsbedarfs in Ausbildung, Wissenschaft, Technik, Wirtschaft und Verwaltung. Seit Jahren befinden sich einzelne Teilbereiche der Bibliotheken in einem rasch fortschreitenden Prozeß der Veränderung. Die Bibliothekare an den Bibliotheken der Bundesrepublik Deutschland haben sich in den letzten zehn bis fünfzehn Jahren bemüht, durch praktisch-organisatorische Reformen und durch den Einsatz neuer technischer Hilfsmittel, die ihnen anvertrauten Institutionen zu verbessern entsprechend den insgesamt gesteigerten, gruppenweise sehr unterschiedlichen Bedürfnissen der Benutzer. Parallel hierzu hat sich unter Anwendung der Methoden und Forschungsergebnisse sehr verschiedener Wissenschaften in jüngster Zeit auch die theoretische Erörterung besonders der gesellschaftlichen, betriebswirtschaftlichen und technischen Aspekte des Bibliothekswesens verstärkt und verwissenschaftlicht. In dieser Situation will das dreibändige Handbuch sowohl den in der Ausbildung wie den in der Berufspraxis stehenden Bibliothekar über neuere Entwicklungen und aktuelle Probleme des Bibliothekswesens in der Bundesrepublik sowie über den gegenwärtigen Stand theoretischer Überlegungen informieren. Dabei werden mit Hinweisen auf das Bibliothekswesen anderer Länder, vor allem der angelsächsischen, auch zukünftige Entwicklungstendenzen behandelt. Der Hervorhebung gesellschaftlicher, betriebswirtschaftlicher und technischer Aspekte und den Zielen dieses Handbuches entspricht auch dessen dreiteilige Anlage. Die raschen Veränderungen in Theorie und Praxis des modernen Bibliothekswesens ließen vergleichsweise kurze Einzelbeiträge zahlreicher Sachkenner mit einer Einführung in die Problematik, der Beschreibung des Entwicklungsstandes sowie kritischer Bewertung und weiterführenden Hinweisen auf wichtige Literatur als die geeignete Form erscheinen, die zugleich eine relativ kurzfristige Überarbeitung ermöglicht.
Die Herausgeber sind sich bewußt, daß viele Ergebnisse vorläufig bleiben müssen. So versteht sich, daß sie das alte »Handbuch der Bibliothekswissenschaft« nicht ersetzen wollen. Vielmehr nutzen sie die Freiheit von Sammelbänden, welche die umfassenden Gesamtdarstellungen und Hand- oder Lehrbücher mit dem Anspruch einer auf längere Zeit retrospektiv abschließenden Darstellung nicht haben können: sie wählen aus und beschränken sich auf einen Ausschnitt ihnen wichtig erscheinender Themen, Verfahren und Entwicklungen. Dabei lassen sie die individuelle Darstellungsweise der Autoren absichtlich weitgehend unverändert und mildern die derart niemals ganz auszuschließenden Überschneidungen durch ein Gesamtregister. Der Vorzug »begrenzter Vielfalt« und der speziellen Sachkenntnis einer Vielzahl von Autoren bedeutet immer auch eine Gefahr: Autoren und Perspektiven sind ebenso unterschiedlich wie Aufbau, Stil und Qualität der einzelnen Beiträge. Die Herausgeber sind aber der Meinung, daß Universalität und Spezialistentum auch im bibliothekarischen Beruf unvereinbar geworden sind und deshalb die Vorzüge des Sammelbandes seine Nachteile überwiegen. Sie haben im übrigen die Hoffnung noch nicht aufgegeben, zu einem späteren Zeitpunkt einen ähnlichen Sammelband über Entwicklung und aktuelle Probleme einzelner Bibliothekstypen und -systeme folgen lassen zu können. Der Verzicht auf »klassische« Sachgebiete wie Bibliotheksgeschichte und Buchwissenschaft beruht nicht auf einem Vorurteil. In diesem Zusammenhang kann auf die im Erscheinen befindlichen »Elemente des Buch- und Bibliothekswesens« verwiesen werden. Die vorliegenden drei Bände sollten ursprünglich das gesamte Bibliothekswesen für die angesprochenen Themenbereiche erfassen. Sie sind aber im Hinblick auf die bereits erwähnte Spezialisierung der Autoren zu einer Darstellung fast nur der wissenschaftlichen Bibliotheken geraten. Die Herausgeber hoffen jedoch, daß das Versäumte in künftigen Bänden noch nachgeholt werden kann. Die Herausgeber danken den Autoren, daß sie so viel Geduld mit ihnen hatten, und Edwin Stark von der Universitätsbibliothek Freiburg für die Bearbeitung des Registers.
- Content
- Inhalt Band 1: 1 Bibliothekswissenschaft und Bibliotheksforschung / Eberhard Sauppe 2 Bibliotheksplanung / Elmar Mittler 3 Strukturprobleme des deutschen Bibliothekswesens / Friedrich-Adolf Schmidt-Künsemüller 4 Öffentlichkeitsarbeit und Werbung 4.1 In wissenschaftlichen Bibliotheken / Sibylle Selbmann 4.2 In öffentlichen Bibliotheken / Ute Müller 5 Berufsbild und Ausbildung des Bibliothekars / Hans-Peter Geh 6 Methoden der empirischen Sozialforschung / Frank Heidtmann 7 Benutzerforschung als Hilfsmittel für Bibliotheksverwaltung und -planung / Karl Wilhelm Neubauer 8 Die Unterweisung in Bibliotheksbenutzung / Nikolaus Strelzcyk Inhalt Band 2: Inhalt Band 3: 1 Betriebswirtschaftliche Planung, Organisation und Kontrolle / Gerhard Kissel 2 Kostenrechnung und Kosten-Leistungsrechnung, sowie weiterführende ökonomische Überlegungen / Robert Funk 3 Arbeitsplatzanalysen 3.1 Grundlagen der Arbeitsplatzgestaltung / Ingo Heinisch 3.2 Stellenbeschreibung und Arbeitsplatzbewertung / Helmut Cyntha 4 Führungsorganisation in der öffentlichen Verwaltung / Armin Töpfer 5 Personalführung in Bibliotheksbetrieben / Frank Heidtmann 6 Bibliotheksstatistik / Karl F. Stock
-
Oberhauser, O.: Implementierung und Parametrisierung klassifikatorischer Recherchekomponenten im OPAC (2005)
0.09
0.088399395 = product of:
0.17679879 = sum of:
0.036172766 = weight(_text_:und in 4353) [ClassicSimilarity], result of:
0.036172766 = score(doc=4353,freq=18.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.2572978 = fieldWeight in 4353, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4353)
0.14062603 = weight(_text_:hoffen in 4353) [ClassicSimilarity], result of:
0.14062603 = score(doc=4353,freq=2.0), product of:
0.4801183 = queryWeight, product of:
7.574333 = idf(docFreq=61, maxDocs=44421)
0.063387536 = queryNorm
0.2928987 = fieldWeight in 4353, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.574333 = idf(docFreq=61, maxDocs=44421)
0.02734375 = fieldNorm(doc=4353)
0.5 = coord(2/4)
- Abstract
- Das in den letzten Jahren wiedererwachte Interesse an der klassifikatorischen Erschließung und Recherche hat sich allem Anschein nach noch nicht ausreichend bis zu den Herstellern integrierter Bibliothekssysteme herumgesprochen. Wie wäre es sonst zu erklären, dass im OPAC-Modul eines führenden Systems wie Aleph 500 so gut wie keine Features für klassifikationsbasierte Recherchen zu erblicken sind? Tatsächlich finden wir heute einen im Vergleich zum einstigen System Bibos kaum veränderten Zustand vor: Notationen eines oder mehrerer Klassifikationssysteme können in einer durch MAB dafür bestimmten Kategorie (700, nebst Indikatoren) katalogisiert und dann recherchiert bzw. angezeigt werden. Doch welcher Benutzer weiß schon, was diese Notationen im einzelnen bedeuten? Wer macht sich die Mühe, dies selbst herauszufinden, um dann danach zu recherchieren? Hier liegt im wesentlich dasselbe Problem vor, das schon dem systematischen Zettelkatalog anhaftete und ihn zu einem zwar mühevoll erstellten, aber wenig genutzten Rechercheinstrument machte, das nur dann (zwangsläufig) angenommen wurde, wenn ein verbaler Sachkatalog fehlte. Nun könnte eingewandt werden, dass im Vergleich zu früher unter Aleph 500 wenigstens das Aufblättern von Indizes möglich sei, sodass im OPAC ein Index für die vergebenen Notationen angeboten werden kann (bzw. mehrere solche Indizes bei Verwendung von mehr als nur einem Klassifikationssystem). Gewiss, doch was bringt dem Uneingeweihten das Aufblättern des Notationsindex - außer einer alphabetischen Liste von kryptischen Codes? Weiter könnte man einwenden, dass es im Aleph-500-OPAC die so genannten Suchdienste ("services") gibt, mithilfe derer von bestimmten Elementen einer Vollanzeige hypertextuell weiternavigiert werden kann. Richtig, doch damit kann man bloß wiederum den Index aufblättern oder alle anderen Werke anzeigen lassen, die dieselbe Notationen - also einen Code, dessen Bedeutung meist unbekannt ist - aufweisen. Wie populär mag dieses Feature beim Publikum wohl sein? Ein anderer Einwand wäre der Hinweis auf das inzwischen vom Hersteller angebotene Thesaurus-Modul, das vermutlich auch für Klassifikationssysteme eingesetzt werden könnte. Doch wie viele Bibliotheken unseres Verbundes waren bisher bereit, für dieses Modul, das man eigentlich als Bestandteil des Basissystems erwarten könnte, gesondert zu bezahlen? Schließlich mag man noch einwenden, dass es im Gegensatz zur Bibos-Zeit nun die Möglichkeit gibt, Systematiken und Klassifikationen als Normdateien zu implementieren und diese beim Retrieval für verbale Einstiege in die klassifikatorische Recherche oder zumindest für die Veranschaulichung der Klassenbenennungen in der Vollanzeige zu nutzen. Korrekt - dies ist möglich und wurde sogar einst für die MSC (Mathematics Subject Classification, auch bekannt als "AMS-Klassifikation") versucht. Dieses Projekt, das noch unter der Systemversion 11.5 begonnen wurde, geriet jedoch nach einiger Zeit ins Stocken und fand bedauerlicherweise nie seinen Weg in die folgende Version (14.2). Mag auch zu hoffen sein, dass es unter der neuen Version 16 wieder weitergeführt werden kann, so weist dieses Beispiel doch auf die grundsätzliche Problematik des Normdatei-Ansatzes (zusätzlicher Aufwand, Kontinuität) hin. Zudem lohnt sich die Implementierung einer eigenen Normdatei 4 wohl nur bei einem größeren bzw. komplexen Klassifikationssystem, wogegen man im Falle kleinerer Systematiken kaum daran denken würde.
- Source
- Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 58(2005) H.1, S.22-37
-
Semantic Media Wiki : Autoren sollen Wiki-Inhalte erschließen (2006)
0.09
0.088399395 = product of:
0.17679879 = sum of:
0.036172766 = weight(_text_:und in 27) [ClassicSimilarity], result of:
0.036172766 = score(doc=27,freq=18.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.2572978 = fieldWeight in 27, product of:
4.2426405 = tf(freq=18.0), with freq of:
18.0 = termFreq=18.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=27)
0.14062603 = weight(_text_:hoffen in 27) [ClassicSimilarity], result of:
0.14062603 = score(doc=27,freq=2.0), product of:
0.4801183 = queryWeight, product of:
7.574333 = idf(docFreq=61, maxDocs=44421)
0.063387536 = queryNorm
0.2928987 = fieldWeight in 27, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.574333 = idf(docFreq=61, maxDocs=44421)
0.02734375 = fieldNorm(doc=27)
0.5 = coord(2/4)
- Content
- "Mit einer semantischen Erweiterung der Software MediaWiki ist es dem Forschungsteam Wissensmanagement des Instituts für Angewandte Informatik und Formale Beschreibungsverfahren (AIFB) der Universität Karlsruhe (TH) gelungen, das Interesse der internationalen Fachwelt auf sich zu ziehen. Die jungen Forscher Denny Vrandecic und Markus Krötzsch aus dem Team von Professor Dr. Rudi Studer machen die Inhalte von Websites, die mit MediaWiki geschrieben sind, für Maschinen besser auswertbar. Ihr Konzept zur besseren Erschließung der Inhalte geht allerdings nur auf, wenn die Wiki-Autoren aktiv mitarbeiten. Die Karlsruher Forscher setzen auf eine Kombination aus sozialer und technischer Lösung: Sie hoffen, dass sich auf der Basis ihrer Wiki-PlugIn-Software "Semantic MediaWiki" eine Art kollektive Indexierung der Wiki-Artikel durch die Autoren entwickelt - und ernten für diese Idee viel Beifall. Semantic MediaWiki wird bereits auf mehreren Websites mit begrenztem Datenvolumen erfolgreich eingesetzt, unter anderen zur Erschließung der Bibel-Inhalte (URLs siehe Kasten). Nun testen die Karlsruher Forscher, ob ihr Programm auch den gigantischen Volumenanforderungen der freien Web-Enzyklopädie Wikipedia gewachsen ist. Die Wikimedia Foundation Inc., Betreiber von Wikipedia, stellt ihnen für den Test rund 50 Gigabyte Inhalt der englischen Wikipedia-Ausgabe zur Verfügung und hat Interesse an einer Zusammenarbeit signalisiert. Semantic MediaWiki steht als Open Source Software (PHP) auf der Website Sourceforge zur Verfügung. Semantic MediaWiki ist ein relativ einfach zu bedienendes Werkzeug, welches auf leistungsstarken semantischen Wissensmanagement-Technologien aufbaut. Die Autoren können mit dem Werkzeug die Querverweise (Links), die sie in ihrem Text als Weiterleitung zu Hintergrundinformationen angeben, bei der Eingabe als Link eines bestimmten Typs kennzeichnen (typed links) und Zahlenangaben und Fakten im Text als Attribute (attributes) markieren. Bei dem Eintrag zu "Ägypten" steht dann zum Bespiel der typisierte Link "[[ist Land von::Afrika]]" / "[[is country of::africa]]", ein Attribut könnte "[[Bevölkerung:=76,000,000]]" / "[[population:=76,000,000]]" sein. Die von den Autoren erzeugten, typisierten Links werden in einer Datenbank als Dreier-Bezugsgruppen (Triple) abgelegt; die gekennzeichneten Attribute als feststehende Werte gespeichert. Die Autoren können die Relationen zur Definition der Beziehungen zwischen den verlinkten Begriffen frei wählen, z.B. "ist ...von' / "is...of", "hat..." /"has ...". Eingeführte Relationen stehen als "bisher genutzte Relationen" den anderen Schreibern für deren Textindexierung zur Verfügung.
Aus den so festgelegten Beziehungen zwischen den verlinkten Begriffen sollen Computer automatisch sinnvolle Antworten auf komplexere Anfragen generieren können; z.B. eine Liste erzeugen, in der alle Länder von Afrika aufgeführt sind. Die Ländernamen führen als Link zurück zu dem Eintrag, in dem sie stehen - dem Artikel zum Land, für das man sich interessiert. Aus informationswissenschaftlicher Sicht ist das Informationsergebnis, das die neue Technologie produziert, relativ simpel. Aus sozialwissenschaftlicher Sicht steckt darin aber ein riesiges Potential zur Verbesserung der Bereitstellung von enzyklopädischer Information und Wissen für Menschen auf der ganzen Welt. Spannend ist auch die durch Semantic MediaWiki gegebene Möglichkeit der automatischen Zusammenführung von Informationen, die in den verschiedenen Wiki-Einträgen verteilt sind, bei einer hohen Konsistenz der Ergebnisse. Durch die feststehenden Beziehungen zwischen den Links enthält die automatisch erzeugte Liste nach Angaben der Karlsruher Forscher immer die gleichen Daten, egal, von welcher Seite aus man sie abruft. Die Suchmaschine holt sich die Bevölkerungszahl von Ägypten immer vom festgelegten Ägypten-Eintrag, so dass keine unterschiedlichen Zahlen in der Wiki-Landschaft kursieren können. Ein mit Semantic MediaWiki erstellter Testeintrag zu Deutschland kann unter http://ontoworld.org/index.php/Germany eingesehen werden. Die Faktenbox im unteren Teil des Eintrags zeigt an, was der "Eintrag" der Suchmaschine an Wissen über Deutschland anbieten kann. Diese Ergebnisse werden auch in dem Datenbeschreibungsstandard RDF angeboten. Mehr als das, was in der Faktenbox steht, kann der Eintrag nicht an die Suchmaschine abgeben."
- Source
- Information - Wissenschaft und Praxis. 57(2006) H.6/7, S.372
-
Internet: The editor's choice (2002)
0.09
0.08696009 = product of:
0.34784037 = sum of:
0.34784037 = weight(_text_:java in 1854) [ClassicSimilarity], result of:
0.34784037 = score(doc=1854,freq=2.0), product of:
0.44672412 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063387536 = queryNorm
0.77864695 = fieldWeight in 1854, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.078125 = fieldNorm(doc=1854)
0.25 = coord(1/4)
- Footnote
- Vgl.: http://www.sunsite.ubc.ca/DigitalMathArchive/Euclid/byrne.html; http://perseus.mpiwg-berlin.mpg.de; http://aleph0.clarku.edu/~djoyce/java/elements/toc.html
-
Hawk, J.: OCLC SiteSearch (1998)
0.09
0.086086094 = product of:
0.34434438 = sum of:
0.34434438 = weight(_text_:java in 3079) [ClassicSimilarity], result of:
0.34434438 = score(doc=3079,freq=4.0), product of:
0.44672412 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063387536 = queryNorm
0.7708211 = fieldWeight in 3079, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=3079)
0.25 = coord(1/4)
- Abstract
- Feature on OCLC's SiteSearch suite of software, first introduced in 1992, and how it is helping over 250 libraries integrate and manage their electronic library collections. Describes the new features of version 4.0, released in Apr 1997, which include a new interface, Java based architecture, and an online documentation and training site. Gives an account of how Java is helping the Georgia Library Learning Online (GALILEO) project to keep pace on the WWW; the use of SiteSearch by libraries to customize their interface to electronic resources; and gives details of Project Athena (Assessing Technological Horizons to Educate the Nashville Area), which is using OCLC SiteSearch to allow area library users to search the holdings of public and university libraries simultaneously
-
Jenkins, C.: Automatic classification of Web resources using Java and Dewey Decimal Classification (1998)
0.09
0.086086094 = product of:
0.34434438 = sum of:
0.34434438 = weight(_text_:java in 2673) [ClassicSimilarity], result of:
0.34434438 = score(doc=2673,freq=4.0), product of:
0.44672412 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.063387536 = queryNorm
0.7708211 = fieldWeight in 2673, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0546875 = fieldNorm(doc=2673)
0.25 = coord(1/4)
- Abstract
- The Wolverhampton Web Library (WWLib) is a WWW search engine that provides access to UK based information. The experimental version developed in 1995, was a success but highlighted the need for a much higher degree of automation. An interesting feature of the experimental WWLib was that it organised information according to DDC. Discusses the advantages of classification and describes the automatic classifier that is being developed in Java as part of the new, fully automated WWLib
-
Rötzer, F.: Computer ergooglen die Bedeutung von Worten (2005)
0.09
0.08505094 = product of:
0.17010188 = sum of:
0.049565285 = weight(_text_:und in 4385) [ClassicSimilarity], result of:
0.049565285 = score(doc=4385,freq=46.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.35255915 = fieldWeight in 4385, product of:
6.78233 = tf(freq=46.0), with freq of:
46.0 = termFreq=46.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4385)
0.1205366 = weight(_text_:hoffen in 4385) [ClassicSimilarity], result of:
0.1205366 = score(doc=4385,freq=2.0), product of:
0.4801183 = queryWeight, product of:
7.574333 = idf(docFreq=61, maxDocs=44421)
0.063387536 = queryNorm
0.25105605 = fieldWeight in 4385, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.574333 = idf(docFreq=61, maxDocs=44421)
0.0234375 = fieldNorm(doc=4385)
0.5 = coord(2/4)
- Content
- "Wie könnten Computer Sprache lernen und dabei auch die Bedeutung von Worten sowie die Beziehungen zwischen ihnen verstehen? Dieses Problem der Semantik stellt eine gewaltige, bislang nur ansatzweise bewältigte Aufgabe dar, da Worte und Wortverbindungen oft mehrere oder auch viele Bedeutungen haben, die zudem vom außersprachlichen Kontext abhängen. Die beiden holländischen (Ein künstliches Bewusstsein aus einfachen Aussagen (1)). Paul Vitanyi (2) und Rudi Cilibrasi vom Nationalen Institut für Mathematik und Informatik (3) in Amsterdam schlagen eine elegante Lösung vor: zum Nachschlagen im Internet, der größten Datenbank, die es gibt, wird einfach Google benutzt. Objekte wie eine Maus können mit ihren Namen "Maus" benannt werden, die Bedeutung allgemeiner Begriffe muss aus ihrem Kontext gelernt werden. Ein semantisches Web zur Repräsentation von Wissen besteht aus den möglichen Verbindungen, die Objekte und ihre Namen eingehen können. Natürlich können in der Wirklichkeit neue Namen, aber auch neue Bedeutungen und damit neue Verknüpfungen geschaffen werden. Sprache ist lebendig und flexibel. Um einer Künstlichen Intelligenz alle Wortbedeutungen beizubringen, müsste mit der Hilfe von menschlichen Experten oder auch vielen Mitarbeitern eine riesige Datenbank mit den möglichen semantischen Netzen aufgebaut und dazu noch ständig aktualisiert werden. Das aber müsste gar nicht notwendig sein, denn mit dem Web gibt es nicht nur die größte und weitgehend kostenlos benutzbare semantische Datenbank, sie wird auch ständig von zahllosen Internetnutzern aktualisiert. Zudem gibt es Suchmaschinen wie Google, die Verbindungen zwischen Worten und damit deren Bedeutungskontext in der Praxis in ihrer Wahrscheinlichkeit quantitativ mit der Angabe der Webseiten, auf denen sie gefunden wurden, messen.
Mit einem bereits zuvor von Paul Vitanyi und anderen entwickeltem Verfahren, das den Zusammenhang von Objekten misst (normalized information distance - NID ), kann die Nähe zwischen bestimmten Objekten (Bilder, Worte, Muster, Intervalle, Genome, Programme etc.) anhand aller Eigenschaften analysiert und aufgrund der dominanten gemeinsamen Eigenschaft bestimmt werden. Ähnlich können auch die allgemein verwendeten, nicht unbedingt "wahren" Bedeutungen von Namen mit der Google-Suche erschlossen werden. 'At this moment one database stands out as the pinnacle of computer-accessible human knowledge and the most inclusive summary of statistical information: the Google search engine. There can be no doubt that Google has already enabled science to accelerate tremendously and revolutionized the research process. It has dominated the attention of internet users for years, and has recently attracted substantial attention of many Wall Street investors, even reshaping their ideas of company financing.' (Paul Vitanyi und Rudi Cilibrasi) Gibt man ein Wort ein wie beispielsweise "Pferd", erhält man bei Google 4.310.000 indexierte Seiten. Für "Reiter" sind es 3.400.000 Seiten. Kombiniert man beide Begriffe, werden noch 315.000 Seiten erfasst. Für das gemeinsame Auftreten beispielsweise von "Pferd" und "Bart" werden zwar noch immer erstaunliche 67.100 Seiten aufgeführt, aber man sieht schon, dass "Pferd" und "Reiter" enger zusammen hängen. Daraus ergibt sich eine bestimmte Wahrscheinlichkeit für das gemeinsame Auftreten von Begriffen. Aus dieser Häufigkeit, die sich im Vergleich mit der maximalen Menge (5.000.000.000) an indexierten Seiten ergibt, haben die beiden Wissenschaftler eine statistische Größe entwickelt, die sie "normalised Google distance" (NGD) nennen und die normalerweise zwischen 0 und 1 liegt. Je geringer NGD ist, desto enger hängen zwei Begriffe zusammen. "Das ist eine automatische Bedeutungsgenerierung", sagt Vitanyi gegenüber dern New Scientist (4). "Das könnte gut eine Möglichkeit darstellen, einen Computer Dinge verstehen und halbintelligent handeln zu lassen." Werden solche Suchen immer wieder durchgeführt, lässt sich eine Karte für die Verbindungen von Worten erstellen. Und aus dieser Karte wiederum kann ein Computer, so die Hoffnung, auch die Bedeutung der einzelnen Worte in unterschiedlichen natürlichen Sprachen und Kontexten erfassen. So habe man über einige Suchen realisiert, dass ein Computer zwischen Farben und Zahlen unterscheiden, holländische Maler aus dem 17. Jahrhundert und Notfälle sowie Fast-Notfälle auseinander halten oder elektrische oder religiöse Begriffe verstehen könne. Überdies habe eine einfache automatische Übersetzung Englisch-Spanisch bewerkstelligt werden können. Auf diese Weise ließe sich auch, so hoffen die Wissenschaftler, die Bedeutung von Worten erlernen, könne man Spracherkennung verbessern oder ein semantisches Web erstellen und natürlich endlich eine bessere automatische Übersetzung von einer Sprache in die andere realisieren.
-
Ekman, P.: Gefühle lesen : Wie Sie Emotionen erkennen und richtig interpretieren (2004)
0.08
0.08394894 = product of:
0.16789788 = sum of:
0.047361273 = weight(_text_:und in 4285) [ClassicSimilarity], result of:
0.047361273 = score(doc=4285,freq=42.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.33688194 = fieldWeight in 4285, product of:
6.4807405 = tf(freq=42.0), with freq of:
42.0 = termFreq=42.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=4285)
0.1205366 = weight(_text_:hoffen in 4285) [ClassicSimilarity], result of:
0.1205366 = score(doc=4285,freq=2.0), product of:
0.4801183 = queryWeight, product of:
7.574333 = idf(docFreq=61, maxDocs=44421)
0.063387536 = queryNorm
0.25105605 = fieldWeight in 4285, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.574333 = idf(docFreq=61, maxDocs=44421)
0.0234375 = fieldNorm(doc=4285)
0.5 = coord(2/4)
- Abstract
- Charles Darwin war der erste Biologe, der postuliert hat, dass es Emotionen gibt, die Menschen aller geschichtlichen Epochen und Kulturen miteinander teilen und die schon im Tierreich angelegt sind. Diese Auffassung konnte der amerikanische Psychologe Paul Ekman in jahrzehntelanger Forschung uneingeschränkt bestätigen. In seinen neuen Buch fasst er alles zusammen, was er über die Logik des menschlichen Gefühlslebens herausgefunden hat. Im Zentrum steht die Frage, wie sich die universalen Gefühle in der Mimik, in der Stimme und in der Körpersprache niederschlagen und wodurch sie ausgelöst werden. Ekman beschäftigt sich außerdem mit ihren evolutionären Ursprüngen und ihren wichtigsten Funktionen sowie mit ihren Auswirkungen auf das Wahrnehmen, Denken und Handeln. Und er zeigt im Einzelnen auf, wie viel ein besseres Verständnis der Gefühle dazu beiträgt, angemessen mit ihnen umzugehen und sie in den Griff zu bekommen. Ein tiefschürfendes, aber ausgesprochen praxisnahes und leicht verständliches Buch von einem der bedeutendsten Emotionsforscher der Gegenwart.
- Classification
- CP 3000 Psychologie / Allgemeine Psychologie / Motivation und Gefühl
- Footnote
- Rez. in: Spektrum der Wissenschaft. 2005, H.4, S.110 (K. Grund): "Titel, Inhaltsverzeichnis und Klappentext verheißen eine spannende Lektüre. Paul Ekman, einer der bekanntesten amerikanischen Psychologen und Experte für nonverbale Kommunikation, scheint den fein gewebten Teppich der Emotionen in seinem Buch systematisch aufrollen zu wollen. Seine Ziele sind ehrgeizig: Wir sollen uns selbst und andere besser verstehen - auch subtile emotionale Signale unserer Gesprächspartner, die nur für Bruchteile von Sekunden über deren Gesichter huschen oder gar von ihnen unterdrückt werden. Wir sollen lernen, in bestimmten Situationen angemessener zu reagieren. Ekman will uns Wege aufzeigen, Emotionen besser zu nutzen. Unsere Gefühle seien schließlich kein Blinddarm, kein rudimentärer Apparat aus längst vergangenen Zeiten, den wir entfernen sollten, sondern der Mittelpunkt unseres Lebens. Viele, zum Teil lebenswichtige Entscheidungen werden aus dem Bauch heraus getroffen, nicht mit dem Kopf. Bevor es daran geht, die Gefühlswelt des Gegenübers zu durchleuchten, konfrontiert uns der Autor mit unserer eigenen. Was löst unsere Emotionen aus, und warum reagieren wir bei manchen Gelegenheiten über? Importieren wir vielleicht, wie Helen, die Heldin eines der zahlreichen Beispieldramen dieses Buchs, ein extrem emotionsbeladenes Drehbuch aus einem anderen Abschnitt unseres Lebens in die Gegenwart? Ist es möglich, diese Auslöser bewusst zu kontrollieren? Paul Ekman gibt sich größte Mühe, uns für emotionale Botschaften zu sensibilisieren. Dabei reduziert er Trauer, Zorn, Überraschung, Angst, Ekel, Verachtung und Freude wissenschaftlich nüchtern zu bloßen Muskelbewegungen - leider erst im hinteren Teil des Buchs. Denn eines wird im Lauf der Lektüre zweifellos klar: Die Gefühlswelt ist komplex und durch sie einen roten Faden zu legen sehr schwer. Zwischen ineinander verschachtelten Beispielen und Querverweisen auf spätere Kapitel verlangt Ekman der Konzentration des Lesers einiges ab. Kein Wunder, fasst er doch in seinem Buch 40 Jahre Forschungsarbeit zusammen. Zum Glück spart er nicht an Fotomaterial und praktischen Übungen, die das Gesagte illustrieren. Was die Analyse von Gesichtsausdrücken angeht, hat sich kein anderer bisher derart ins Detail begeben. Endlich erfahren wir, warum das Lächeln mancher Menschen auf uns irgendwie aufgesetzt wirkt: Sie verziehen nur den Mund. Da sich die entscheidenden Muskeln im Bereich der Augen nur schwer willkürlich beeinflussen lassen, bleiben diese unbewegt, wenn die freundliche Geste nicht von Herzen kommt. In solchen Feinheiten liegt das Besondere des Buchs. Schade, dass sie oftmals in der Fülle anderer Informationen untergehen, von denen viele weder neu noch sonderlich erstaunlich sind. »Wir entscheiden genauso wenig bewusst darüber, wie wir in einem emotionalen Zustand aussehen und klingen, ... wie wir darüber entscheiden, wann wir emotional reagieren. Aber wir können lernen, emotionales Verhalten, das wir im Nachhinein bereuen würden, zu dämpfen.« Wer hätte das gedacht. Umso verblüffender wirkt der Test am Ende (Bilder). Wer versucht, die mimischen Gesten zu entschlüsseln, die Ekmans Tochter Eve in 14 Fotos übermittelt, wird seine Grenzen schnell erkennen. Man fühlt sich verpflichtet, das Buch noch einmal von vorne anzufangen. Vielleicht wird ja im zweiten Durchgang so manches klarer? Zu hoffen bleibt allerdings, dass es dem Leser dabei nicht ergeht wie der Hauptfigur in einer Gesellschaftssatire von Martin Suter. »Geri ist meist so damit beschäftigt, seine Mitmenschen zu beobachten, dass er sich manchmal wochenlang ganz aus den Augen verliert.« Obwohl - so packend ist die Lektüre dann doch wieder nicht."
- RVK
- CP 3000 Psychologie / Allgemeine Psychologie / Motivation und Gefühl
-
Lange, E.: ¬Die Kraft der Gedanken : Forscher verknüpfen das Gehirn mit dem Computer - und schaffen mentale Tastaturen (2003)
0.08
0.08219231 = product of:
0.16438462 = sum of:
0.04384801 = weight(_text_:und in 1221) [ClassicSimilarity], result of:
0.04384801 = score(doc=1221,freq=36.0), product of:
0.14058715 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.063387536 = queryNorm
0.31189203 = fieldWeight in 1221, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=1221)
0.1205366 = weight(_text_:hoffen in 1221) [ClassicSimilarity], result of:
0.1205366 = score(doc=1221,freq=2.0), product of:
0.4801183 = queryWeight, product of:
7.574333 = idf(docFreq=61, maxDocs=44421)
0.063387536 = queryNorm
0.25105605 = fieldWeight in 1221, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.574333 = idf(docFreq=61, maxDocs=44421)
0.0234375 = fieldNorm(doc=1221)
0.5 = coord(2/4)
- Content
- "Belle blinzelt verstohlen aus seinem Käfig. Der winzige Eulen-Nachtaffe, klein genug, um in einer Manteltasche Platz zu finden, greift nach dem Futter. Tausend Kilometer entfernt hebt im Massachusetts Institute of Technology (MIT) ein Roboter seinen Arm - es ist exakt die identische Bewegung, zeitgleich mit dem Original. Möglich machen das 32 haarfeine Kabel, die der Neurobiologe Miguel Nicolelis von der Duke Universität (North Carolina) ins Gehirn des Primaten eingesetzt hat. Damit liest er Gedankenimpulse des Affen aus - und die steuern - über das Internet weitergeleitet - den fernen Roboter. Nicolelis erforscht die Kopplung von Nervenbahnen und Computer. Die Verbindung des menschlichen Geists mit Maschinen zählt nach Ansicht des renommierten MIT zu den zehn Schlüsseltechnologien des 21. Jahrhunderts. Tastaturen oder Menübedienungen als Schnittstelle zwischen Mensch und dienstbaren Rechenknechten galten schon lange als Krücke. Ein halbes Dutzend Teams rund um den Globus arbeitet am Computeranschluss des Homo S@piens direkt im Gehirn. Die Amerikaner sind führend darin, die Neuronen des Nervensystems anzuzapfen. Aber deutsche Wissenschaftler holen auf: So ist es Nils Birbaumer von der Universität Tübingen gelungen, eine Nervenanbindung zu entwickeln, mit der gelähmte Patienten über ihre Hirnströme einen Cursor auf dem Computerdisplay bewegen. Sie wählen Buchstaben aus und schreiben so langsam ganze Sätze. Auch die Forscher vom Berliner Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik (First) steuern einen Cursor mit der Kraft der Gedanken: Eine raffinierte Software filtert nach einem 20-minütigen Training aus allen Hirnimpulsen der Probanden diejenigen für die Computerbedienung heraus. Wird der Cursor in einem Buchstabenfeld bewegt, entsteht eine Art mentaler Schreibmaschine. Künftige Anwendungen gehen weit darüber hinaus. Brain-Computer könnten eines Tages eine neue Art von Spielen ermöglichen und wären auch für die Automobilindustrie interessant. Sogar per Hirnanschluss gesteuerte bionische Roboter - so genannte Cyborgs, quasi halb Mensch, halb Maschine - dürften einmal wirklich werden. Doch bis dahin ist es noch ein weiter Weg: Frühestens in fünf bis 15 Jahren, schätzt der Neurophysiologe Eberhard Fetz aus Seattle, seien die ersten menschlichen Gehirne vollständig mit einem Computer verdrahtet. Bislang sahen die "Stecker zum Gehirn" meist recht konventionell aus: Winzige Elektroden haben die Neurobiologen bis in die Nervenbahnen vorgeschoben, um dort Impulse abzugreifen. Doch das funktioniert meist nur kurze Zeit; Abstoßungsreaktionen führen häufig dazu, dass die Zellen keinen Strom mehr liefern oder Neuronen beschädigt werden. Ein Forscherteam der University of Texas in Austin um Christine Schmidt hat jetzt ein biologisch verträglichen Kunststoff gefunden, der Nervenzellen wie ein elektrischer Leiter fest mit Halbleiterbausteinen verbindet. Winzige, nur drei Millionstel Millimeter (Nanometer) kleine, leitende Kristalle aus Cadmiumsulfid sind das Rohmaterial für die Neurochips, auf denen die Neuronen anwachsen können. Ein erster Neurochip auf dieser Basis mit einem Mikrocontroller (acht Bit, drei Megahertz) ist klein und leicht genug, um ihn auf einer Motte zu implantieren. Damit konnten die Daten der Muskelbewegungen abgegriffen und die komplizierten Flugbewegungen des Insektesaufgezeichnet werden.
Ähnlich gelang jüngst eine Jumbo-JetLandung im Simulator. Dabei nahm niemand den Steuerknüppel in die Hand. Nasa-Wissenschaftler entwickelten ein Armband mit acht Elektroden, die einem Computer alle Handbewegungen des Trägers übermitteln, damit er sie mittels einer Software in Steuerimpulse umwandelt, die auf neuronale Netze aufbaut und lernfähig ist. Mit der Anpassung an verschiedene Muster kann diese Neuralnetz-Software individuell auf den Piloten und seinen Zustand eingehen. Wissenschaftler der Duke-Universität stellten ein fingernagelkleines Array aus 160 Mikroelektroden her, das leicht implantiert werden kann. Sie koppelten es mit einem Neurochip, der die Daten drahtlos mit einem Computer außerhalb des Körpers austauscht. Sie hoffen, in Kürze die Zahl der Elektroden auf mehr als tausend steigern zu können, um komplexere Bewegungen beispielsweise mit einem Roboterarm präzise durchführen zu können. Bionic-Forscher Nicolelis entwickelt derzeit einen Chip, der unter die Haut gepflanzt wird und die Neurosignale drahtlos weiterleitet - so können die lästigen Stecker und Kabel entfallen. Und noch auf einem anderen Gebiet sind die MIT-Forscher weitergekommen: Der Affe bekam ein Feedback in sein Nervensystem - und somit ein Gefühl dafür, wie schwer die mit der fernen Hand gepackten Gegenstände sind, ob sie glatt oder klebrig sind. Zum ersten Mal konnte das Tier den künstlichen Arm als einen Teil seines Körpers empfinden - und gefühlsecht eine Frucht anheben. Diese Forschung ist ein Schritt auf dem Weg zu Neuroprothesen für Behinderte. "Wir müssen zwar noch einige Hürden überwinden, bevor die Neurochips zum Beispiel für eine Therapie ausreichend sicher und zuverlässig sind", sagt Nicolelis. "Aber unser Ziel ist es, ein palmtopähnliches Gerät zu entwickeln, das die Nervensignale auswertet und Computer, Prothesen oder Roboter steuert oder an den Arzt übermittelt." Nicht alle Forscher sind so optimistisch. Neurologen vom Wiener Allgemeinen Krankenhaus geben zu bedenken: "Das Gehirn ist so unglaublich komplex, dass die Technik nur sehr schwer mitkommt", sagt der Leiter der Abteilung für Klinische Neurologie, Lüder Deecke: "Es gibt Millionen Nervenbahnen. Wie will man da überall direkte Verbindungen herstellen?" "