Search (11768 results, page 2 of 589)

  • × language_ss:"d"
  1. Riebe, U.: John R. Searles Position zum Leib-Seele-Problem (2008) 0.11
    0.11060297 = product of:
      0.22120593 = sum of:
        0.19264515 = weight(_text_:jüngst in 567) [ClassicSimilarity], result of:
          0.19264515 = score(doc=567,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.360011 = fieldWeight in 567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.03125 = fieldNorm(doc=567)
        0.028560782 = weight(_text_:und in 567) [ClassicSimilarity], result of:
          0.028560782 = score(doc=567,freq=8.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.19603643 = fieldWeight in 567, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=567)
      0.5 = coord(2/4)
    
    Abstract
    Wenig ist heute für den gebildeten Bürger interessanter, als die aktuellen Erkenntnisse der Neurowissenschaften zu verfolgen. Letztere ermöglichen durch bildgebende Verfahren wie z. B. EEG, fMRT oder MEG, dem Menschen "beim Denken zuzusehen". So heißt es zumindest in den Medien. Aktuelle Forschungsberichte zeigen eine Näherung an diese Sichtweise. Kalifornischen Forschern ist es durch eine Hirnmessung jüngst gelungen, mit groer Wahrscheinlichkeit zu erkennen, welches Bild eine Versuchsperson gerade betrachtet. Dazu wurden der Versuchsperson erst 1.750 Bilder mit Naturmotiven gezeigt und die jeweilige Stimulation im Hirn per fMRT gemessen. Geachtet wurde speziell auf visuelle Areale, die in eine dreidimensionale Matrix transformiert wurden. Die einzelnen Segmente heissen Voxel (analog zu zweidimensionalen Pixeln). So entstand eine Datenbank aus Voxel-Aktivitätsmustern. Im folgenden Durchlauf wurden der Versuchsperson 120 neue Bilder gezeigt und anhand der Datenbank die wahrscheinliche Voxel-Aktivität berechnet. Vorausgesagt wurde dann das Bild, dessen tatsächliches Voxel-Muster mit dem berechneten am meisten übereinstimmte. Bei Versuchsperson A wurde eine Trefferquote von 92% erreicht, bei Versuchsperson B immerhin 72%. Die Forscher folgern optimistisch, dass es über ihren Ansatz möglich sein wird, gesehene Bildeindrücke über Hirnmessungen zu rekonstruieren. Hier wird versucht auf Kants Frage "Was ist der Mensch?" auf materialistische Weise näher zu kommen. Im Bezug auf frühere Experimente von Benjamin Libet schließen heutzutage einige Hirnforscher, dass das bewusste Erleben eines Menschen nur Beiwerk von deterministisch ablaufenden Hirnprozessen ist, weil das Erleben neuronaler Aktivität zeitlich hinterherhinkt. Auch wird gefolgert, dass empfundene Willensfreiheit nur eine Illusion ist, obwohl Libet diese harte Schlussfolgerung nicht zieht. Die Ergebnisse solcher Studien sind zwar hochinteressant, doch muss man bei der Interpretation auch hohe Sorgfalt walten lassen, insbesondere wenn es um das Thema Bewusstsein geht. Von philosophischer Seite her hat sich John Searle intensiv mit dem Thema auseinandergesetzt und eine Theorie entwickelt, die alle bisherigen philosophischen Modelle verwirft.
    Imprint
    Konstanz : Fachbebreich Philosophie / Kunst- und Medienwissenschaft / Informatik
  2. Moll, S.: ¬Der Urknall des Internets : 20 Jahre WWW (2011) 0.11
    0.10500343 = product of:
      0.21000686 = sum of:
        0.1685645 = weight(_text_:jüngst in 4720) [ClassicSimilarity], result of:
          0.1685645 = score(doc=4720,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.31500962 = fieldWeight in 4720, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4720)
        0.041442364 = weight(_text_:und in 4720) [ClassicSimilarity], result of:
          0.041442364 = score(doc=4720,freq=22.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.28445345 = fieldWeight in 4720, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4720)
      0.5 = coord(2/4)
    
    Abstract
    Am 6. August 1991 wurde die Welt vernetzt - und damit drastisch verändert.
    Content
    "Alle großen Erfindungen der Menschheitsgeschichte haben einen Entstehungsmythos. Einsteins Trambahnfahrt durch Zürich beispielsweise oder der berühmte Apfel, der Newton angeblich auf den Kopf gefallen ist. Als Tim Berners-Lee, damals Physikstudent in Manchester, Mitte der 70er Jahre mit seinem Vater in einem Stadtpark unter einem Baum saß, unterhielten sich die beiden darüber, dass sie doch in ihrem Garten auch einen solchen Baum gebrauchen könnten. Der Vater, ein Mathematiker, der an einem der ersten kommerziell genutzten Computer der Welt arbeitete, bemerkte, dass die Fähigkeit, die abstrakte Idee eines schattigen Baumes auf einen anderen Ort zu übertragen, doch eine einmalig menschliche sei. Computer könnten so etwas nicht. Das Problem ließ Berners-Lee nicht los. Deshalb suchte er, während er in den 80er Jahren als Berater am europäischen Labor für Quantenphysik (CERN) in der Schweiz arbeitete, noch immer nach einem Weg, seinem Computer beizubringen, Verbindungen zwischen den disparaten Dokumenten und Notizen auf seiner Festplatte herzustellen. Er entwarf deshalb ein System, das heute so alltäglich ist, wie Kleingeld. Lee stellte eine direkte Verknüpfung her zwischen Wörtern und Begriffen in Dokumenten und den gleichen Begriffen in anderen Dokumenten: Der Link war geboren.
    Aus dieser Erfindung ergaben sich ganz unmittelbar schier unbegrenzte Möglichkeiten. Wie wäre es, wenn er seine Daten mit denen der anderen Wissenschaftler am CERN würde vernetzen können, ohne die mühsame Arbeit, zentrale Datenbanken anzulegen? Und wie wäre es, wenn die CERN-Wissenschaftler sich auf diese Art mit Wissenschaftlern auf der ganzen Welt verlinken könnten? Lee machte sich ans Werk und entwickelte ein Code System, mit dessen Hilfe verschiedenartige Datensätze kompatibel gemacht werden konnten. Daraus entstand die Lingua Franca des Internet, HTML: Er schrieb eine Art Regelwerk, nach dem Dokumente quer durch das Internet verlinkt werden konnten - jene Prinzipien, die wir heute als HTTP kennen. Und schließlich baute er auch noch den ersten Browser der Geschichte. Am 6. August 1991 stellte Lee in einem bemerkenswert unbemerkenswerten Akt seine Erfindung der Welt vor. Er stellte eine kurze Notiz in die newsgroup alt.hypertext, wo man Browser und Server herunterladen konnte. Das Internet explodierte praktisch sofort. Innerhalb von fünf Jahren wuchs die Benutzerzahl von 600 000 auf 40 Millionen.
    Lee hätte mit der Idee vermutlich Milliarden verdienen können. Doch das widersprach von Anfang an seiner Philosophie des Internets. Für Lee war das Internet stets Mittel zur Demokratisierung von Information und zur Beschleunigung des Fortschritts. Der Erfinder des Netzes war auch der erste Open Source-Radikale: Jede Form der Zugangsbeschränkung, ob zu kommerziellen oder zu irgendwelchen anderen Zwecken, lehnte er strikt ab. Heute arbeitet Lee an der Bostoner Eliteuniversität MIT daran, die Protokolle von Netscape und Microsoft zu standardisieren, damit Patentstreitigkeiten den Fortschritt ins Web 3.0 nicht aufhalten. Nebenbei berät er die britische Regierung dabei, Regierungsdaten zu veröffentlichen, um ein öffentliches Mitwirken an der Lösung von Verwaltungsproblemen zu ermöglichen. Das Freisetzen von Daten, davon ist Lee überzeugt, wird von ganz alleine das Gemeinwohl voranbringen. Das Netz ist für ihn ein reiner Segen der Menschheit. "Innovation ist Zufall. Man weiß nie, was Leute mit Informationen machen", sagte er jüngst. Wichtig sei alleine, dass man die Gelegenheit schafft, neue und originelle Verbindungen zu ziehen. Etwa so, wie einen Baum dorthin zu pflanzen, wo er gebraucht wird. Oder das Internet zu erfinden."
  3. Kleinz, T.: Wer Wikipedia fälscht... : ... wird meistens ertappt, wie jüngst einige US-Senatoren (2006) 0.10
    0.10195333 = product of:
      0.20390666 = sum of:
        0.1685645 = weight(_text_:jüngst in 5916) [ClassicSimilarity], result of:
          0.1685645 = score(doc=5916,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.31500962 = fieldWeight in 5916, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5916)
        0.035342164 = weight(_text_:und in 5916) [ClassicSimilarity], result of:
          0.035342164 = score(doc=5916,freq=16.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.24258271 = fieldWeight in 5916, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5916)
      0.5 = coord(2/4)
    
    Content
    "Ist der US-Kongress ein Hort des Internet-Vandalismus? Manipulationen von Einträgen der Internet-Enzyklopädie Wikipedia durch Mitarbeiter des US-Kongresses machen die Runde durch die Medien. Der Skandal schrumpft bei näherer Betrachtung, wirft aber kein gutes Licht auf die Gepflogenheiten im politischen Washington. Ausgelöst wurde die Affäre durch Matty Meehan, seit 1992 Abgeordneter im Repräsentantenhaus. Sein Heimatblatt, die Lowell Sun, berichtete von Manipulationen am Wikipedia-Artikel des Abgeordneten. Augenscheinlich war sein Lebenslauf von seinen eigenen Mitarbeitern geschönt worden. Meehans Büroleiter gab die Änderungen zu - allerdings habe man nur einen schlechten Wikipedia-Artikel durch einen besseren ersetzen wollen. Dass dabei kritische Bemerkungen über die Finanzierung seiner Wahlkampagnen und nicht eingehaltene Wahlversprechen unter den Tisch fielen, sei keine böse Absicht gewesen. Wikipedia als ideales Ziel Unterstützung von Grassroot-Bewegungen vorzutäuschen, gehört inzwischen zum normalen Instrumentarium politischer Kampagnen in den USA. Wikipedia erscheint als ideales Ziel für solche "Astroturfing"-Kampagnen: Die Online-Enzyklopädie gehört zu den am meisten gelesenen Webseiten und hat die Onlinepräsenzen von BBC und CNN hinter sich gelassen. Viele Internetnutzer greifen routinemäßig zu Wikipedia-Informationen,wenn sie etwas in Erfahrungbringen wollen - auch Journalisten nutzen die freie Informationsquelle für ihre Recherchen. Dabei kann buchstäblich jeder bei Wikipedia mitarbeiten - ohne Anmeldezwang, nicht einmal eine E-Mail-Adresse wird benö-tigt. Das verlockt viele, die Möglichkeiten der Wissensdatenbank zu testen, sich selbst in ein besseres Licht, andere jedoch in ein schlechtes Licht zu setzen. Doch die vermeintliche Anonymität täuscht: Bei jeder Änderung eines Artikels wird die IP-Nummer des Autors abgespeichert. Die Aufregung um den Meehan-Artikel ermunterte die Wikipedia-Community, sich die Beiträge genauer anzusehen, die von den Rechnern des US-Parlaments vorgenommen worden waren. Dabei stießen sie auf pikante Details. So wurde der Abgeordnete Eric Cantor beschimpft, dass er ein "bad man" sei und nach Kuhmist stinke. Abgeordnete gestanden Änderungen Mehrere Abgeordnete gaben inzwischen Manipulationen durch ihre Mitarbeiter zu und bereuten öffentlich. Von den mehr als 1000 Beiträgen, die auf Rechner des Repräsentantenhauses zurückverfolgt werden konnten, waren aber die meisten konstruktiv, nur wenige Beiträge offenkundig manipulativ. Schlechter sieht die Bilanz beim US-Senat aus. Etwa ein Drittel der zurückverfolgten Änderungen waren zumindest nicht ganz neutral im Sinne der Wikipedia. Doch das Politikum Wikipedia ist kein US-Phänomen. Auch die Deutsche Politik hatte schon ihr "Wikipediagate". Im Landtagswahlkampf Nordrhein-Westfalen wurde publik, dass von Rechnern des Bundestages aus die Wikipedia-Artikel zu Jürgen Rüttgers und Peer Steinbrück editiert wurden - die Aufregung in der Wikipedia-Gemeinde war groß, Medien berichteten ausführlich. Auch FDP-Generalsekretär Dirk Niebel hat seine Erfahrungen mit der Online-Enzyklopädie gemacht. Als ein Mitarbeiter der FDP-Geschäftsstelle im November 2005 daran gescheitert war, eine Passage über einen Prozess gegen Niebel aus der Wikipedia zu löschen, wandte er sich direkt per Mail an die Wikipedia und bat um Löschung "wahrheitswidriger Behauptungen". Der Erfolg war nur bescheiden: Zwar wurde der Abschnitt umformuliert, die Wikipedianer recherchierten die Vorwürfe aber nochmals und ergänzten sogar eine Quellenangabe."
  4. Oberhauser, O.: Inhaltliche Erschließung im Verbund : Die aktuelle Situation in Österreich (2013) 0.10
    0.10028687 = product of:
      0.20057374 = sum of:
        0.06386385 = weight(_text_:und in 2092) [ClassicSimilarity], result of:
          0.06386385 = score(doc=2092,freq=10.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.4383508 = fieldWeight in 2092, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2092)
        0.1367099 = weight(_text_:headings in 2092) [ClassicSimilarity], result of:
          0.1367099 = score(doc=2092,freq=2.0), product of:
            0.3187486 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06568883 = queryNorm
            0.4288957 = fieldWeight in 2092, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0625 = fieldNorm(doc=2092)
      0.5 = coord(2/4)
    
    Abstract
    Der Beitrag zeichnet ein aktuelles Bild der inhaltlichen Erschließung im Österreichischen Verbundkatalog, insbesondere in quantitativer Hinsicht. Um den Entwicklungsverlauf zu illustrieren, werden dazu Daten von 2005 bis 2013 präsentiert. Im Detail geht es um die verbale Sacherschließung durch RSWKbasierte Schlagwortfolgen und englischsprachige Subject Headings, sowie die klassifikatorische Erschließung mittels Basisklassifikation, Dewey Dezimalklassifikation und Regensburger Verbundklassifikation. Im Zusammenhang mit der Basisklassifikation wird auch von Anreicherungsprojekten mittels Konkordanzen und Datenübernahmen berichtet. Ausserdem werden Neuerungen bei der Suche und Anzeige klassifikatorischer Sacherschließungselemente in den Rechercheinstrumenten des Verbundes dargestellt.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 66(2013) H.2, S.231-249
  5. Beuth, P.: ¬Die Jagd nach Nutzer-Profilen (2009) 0.10
    0.099017665 = product of:
      0.19803533 = sum of:
        0.14448386 = weight(_text_:jüngst in 20) [ClassicSimilarity], result of:
          0.14448386 = score(doc=20,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.27000827 = fieldWeight in 20, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.0234375 = fieldNorm(doc=20)
        0.05355147 = weight(_text_:und in 20) [ClassicSimilarity], result of:
          0.05355147 = score(doc=20,freq=50.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.3675683 = fieldWeight in 20, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=20)
      0.5 = coord(2/4)
    
    Abstract
    Microsoft und Yahoo greifen Googles Vorherrschaft in der Online-Werbung an. Wer auf ihre Angebote eingeht, gibt die Kontrolle über seine Daten auf - und damit ein Grundrecht.
    Content
    "Zehn Jahre sind eine Ewigkeit in einem Geschäft, das es erst seit neun Jahren gibt. Und doch haben Yahoo und Microsoft eine Kooperation für diese Ewigkeit verabredet. Der Deal ist ein Zuchtprogramm. Gezüchtet werden soll der Internetnutzer der Zukunft, und das braucht Zeit. Dieser künftige Internetnutzer soll vor allem eins: Geld bringen. Geld von anderen Firmen in die Taschen vom Yahoo und Microsoft. Wie das geht, wissen beide Unternehmen seit dem Jahr 2000, als Google die Vermarktung von Online-Anzeigen revolutionierte. Die Idee, dem Nutzer nur solche Werbung anzuzeigen, die zu seinen Suchbegriffen passt, ist bis heute der Ausgangspunkt von Googles astronomischen Gewinnen und gilt auch für die Zukunft als größte Geldquelle im Netz. Voraussetzung ist, dass die Werbung möglichst präzise an jedne einzelnen Benutzer angepasst wird, damit die Preise für Anzeigen nicht abstürzen. Google sammelt dafür auch Daten über seine populären Dienste Youtube oder Blogger.com. Yahoo tut das gleiche, etwa mit seiner Fotocommunity Flickr. In diesem Zusammenhang ergibt die langfristige Partnerschaft von Yahoo und Microsoft einen Sinn. Der Softwareriese hat viel Geld in die Entwicklung seiner neuen Suchmaschine Bing investiert und wird dies auch in Zukunft tun. Yahoo spart sich diese Ausgaben und konzentriert sich auf sein neues Profil als Anbieter von Online-Inhalten und -Diensten.
    Zusammen soll das ein Konglomerat ergeben, dass es technisch und inhaltlich mit Google aufnehmen kann. Aufnehmen heißt erstens, die Allgegenwärtigkeit von Google-Diensten im Netz angreifen zu können und möglichst viele Internetnutzer an sich zu binden. Aufnehmen heißt zweitens, diese Nutzer eben so gut ausspionieren zu können wie Google das tut. Bausteine für die komplette Durchleuchtung ihrer Nutzer existieren schon bei allen drei Unternehmen. Es sind kleine, unauffällige Links auf ihren Startseiten. Die Bausteine heißen iGoogle, My MSN und MyYahoo. Sie sind die Zukunft der Internetnutzung, so wie sie sich Google, Yahoo und Microsoft vorstellen. Hinter allen drei Links stehen personalisierbare Startseiten, mit denen sich der Nutzer mehr oder weniger seine gesamte Online-Präsenz in ein einziges Browserfenster holt, das er für seine Standardaktivitäten dann kaum noch verlassen muss. Suchmaschine, aktuelle Nachrichten, E-Mails, Messenger oder virtuelle Notizzettel - alles individuell kombinierbar, und alles auf einen Blick. Bezahlen muss der Nutzer dafür nicht, Mitmachen kostet nur eine E-Mail-Adresse und ein Passwort. Nach dem Log-in beginnt das Profiling. Google arbeitet sogar schon am übernächsten Schritt. Der Konzern hat jüngst ein eigenes Betriebssystem angekündigt, das weitgehend netzbasiert arbeiten soll. Dann werden im Browserfenster zusätzlich noch Textverarbeitungsprogramme und Media-Player laufen. Briefe und Tabellen speichert der Nutzer dann nicht mehr auf der Festplatte ab, sondern auf Googles Servern.
    So entstehen noch viel mehr Daten, die einem Nutzer zugeordnet werden können. Wie genau diese weiterverarbeitet und an dritte verkauft werden, kann niemand nachvollziehen. Wer sich darauf einlässt, gibt die Hoheit über seine persönlichen Daten ab und damit ein Grundrecht. Aus informationeller Selbstbestimmung wird informationelle Fremdbestimmung. Es ist natürlich das gute Recht eines jeden, dieses Grundrecht in den Wind zu schlagen. Für viele, nicht nur junge Menschen, ist der Austausch von Informationen aller Art selbstverständlich geworden, um Kontakte zu erhalten und soziale und geschäftliche Netze zu knüpfen. Diejenigen, die andere per Internet nicht nur jederzeit über ihren Gemütszustand, sondern sogar über ihren genauen Aufenthaltsort unterrichten, empfinden personalisierte Werbung möglicherweise sogar als angenehm. Wer aber den Gedanken unheimlich findet, dass jede Firma der Welt einen Datensatz erwerben kann, der Auskunft über seine Wünsche, Neigungen, Fantasien, Krankheiten und Beziehungen gibt, der muss den Log-in verweigern, auch wenn alle Welt freudig mitmacht. Der Preis für den Selbst(-Daten)schutz kann durchaus die soziale Ausgrenzung im Netz sein. Der Internetnutzer der Zukunft wird - so lautet der Plan von Google, Yahoo und Microsoft - einer großen Versuchung ausgesetzt sein: Alles aus einer Hand. Oder anders gesagt: Alles in eine Hand."
  6. Macht des Wissens : Die Entstehung der modernen Wissensgesellschaft (2004) 0.10
    0.0973598 = product of:
      0.1947196 = sum of:
        0.14448386 = weight(_text_:jüngst in 4194) [ClassicSimilarity], result of:
          0.14448386 = score(doc=4194,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.27000827 = fieldWeight in 4194, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4194)
        0.050235733 = weight(_text_:und in 4194) [ClassicSimilarity], result of:
          0.050235733 = score(doc=4194,freq=44.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.34480965 = fieldWeight in 4194, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4194)
      0.5 = coord(2/4)
    
    Abstract
    Ein von Richard van Dülmen und Sina Rauschenbach herausgegebener Sammelband beschreibt die Entstehung der Wissensgesellschaft. Unsere Gesellschaft schmückt sich gerne mit dem Beinamen "Wissenschaftsgesellschaft". Dass diese "Wissenschaftlichkeit" keine Errungenschaft der Gegenwart ist, zeigt dieses gewichtige Buch, In knapp 30 Beiträgen auf 740 Seiten erläutern verschiedene Autoren von 1450 bis zum Beginn des 19. Jahrhunderts. Buchdruck, Universitäten, Alchemie, Bibliotheken oder Enzyklopädisktik - nicht alles ist in den letzten 50 Jahren entstanden. Umfangreiche Register und Literaturangaben ergänzen das Buch, das nicht nur ob seines Umfangs keine "leichte Lektüre" ist.
    BK
    02.01 Geschichte der Wissenschaft und Kultur
    Classification
    02.01 Geschichte der Wissenschaft und Kultur
    Footnote
    Rez. in: taz mag vom 2./3.4.2005, S.VII (J. Vogel): "Nicht erst seit Horst Köhler das "Fitmachen" Deutschlands für die "Wissensgesellschaft" zur zentralen Agenda seiner Amtszeit als Bundespräsident erhoben hat" steht Wissen im Mittelpunkt der öffentlichen Diskussion. Da passt es gut, dass auch die Historikerzunft nicht hinten ansteht und die Debatte mit einem dickleibigen Buch über die "Entstehung der modernen Wissensgesellschaft" in der Zeit vom 15. bis ins frühe 19. Jahrhundert bereichert. Der opulent ausgestattete Band des jüngst verstorbenen Saarbrücker Historikers Richard van Dülmen und seiner Kollegin Sina Rauschenberg hat alle Qualitäten eines staatstragenden Werkes: eine eindrucksvolle Zahl anerkannter Autoren, eine aufwändige Bebilderung und eine klar umrissene These über die Geburt der Wissensgesellschaft aus dem Geist der frühneuzeitlichen Wissenschaften. In der Art einer Schatzkammer des Wissens ähnlich jenen, die bereits die Fürstenhöfe des Barocks zierten, wird dem Leser (und Betrachter) die ganze Pracht der wissenschaftlichen Betätigung zwischen Renaissance und Revolutionszeitalter präsentiert. Von der allmählichen Lösung der Wissenschaft aus dem kirchlichen Umfeld über die Eroberung des Himmels durch die Astronomie bis hin zur Popularisierung der aufgeklärten Wissenschaften in Lesegesellschaften und Zeitschriften der Aufklärung spannt sich der bunte Bogen, der kaum einen Bereich der gelehrten Beschäftigung der Frühneuzeit unerwähnt lässt. Selbst Architektur und Musik erweisen sich als Felder der akademischen Reflexion, die unter dem Einfluss des mathematischen Denkens auch die klassischen Künste erfasste. Vor all dem Reichtum des ausgebreiteten Wissens mag jede Kritik blass und missgelaunt erscheinen. Denn tatsächlich hält der Band eine ganze Reihe von Juwelen bereit, von denen hier nur die beiden exzellenten Beiträge zur Durchsetzung der ärztlichen Autorität in der frühneuzeitlichen Heilkunst von Michael Stolberg und Bettina Wahrig sowie der Artikel von Wolfgang Behringer über Wunder, Besessenheit und Hexerei im wissenschaftlichen Diskurs des 17. und 18. Jahrhunderts herausgehoben seien. Dass gerade die Aufsätze der beiden Herausgeber nicht zu den stärksten Texten des Buches gehören, die Geschichte der Alchemie längst mehr zu bieten hat als einen Forschungsstand der Achtzigerjahre, mag man angesichts der eindrucksvollen Fülle der von ihnen zusammengetragenen Kostbarkeiten auch gerne in Kauf nehmen. Mehr noch irritiert aber der lobpreisende Ton einer Erfolgsgeschichte der neuzeitlichen Wissenschaft, der Einleitung und Zwischentexte, die Verlagswerbung ebenso wie auch eine Reihe von Beiträgen durchzieht. Manche wichtige Nuancierungen und kritische Fragen, die an anderen Stellen des Bandes durchaus auftauchen, werden da mit an den Rand gedrängt: die esoterischen Tendenzen beispielsweise, die noch in der Zeit der Aufklärung in vielen Bereichen die wissenschaftliche Beschäftigung mit der Natur prägten und etwa im Gedanken einer einheitlichen physikalischen "Weltformel" bis heute nicht aus den Naturwissenschaften verschwunden sind, oder das weit reichende praktische Wissen der frühneuzeitlichen Handwerker und "Wissensunternehmer", das außerhalb der akademischen Wissenschaft weitergegeben wurde und deren Erkenntnissen teilweise weit überlegen war. Ebenso verschwimmt unter dem von den Herausgebern bemühten Banner des "neuen Wissens" der problematische "wissenschaftliche" Status vieler Theorien und Gedanken der frühneuzeitlichen Gelehrten, die sich kaum von einem verbrämten Alltagswissen abhoben. In der neueren Wissenschaftsgeschichte hat dies längst dazu geführt", dass die Rede über die "Entstehung der modernen Wissenschaft" und von der "wissenschaftlichen Revolution" der Frühneuzeit stets mit einem großen Fragezeichen versehen wird."
  7. Kaufmann, N.C.: Kommt das Domainsterben? : Rechtsprechung gibt beschreibende Internet-Adressen zum Abschuss frei (2000) 0.10
    0.09632257 = product of:
      0.3852903 = sum of:
        0.3852903 = weight(_text_:jüngst in 5278) [ClassicSimilarity], result of:
          0.3852903 = score(doc=5278,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.720022 = fieldWeight in 5278, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.0625 = fieldNorm(doc=5278)
      0.25 = coord(1/4)
    
    Abstract
    Betreiber von Domains im Internet können selten ruhig schlafen. Wenn ihnen nicht gerade wieder mal das Markenrecht zu schaffen macht, dann ist es das Wettbewerbsrecht. Ein jüngst gefälltes Urteil kann sogar dazu führen, dass es vielen eingeführten Web-Angeboten demnächst an den Kragen geht: Das Führen eines sprechenden Domainnamens wie 'Gebrauchtfahrrad.de' oder 'Erdnuesse.de' ohne individuelle Erweiterung gilt danach nämlich als rechtswidriger Wettbewerbsvorteil
  8. Lange, E.: ¬Die Kraft der Gedanken : Forscher verknüpfen das Gehirn mit dem Computer - und schaffen mentale Tastaturen (2003) 0.09
    0.0949619 = product of:
      0.1899238 = sum of:
        0.14448386 = weight(_text_:jüngst in 1221) [ClassicSimilarity], result of:
          0.14448386 = score(doc=1221,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.27000827 = fieldWeight in 1221, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1221)
        0.045439925 = weight(_text_:und in 1221) [ClassicSimilarity], result of:
          0.045439925 = score(doc=1221,freq=36.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.31189203 = fieldWeight in 1221, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=1221)
      0.5 = coord(2/4)
    
    Content
    "Belle blinzelt verstohlen aus seinem Käfig. Der winzige Eulen-Nachtaffe, klein genug, um in einer Manteltasche Platz zu finden, greift nach dem Futter. Tausend Kilometer entfernt hebt im Massachusetts Institute of Technology (MIT) ein Roboter seinen Arm - es ist exakt die identische Bewegung, zeitgleich mit dem Original. Möglich machen das 32 haarfeine Kabel, die der Neurobiologe Miguel Nicolelis von der Duke Universität (North Carolina) ins Gehirn des Primaten eingesetzt hat. Damit liest er Gedankenimpulse des Affen aus - und die steuern - über das Internet weitergeleitet - den fernen Roboter. Nicolelis erforscht die Kopplung von Nervenbahnen und Computer. Die Verbindung des menschlichen Geists mit Maschinen zählt nach Ansicht des renommierten MIT zu den zehn Schlüsseltechnologien des 21. Jahrhunderts. Tastaturen oder Menübedienungen als Schnittstelle zwischen Mensch und dienstbaren Rechenknechten galten schon lange als Krücke. Ein halbes Dutzend Teams rund um den Globus arbeitet am Computeranschluss des Homo S@piens direkt im Gehirn. Die Amerikaner sind führend darin, die Neuronen des Nervensystems anzuzapfen. Aber deutsche Wissenschaftler holen auf: So ist es Nils Birbaumer von der Universität Tübingen gelungen, eine Nervenanbindung zu entwickeln, mit der gelähmte Patienten über ihre Hirnströme einen Cursor auf dem Computerdisplay bewegen. Sie wählen Buchstaben aus und schreiben so langsam ganze Sätze. Auch die Forscher vom Berliner Fraunhofer-Institut für Rechnerarchitektur und Softwaretechnik (First) steuern einen Cursor mit der Kraft der Gedanken: Eine raffinierte Software filtert nach einem 20-minütigen Training aus allen Hirnimpulsen der Probanden diejenigen für die Computerbedienung heraus. Wird der Cursor in einem Buchstabenfeld bewegt, entsteht eine Art mentaler Schreibmaschine. Künftige Anwendungen gehen weit darüber hinaus. Brain-Computer könnten eines Tages eine neue Art von Spielen ermöglichen und wären auch für die Automobilindustrie interessant. Sogar per Hirnanschluss gesteuerte bionische Roboter - so genannte Cyborgs, quasi halb Mensch, halb Maschine - dürften einmal wirklich werden. Doch bis dahin ist es noch ein weiter Weg: Frühestens in fünf bis 15 Jahren, schätzt der Neurophysiologe Eberhard Fetz aus Seattle, seien die ersten menschlichen Gehirne vollständig mit einem Computer verdrahtet. Bislang sahen die "Stecker zum Gehirn" meist recht konventionell aus: Winzige Elektroden haben die Neurobiologen bis in die Nervenbahnen vorgeschoben, um dort Impulse abzugreifen. Doch das funktioniert meist nur kurze Zeit; Abstoßungsreaktionen führen häufig dazu, dass die Zellen keinen Strom mehr liefern oder Neuronen beschädigt werden. Ein Forscherteam der University of Texas in Austin um Christine Schmidt hat jetzt ein biologisch verträglichen Kunststoff gefunden, der Nervenzellen wie ein elektrischer Leiter fest mit Halbleiterbausteinen verbindet. Winzige, nur drei Millionstel Millimeter (Nanometer) kleine, leitende Kristalle aus Cadmiumsulfid sind das Rohmaterial für die Neurochips, auf denen die Neuronen anwachsen können. Ein erster Neurochip auf dieser Basis mit einem Mikrocontroller (acht Bit, drei Megahertz) ist klein und leicht genug, um ihn auf einer Motte zu implantieren. Damit konnten die Daten der Muskelbewegungen abgegriffen und die komplizierten Flugbewegungen des Insektesaufgezeichnet werden.
    Ähnlich gelang jüngst eine Jumbo-JetLandung im Simulator. Dabei nahm niemand den Steuerknüppel in die Hand. Nasa-Wissenschaftler entwickelten ein Armband mit acht Elektroden, die einem Computer alle Handbewegungen des Trägers übermitteln, damit er sie mittels einer Software in Steuerimpulse umwandelt, die auf neuronale Netze aufbaut und lernfähig ist. Mit der Anpassung an verschiedene Muster kann diese Neuralnetz-Software individuell auf den Piloten und seinen Zustand eingehen. Wissenschaftler der Duke-Universität stellten ein fingernagelkleines Array aus 160 Mikroelektroden her, das leicht implantiert werden kann. Sie koppelten es mit einem Neurochip, der die Daten drahtlos mit einem Computer außerhalb des Körpers austauscht. Sie hoffen, in Kürze die Zahl der Elektroden auf mehr als tausend steigern zu können, um komplexere Bewegungen beispielsweise mit einem Roboterarm präzise durchführen zu können. Bionic-Forscher Nicolelis entwickelt derzeit einen Chip, der unter die Haut gepflanzt wird und die Neurosignale drahtlos weiterleitet - so können die lästigen Stecker und Kabel entfallen. Und noch auf einem anderen Gebiet sind die MIT-Forscher weitergekommen: Der Affe bekam ein Feedback in sein Nervensystem - und somit ein Gefühl dafür, wie schwer die mit der fernen Hand gepackten Gegenstände sind, ob sie glatt oder klebrig sind. Zum ersten Mal konnte das Tier den künstlichen Arm als einen Teil seines Körpers empfinden - und gefühlsecht eine Frucht anheben. Diese Forschung ist ein Schritt auf dem Weg zu Neuroprothesen für Behinderte. "Wir müssen zwar noch einige Hürden überwinden, bevor die Neurochips zum Beispiel für eine Therapie ausreichend sicher und zuverlässig sind", sagt Nicolelis. "Aber unser Ziel ist es, ein palmtopähnliches Gerät zu entwickeln, das die Nervensignale auswertet und Computer, Prothesen oder Roboter steuert oder an den Arzt übermittelt." Nicht alle Forscher sind so optimistisch. Neurologen vom Wiener Allgemeinen Krankenhaus geben zu bedenken: "Das Gehirn ist so unglaublich komplex, dass die Technik nur sehr schwer mitkommt", sagt der Leiter der Abteilung für Klinische Neurologie, Lüder Deecke: "Es gibt Millionen Nervenbahnen. Wie will man da überall direkte Verbindungen herstellen?" "
  9. Siegle, J.: Programmabsturz : Immer mehr Internet-Zeitschriften stehen vor dem Aus - jüngstes Opfer ist das US-Magazin 'The Industry Standard' (2000) 0.09
    0.08830737 = product of:
      0.17661475 = sum of:
        0.14448386 = weight(_text_:jüngst in 494) [ClassicSimilarity], result of:
          0.14448386 = score(doc=494,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.27000827 = fieldWeight in 494, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.0234375 = fieldNorm(doc=494)
        0.03213088 = weight(_text_:und in 494) [ClassicSimilarity], result of:
          0.03213088 = score(doc=494,freq=18.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.22054097 = fieldWeight in 494, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=494)
      0.5 = coord(2/4)
    
    Abstract
    Die Web-Revolution frisst ihre Kinder. Reihenweise sind in den vergangenen Monaten viel versprechende Dotcom-Unternehmen eingegangen. Zahllose hoch dotierte Mitarbeiter haben ihren Job verloren. Und auch in der Internet-Presse sind im Zuge stark rückläufiger Anzeigenumsätze zahlreiche Pleiten zu beklagen. Jüngstes Opfer ist das US-Magazin "The Industry Standard". Diese Woche erschien die vorerst letzte Ausgabe des renommiertesten amerikanischen New-Economy-Blattes. Der San Franciscoer Verlag Standard Media International steht vor der Zahlungsunfähigkeit und wird voraussichtlich Gläubigerschutz beantragen - was in etwa dem deutschen Insolvenzverfahren entspricht. Zuvor waren Finanzierungsgespräche mit dem Hauptanteilseigner, der Bostoner Verlagsgruppe International Data Group (IDG), gescheitert. Bis auf eine Minimannschaft von sechs bis 20 Mitarbeitern, die weiterhin die Online-Ausgabe des Magazins produzieren sollen, verlieren alle 180, Angestellten ihren Job. Das Gros der Mitarbeiter war vergangene Woche vorsichtshalber schon mal in den Zwangsurlaub geschickt worden. Die Standard-Pleite kommt nicht ganz überraschend: Bereits im Februar hatte das Flaggschiff der amerikanischen New-Economy-Medien im Zuge des rückläufigen Anzeigenaufkommens 69 Angestellte entlassen müssen. Im Januar war eine erste Massenkündigungswelle erfolgt. In den vergangenen Monaten hat sich die Situation nun nochmals deutlich zugespitzt. Seit Jahresbeginn ist die Zahl der gebuchten Anzeigen um 75 Prozent gefallen. Den drastischen Werberückgang dokumentierte der beständig schwindende Umfang des Wochenmagazins: Im Februar 2000 zählte der Standard noch stolze 228 Seiten. Dieses Frühjahr kam das Heft gerade noch auf 120 Seiten, Mitte Mai nur noch auf 80. Kein anderes Internet-Magazin hat den dramatischen Aufstieg und Niedergang der Online-Ökonomie so durchlitten wie der Industry Standard.
    Im April 1998 gegründet, etablierte sich die Zeitschrift schnell als das Sprachrohr der boomenden Netz-Welt. Schier unendlich schien der Fundus an Erfolgsgeschichten über die aufstrebende Internet-Szene. Die WerbeIndustrie bescherte dem jungen Verlagshaus binnen kürzester Zeit Anzeigenrekorde: Vergangenes Jahr konnte das WebBlatt rund 7 600 Anzeigenseiten verkaufen. Das Unternehmen erwirtschaftete damit ein Plus von 140 Millionen US-Dollar und überschritt innerhalb von nur drei Jahren die Geweinnschwelle - ein seltenes Kunststück im Magazin Geschäft. Brachnetypisch schmiss die San Franciscoer Redaktion dutzende opulente Partys. Zur Hochphase beschäftigte das Medienhaus immerhin rund 400 Mitarbeiter, darunter etwa 130 Redakteure. Im Oktober vergangenen Jahres wurde auch eine EuropaAusgabe gestartet, die von 60 Angestellten in London produziert wurde. Auch journalistisch wurde die Arbeit des Standard mehrfach ausgezeichnet. Mit dem Absturz der New Economy verdüsterten sich in jüngster Vergangenheit die Schlagzeilen in der Internet-Presse. Immer regelmäßiger berichtete die NetzPostille nun über Massenentlassungen, Pleiten, Pech und Pannen in der Dotcom-Industrie. Die Werbungstreibenden reagierten mit Etatstreichungen. Zudem gingen viele Standard-Anzeigenkunden aus dem Online-Lager pleite. Dasselbe Schicksal ereilt nun das Internet-Zentralorgan aus San Francisco. Nachdem seit Januar ein Verlust von 50 Millionen US-Dollar erwirtschaftet wurde, haben die Standar-Investoren um die Verlagsgruppe IDG (PC World, Macworld, Computerworld, Infoworld) den Stecker gezogen.
    "Wir sind sehr enttäuscht, dass unsere finanzielle Situation diese Maßnahmen erfordert. Wir hoffen dennoch weiter, dass wir unsere Aktiva verkaufen können", ließ Standard Media International in einer Pressemitteilung verlauten. IDG kommentierte den Rückzug bislang nicht. Der Standard ist kein Einzelfall. Seit Monaten leiden auch amerikanische Konkurrenzblätter wie Red Herring oder Wired unter der Werbeflaute. Red Herring verschlankte sich binnen eines Jahres etwa von 350 Seiten Umfang auf 120 Seiten und musste bereits Ende vergangenen Jahres mehr als 20 Angestellte entlassen. Die Kult-IT-Bibel Wired konnte zu ihren besten Zeiten allein dem Inhaltsverzeichnis 72 Anzeigenseiten vorschalten. Ein Stapel der sechs wichtigsten amerikanischen Internet-Magazine - die alle aus San Francisco stammen - hatte im Juni vergangenen Jahres rund, fünf Kilogramm gewogen. Aktuelle Ausgaben von Wired, eCompany, Red Herring, Business 2.0, Upside und eben The Industry Standard bringen nun zusammen nicht mal mehr die Hälfte auf die Waage. In Deutschland ist die Situation der Web-Medien nicht besser: In den vergangenen Wochen mussten neben dem Milchstraßen-Titel Net-Business die zwei Münchner Objekte Business 2.0 und NetInvestor sowie die Handelsblatt-Publikation E-Business aufgeben. Die Zeitschriften eMarket und Tomorrow haben jüngst ihren Veröffentlichungsrhythmus halbiert: eMarket erscheint nur noch zweiwöchentlieh, Tomorrow nur noch monatlich. Bei Standard Media International in San Francisco sucht man derweil nach einem Käufer für den jetzt höchst defizitären Industry Standard. Die Online-Ausgabe der einstigen Cash-Cow", TheStandard.com, soll bis auf weiteres in einer abgespeckten Version weitergeführt werden. Amerikanischen Medienberichten zufolge sollen im Verlag sogar Pläne für die Wiederbelebung eines völlig neukonzipierten Magazins geschmiedet werden
  10. Scharmann, U.: Anwendung der Regeln für den Schlagwortkatalog (RSWK) in öffentlichen Bibliotheken. Abschlußbericht zum dbi-Projekt 11.35 (1989) 0.09
    0.08764802 = product of:
      0.17529604 = sum of:
        0.030293284 = weight(_text_:und in 1203) [ClassicSimilarity], result of:
          0.030293284 = score(doc=1203,freq=4.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.20792803 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
        0.14500275 = weight(_text_:headings in 1203) [ClassicSimilarity], result of:
          0.14500275 = score(doc=1203,freq=4.0), product of:
            0.3187486 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06568883 = queryNorm
            0.4549126 = fieldWeight in 1203, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1203)
      0.5 = coord(2/4)
    
    Classification
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    LCSH
    Subject headings, German
    RVK
    AN 75400 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Sacherschließung in Bibliotheken / Schlagwortregeln, Schlagwortverzeichnis
    Subject
    Subject headings, German
  11. Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009) 0.09
    0.08661861 = product of:
      0.17323722 = sum of:
        0.025244405 = weight(_text_:und in 26) [ClassicSimilarity], result of:
          0.025244405 = score(doc=26,freq=4.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.17327337 = fieldWeight in 26, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
        0.14799282 = weight(_text_:headings in 26) [ClassicSimilarity], result of:
          0.14799282 = score(doc=26,freq=6.0), product of:
            0.3187486 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06568883 = queryNorm
            0.46429324 = fieldWeight in 26, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
      0.5 = coord(2/4)
    
    Abstract
    Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
  12. Schmitz, H.: Lücken im Netz : Die New York Times sperrt einen Text für Surfer in Großbritannien - der Anfang vom Ende des weltweiten Webs? (2006) 0.09
    0.08535931 = product of:
      0.17071863 = sum of:
        0.14448386 = weight(_text_:jüngst in 987) [ClassicSimilarity], result of:
          0.14448386 = score(doc=987,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.27000827 = fieldWeight in 987, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.0234375 = fieldNorm(doc=987)
        0.026234755 = weight(_text_:und in 987) [ClassicSimilarity], result of:
          0.026234755 = score(doc=987,freq=12.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.18007097 = fieldWeight in 987, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=987)
      0.5 = coord(2/4)
    
    Content
    "Der Text dürfte Surfer aus Großbritannien besonders interessiert haben: "Details zum britischen Terror-Fall bekannt geworden ; verkündete die New York Times in ihrer Online-Ausgabe. Doch ausgerechnet die Leser auf der Insel bekamen statt des Artikels den schlichten Hinweis auf den Bildschirm, der Beitrag sei "auf Ratschlag von Rechtsberatern" für britische Nutzer von nytimes.com nicht verfügbar. Fachleute beunruhigt der Fall. Sie sehen das Internet als weltweites Medium in Gefahr. Ein System aus der Werbung Die renommierte Zeitung begründete den Ausschluss ihrer britischen Leser damit, dass es in Großbritannien verboten sei, Informationen vor einem Prozess öffentlich zu machen, die vor Gericht als Beweise dienen können. Rein technisch ist die Sperre keine große Sache. Die New York Times verwendet eine Software, die vor allem dazu gedacht ist, Werbung gezielt zu verbreiten. Geotargeting nennt sich das System, das dafür sorgt, dass ein Internetbesucher aus Deutschland andere Reklame sieht als ein Leser der selben Seite aus Frankreich oder den Vereinigten Staaten. "Die New York Times kann seit einiger Zeit die Herkunft ihrer Nutzer bestimmen und für gezieltes Marketing nutzen`, sagt Richard Meislin, leitender Internet-Redakteur. Freilich: Sortierte Werbung ist eine Sache, das Vorenthalten journalistischer Inhalte eine andere. Hauptanbieter der Technik sind Unternehmen wie Quova, Net Geo, Digital Envoy oder Akamai. Die Genauigkeit ihrer Dienste liegt zwischen 96 und 99 Prozent. Die Software wertet die Adresse der Surfer nach dem Internet Protokoll aus, die mit jeder Seitenabfrage übertragen wird. Zwar kann dieser Absender nicht eindeutig einem Nutzer zugewiesen werden, wohl aber dem Besitzer. In der Regel sind das die Internetprovider wie AOL oder T-Online, Universitäten, Firmen oder andere größere Einrichtungen. Die wiederum teilen die Adressen regionalen Netzknoten zu, sodass auf die ungefähre Herkunft des Nutzers geschlossen werden kann. Surfer können die Technik austricksen, in dem sie Zwischenstationen einschalten: Ein Brite beauftragt etwa einen Rechner in den Vereinigten Staaten, eine Seite der New York Times aufzurufen. Für die Zeitung sieht es so aus, als lebe der Surfer im Inland. Doch dort arbeitet nur eine Software, die den Text nach Europa weiterreicht. Fachleute bezeichnen solche Zwischenstationen als Proxyserver. Auch Anonymisierungsdienste, jüngst in den Blick von Strafverfolgern geraten, arbeiten nach dem Prinzip.
    Der jüngste Fall der New York Times zeigt: Geotargeting ermöglicht Zensur. Das hat das Blatt selbst erkannt und wiegelt ab. "Jeder Fall muss einzeln geprüft werden", sagt George Freeman, Vizepräsident des Verlags. Großbritannien sei ein Land, das die Pressefreiheit achte, und sein Haus wolle die Rechte eines solchen Landes respektieren. Unklar ist, wessen Rechte die New York Times zukünftig achten will. Wie verhielte sich das US-Blatt, wenn manche Staaten, etwa die Volksrepublik China, verlangen würden, regierungskritische Artikel für die eigenen Landesleute zu sperren? Der große Aufschrei wegen Google Groß war der Aufschrei, als Google im Januar eine chinesische Version seiner Suchmaschine startete, in der bestimmte Inhalte zu Themen wie Tibet nicht in den Ergebnislisten auftauchen. Von einem "schwarzen Tag für die Meinungsfreiheit in China" sprach die Journalistenorganisation Reporter ohne Grenzen. Die New York Times bezeichnete Googles Verhalten als "nicht gerade idealistisch". Der Suchmaschinenbetreiber arbeitet nicht nur in China so. Rainer Glück vom Chaos Computer Club sagt, Google passe stets "die gezeigten Suchergebnisse per Geotargeting an verschiedene nationale Gesichtspunkte an - und unterdrückt im Extremfall auch Suchergebnisse, wenn sie unter die mit dem entsprechenden Staat vereinbarten Regularien fallen." Um ihr Vorgehen zu verteidigen, zitiert die New York Times den Internet-Rechtsexperten Jonathan Zittrain von der Universität Oxford "Es ist bekannt, dass die Technik Inhalte geografisch beschränken kann. Zwar nicht hundertprozentig, aber effektiv genug. Und es ist anzunehmen, dass internationale Gerichte gewillt sind, diesen technischen Fortschritt bei der Rechtssprechung zu berücksichtigen." Sollte; das eintreffen, müssten Internet-seiten-Betreiber künftig viele Fachleute für internationales Recht beschäftigen, die sämtliche Inhalte darauf prüfen, ob sie in irgendeinem Land dieser Erde mit dem dortigen Recht in Konflikt stehen. So könnten Anbieter vielleicht auf die Idee kommen, ihre Seiten nur für die Länder zugänglich zu machen, mit deren Recht' sie sich auskennen. Es würden nationale Grenzen errichtet. Das Web wäre dann nicht mehr World Wide."
  13. Hermes, H.J.; Lorenz, B.: Sacherschließung - wir müssen sie (uns) leisten! : Vorträge im Rahmen der 28. Jahrestagung der Gesellschaft für Klassifikation, Universität Dortmund 9. bis 11. Mai 2004 (2004) 0.09
    0.08504844 = product of:
      0.17009687 = sum of:
        0.120403215 = weight(_text_:jüngst in 3183) [ClassicSimilarity], result of:
          0.120403215 = score(doc=3183,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.22500688 = fieldWeight in 3183, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
        0.04969366 = weight(_text_:und in 3183) [ClassicSimilarity], result of:
          0.04969366 = score(doc=3183,freq=62.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.34108895 = fieldWeight in 3183, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3183)
      0.5 = coord(2/4)
    
    Abstract
    Seit nunmehr 28 Jahren treffen sich Bibliothekare bei der Jahrestagung der Gesellschaft für Klassifikation zum Gedankenaustausch über Inhaltserschließung. Im vorigen Jahr beschäftigte uns in Cottbus die Frage: "Sacherschließung - können wir uns die noch leisten?" - und Antworten wurden gesucht und eine mit dem Mittel des Controlling gefunden: Die Auskunft aus dem Leitreferat von Dr. Ceynowa lautete, dass die Sacherschließung eines Dokuments (z.B. eines Buches) 16,67 Euro kostet bei 18 Arbeitsminuten. Am Ende stand dennoch das klare Fazit der 2003er Tagung: Sachschließung - wir müssen sie (uns) leisten! Und das war zugleich das Thema der Dortmunder Veranstaltung der Bibliothekare, denn Bibliothek ohne Inhaltserschließung - sie würde nicht funktionieren. Gleichwohl wurden die Dortmunder Referate gleichsam vor einer Folie gehalten mit der Aufschrift: "Runter mit den Kosten." Übrigens akzeptierten die Autoren in Cottbus so gut wie geschlossen das neue Angebot, dass ihre Beiträge auf den Archivserver der Technischen Universität Chemnitz "MONARCH" (Multimedia ONline ARchiv der TU Chemnitz) übertragen würden. So geschah es, so dass sie seit Sommer 2003 unter der Adresse archiv.tu-chemnitz.de erreichbar sind. Für die Dortmunder Beiträge ist dasselbe Verfahren vereinbart.
    Content
    "Kollege Bernhard Eversberg, UB TU Braunschweig, sprach zum Thema "Vorbild Suchmaschine - oder was sonst kann unsere Sacherschließung besser machen?" Eversberg geht von folgenden Aussagen aus: - "Das vollautomatische Wort-Indexieren des Datenmaterials allein ist völlig unzureichend. - Schlagwörter können nicht allen Fragestellungen gerecht werden. - Größere Bestände sind nirgends vollständig und konsistent sachlich erschlossen. - Ein virtueller Sachkatalog (Simultansuche in mehreren Katalogen) ist deshalb Utopie. - ABER: Die sachliche Suche hat aus Nutzersicht einen höheren Stellenwert als die formale. - UND: Nutzer wollen verbal suchen - das Denken in Klassen und Hierarchien ist schwer vermittelbar." Gleichwohl meint er, die Aussichten für eine bessere Sacherschließung seien gar nicht so schlecht: "Zuerst muss man sich auf Codes und Notationen für die [im Referat erörterten] Kriterien einigen, mindestens auf Listen von Begriffen und deren Semantik, doch kann man dabei auf einige Vorarbeiten bauen oder Vorhandenes nutzen. Verteiltes Vorgehen ist möglich, wenn man sich auf Normen einigt und dann einen intensiven Austausch zwischen den Verbünden organisiert. Es hat schon einige Aktionen zum Austausch von Schlagwortund Systematikdaten gegeben, und diesen ersten Schritten könnten viele weitere folgen. ... Weil aber schon längst lokale Bestände für viele Fragen unzureichend sind, könnte man eine Stärkung der Verbundkataloge und deren Einsatz auch im OPACBereich ins Auge fassen, was gelegentlich schon vorgeschlagen wurde (Suche im Verbund, Ausleihe im Lokalsystem)." Eversbergs Referat ist komplett erreichbar unter http://www.allegro-c.de/formale/se.htm.
    Manfred Hauer, Inhaber von AGI-Information Management Consultants, stellte intelligent Capture vor bzw. die mit dem Tool CAI-Engine (computer-aided-indexing) erzeugten Metatexte. Mit ihrer Hilfe ließen sich Proberecherchen in der jüngst entstandenen Datenbank Dandelon unternehmen. Dandelon entstand im Rahmen der Sacherschließung für die Vorarlberger Landesbibliothek in Bregenz. Die InternetAdresse: http://www.dandelon.com. Florian Seiffert, HBZ Köln, stellte mit "Virtuelles Bücherregal NRW" ein Verfahren vor, mit dessen Hilfe herkömmliche Titelaufnahmen in Suchmaschinen-hier Google - eingeschleust wurden. Das einleuchtende Ergebnis: Auch bekennende Nichtbenutzer von Bibliotheken finden unversehens einschlägige Buchtitel - nämlich solche aus den HBZ-Daten - unter Google. Das "Virtuelle Bücherregal NRW" bietet insoweit das an, was man in Politikersprache "populistisch" nennen würde. Mit einschlägigem Erfolg. Hans Dieter Gebauer, ULB Bonn, stellte sein Publikum vor die bekannte Entscheidungssituation, die alle schon erlebt haben: Soll man einen alten Zettelkatalog - hier in Bonn einen Schlagwortkatalog mit einer halben Million Zetteln - wegwerfen oder die intellektuelle Leistung vieler, die vor uns da waren, retten? In Bonn geht es um die Berichtszeit von 1945 bis 1989. Über etliche Folien hielt sich die Spannung, bis am Ende folgende Lösung herauskam: Die Bonner werden davon profitieren, dass das HBZ ähnlich wie im Jahr 2002 der Südwestverbund Sacherschließungen aus dem Bayerischen Verbund überführen wird. Für die Situation in Bonn wird die Datenübernahme aus Bayern schon deshalb sinnvoll sein, weil auch ältere Titel aus der Zeit vor 1970 sich als sacherschlossen erweisen werden. Geplant ist die Übernahme der sacherschlossenen Titel noch im Jahr des BVB->HBZ-Projekts, d.h. 2005. Etliche Vorarbeiten werden schon jetzt durchgeführt und etliche werden sich nach der Fremddatenübernahme im Rahmen von Eigenbearbeitungen nach RSWK anschließen. Thema von Stefanie Berberich, UB Heidelberg, war Kosten und Nutzen von konventioneller und automatisierter Inhaltserschließung. Bibliothekskataloge mit großem Titeldatenvolumen weisen sehr unterschiedliche Erschließungstiefe auf. Nicht selten sind nur ca. 25 Prozent der Titeldaten verbal nach RSWK erschlossen. Bibliotheken müssen daher der Frage nachgehen, mit welchen Methoden, automatisch und konventionell, und zu welchen Kosten die übrigen Daten verbessert, das OPAC-Retrieval optimiert und Wissensressourcen insgesamt besser präsentiert werden können.
    Ausgehend von den Kontextfaktoren, Google-Faktor und Kostenfaktor, die starken Druck auf die Bibliotheksdienstleistung Erschließung ausüben, und ausgehend von einer empirischen OPAC-Analyse von 1.200 Rechercheprotokollen vom Typ "Nulltreffer bei der sachlichen Suche" stellte die Verfasserin exemplarische Ansätze zur Optimierung der Erschließung unter Benutzungsaspekten vor: 1. Freitextsuche und Redesign von OPACOberflächen 2. Einbindung informationeller Mehrwerte (Table of Contents zu Titelaufnahmen) 3. automatische Erschließung 4. Integration von Katalogen in ein Portal Die genannten Ansätze wurden unter den Aspekten Kosten und Nutzen analysiert. Kerstin Zimmermann (Wien) berichtete über Klassifikationsbeispiele von Lernmaterialien in spezifischen Portalen. Hintergrund: Was im Wissenschaftsbereich mit den Internet-Angeboten von Vorlesungsskripten und einfachen JAVA-Appletts begann, geht heute bis hin zu kommerziellen virtuellen Lernplattformen mit unterschiedlichsten Inhalten Die Didaktik spricht dann von blended learning. Schränkt man die Betrachtung auf frei zugängliche, online verfügbare Materialien ein, stellt sich die Frage nach der Auffindbarkeit. Wo gibt es Angebote für welches Fach und auf welchem Level?
    Zimmermann betrachtete die zwei unterschiedlichen Fächer Geschichte und Physik als Repräsentanten für die Entwicklung unter dem Gesichtspunkt von Portalen. Dabei untersuchte sie einerseits die Einbettung der Lehr- und Lernmaterialien sowie deren Kennzeichnung durch Metadaten. Darüber hinaus behandelte sie fächerübergreifende Server im Bereich Schule/Hochschule und hier sowohl die Einordnung wie das Angebot. Einen Schwerpunkt bildete die Frage, welche Konsequenzen sich hieraus für interdisziplinäre Darstellung ziehen lassen. Abschließend kommentierte sie folgende Portale: Clio-Online, LiLi, Deutscher Bildungsserver, ZUM, META-AKAD bzw. AKEON. Über Sacherschließung in der UB Dortmund berichtete der zuständige Fachreferent Christian Andersen. Die Universitätsbibliothek klassifizierte nach der DK, die Bibliothek der Pädagogischen Hochschule klassifizierte nach eigenem System. 1980 erfolgte die Fusion der beiden Bibliotheken mit der Begleiterscheinung, dass die beiden Systematischen Kataloge einerseits nach DK und andererseits nach eigener PHB-Systematik weitergeführt wurden. Für die Sachkataloge produzierte das System DOBIS Katalogzettel bis zur Abschaltung von DOBIS Ende 1991. Damit brachen die Zettelkataloge ab. In einem Testlauf im Sommer 1990 hatten sich die Fachreferenten für die Nutzung der Fremddaten des HBZ entschieden. Außerdem stand die Möglichkeit der freien Schlagwortvergabe zur Verfügung. Eine Umstellung der DK-Notationen auf EDV-Recherche hätte großen manuellen Verbalisierungsaufwand benötigt, da die DK-Notation für sich genommen nicht aussagekräftig genug erschienen. Der DK-Teil des Zettelkatalogs wurde Anfang 2002 "entsorgt'"; der PH-Teil steht heute in einem Magazin noch zur Verfügung, wird aber - sofern entdeckt - kaum genutzt.
    Heute sind alle Bestände der UB im OPAC erreichbar. Sachlich suchen kann man gezielt nach Schlagwörtern oder Stichwörtern. Auch die "Suche über alle Felder" ist möglich. Nachteil: Fallweise gibt es große bis sehr große Treffermengen. Problem: Die durch die Retrokatalogisierung erfassten Altbestände sind fast gar nicht sachlich erschlossen; die Titel seit 1983 nur teilweise. Mit 1986 setzte die Übernahme der Schlagwortdaten der Deutschen Nationalbibliographie (DNB) durch den HBZ-Verbund ein. Wünschenswert wäre es, die Altbestände durch automatische Indexierung zu erschließen. Im Rahmen der Besprechung der AG Dezimalklassifikationen am 10. März 2004 gab Bernd Lorenz (Fachhochschule für öffentliche Verwaltung und Rechtspflege München) einen kurzen Überblick über den Stand der DDC Deutsch und lieferte seine Eindrücke von der Präsentation von DDC und UDK während des IFLA-Kongresses in Berlin (August 2003)."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.3, S.157-158
  14. Schönert, U.: Mitschreiben, bitte! (2005) 0.09
    0.08504844 = product of:
      0.17009687 = sum of:
        0.120403215 = weight(_text_:jüngst in 5027) [ClassicSimilarity], result of:
          0.120403215 = score(doc=5027,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.22500688 = fieldWeight in 5027, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5027)
        0.04969366 = weight(_text_:und in 5027) [ClassicSimilarity], result of:
          0.04969366 = score(doc=5027,freq=62.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.34108895 = fieldWeight in 5027, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=5027)
      0.5 = coord(2/4)
    
    Abstract
    Paradies für Klugscheißer oder größtes Wissensprojekt der Menschheit? Das Internetlexikon WIKIPEDIA ist beides - und es wird täglich besser
    Content
    "Rudolf Heß ist ermordet worden. So steht es schwarz auf weiß im Internetlexikon Wikipedia. Es ist der 15. August 2005, 15.22 Uhr, und der, der es geschrieben hat, nennt sich "Ksrheingau". Wer jetzt im Netz ist und sich unter de.wikipedia.org über Heß informieren will, liest außerdem, dass es der "britische Geheimdienst" war, der den Führer-Stellvertreter getötet habe. Das habe "sein ehemaliger tunesischer Krankenpfleger" festgestellt, der "dies notariell bestätigt" habe. NAZI-UNSINN IM INTERNET? Das ist an sich nicht ungewöhnlich. Aber in einem Lexikon? Bei Wikipedia kann das vorkommen. Denn Wikipedia ist ein Lexikon, das allein von seinen Lesern geschrieben wird. Alle Artikel können von jedermann verändert werden, und das sogar anonym. Kein Wunder, dass dem amerikanischen Internetunternehmer Jimmy Wales vor allem Skepsis entgegenschlug, als er vor vier Jahren mit diesem Konzept an die Öffentlichkeit ging. Das klappt nicht, hieß es. Das kann einfach nicht klappen. Doch inzwischen gehört das Mitmachlexikon zu den beliebtesten Webangeboten der Welt. Jeden Tag werden mehr als 800 Millionen Mal Wikipedia-Seiten abgerufen. Mit über zwei Millionen Stichwörtern in mehr als 100 Sprachen hat es klassische Nachschlagewerke wie die Encyclopedia Britannica längst abgehängt. Webportale wie Yahoo, Freenet und web.de schmücken sich mit Wikipedia-Inhalten, bei der letzten Grimme-Preis-Verleihung räumte es gleich zweimal ab. "Kaum eine Hausarbeit, kein Referat könnte heute ohne Wikipedia entstehen, und kaum ein Zeitungsartikel", bilanzierte jüngst die "Welt". Mit einem Lexikon, in dem Neonazis schreiben?
    Dass das geht, zeigt sich, nur eine Minute nachdem "Ksrheingau" seinen Nazi-Müll dort abgeladen hatte. Exakt um 15.23 Uhr ist die Mordtheorie wieder weg. "Suizid" steht da nun wieder als Todesursache, korrigiert hat es "Southpark". Mit einem Klick auf die Maus hat er den alten Text wiederhergestellt. "Southpark" heißt eigentlich Dirk Franke und studiert in Hamburg Politik. Er ist einer von etwa 150 Administratoren der deutschen Wikipedia. Sie verstehen sich als "Türsteher" und haben das Recht, andere Nutzer zu sperren und WikipediaSeiten zu löschen. Administrator wird, wer sich lange bei Wikipedia engagiert, von einem anderen Administrator vorgeschlagen und in einer Online-Abstimmung gewählt wird. Auf Frankes Beobachtungsliste stehen außer "Rudolf Heß" Begriffe wie "USAußenpolitik "Holocaust" oder "George W. Bush": "Wenn da einer Mist schreibt, fällt das sofort auf", sagt Franke. Vier bis fünf Stunden täglich verbringt er mit dem Schreiben von Lexikonartikeln, vor allem aber mit Löschen. Es ist ein ewiger Kampf, der da im Wikipedia-Universum tobt, ein Kampf um saubere Inhalte, ein Kampf um die Wahrheit. Leute wie "Southpark" stehen Ideologen, Fundamentalisten und Vandalen gegenüber, die Wertvolles mit Obszönem überschreiben oder mit Nonsens. "Das bindet viel Energie, auch wenn den meisten Nervensägen auf Dauer die Lust vergeht"; sagt "Southpark". Wer im Netz etwas sucht, ist bei de. wikipedia.org inzwischen oft besser bedient als bei Google. Denn Wikipedia-Artikel fassen alles Wissenswerte über ein Thema kurz zusammen, sie haben für jedes Stichwort ein eigenes Diskussionsforum und meist auch Internetlinks, die zu Originalquellen oder interessanten Seiten führen. Ihre Informationen sind grundsätzlich kostenlos, denn Wikipedia ist gewissermaßen Welt-Volkseigentum. Alles ist gemeinnützig, werbefrei und spendenfinanziert. "Unser einziger bezahlter Mitarbeiter ist ein Programmierer, der sich um die Software kümmert", sagt Gründer Wales.
    Alle anderen sind Freiwillige, die in ihrer Freizeit arbeiten: Sie schreiben neue Artikel, korrigieren, recherchieren, laden Fotos hoch. Studenten machen mit, Rentner, Lehrer und Hausfrauen. Hobby-Musiker schreiben über Tonarten, Professoren über Laser, Piloten über Triebwerke, Eisenbahnfans über Lokomotiven und Lokalpatrioten über ihre Kreisstädte. ES IST EIN KLEINES WUNDER, das sich da still und leise abspielt. Ohne Werbung und nahezu ohne Anschubfinanzierung ist aus einer Idee, die eigentlich gar nicht klappen kann, eine der größten Wissenssammlungen der Welt entstanden, deren Datenbestand sich noch immer alle paar Monate verdoppelt. Nur über einen Bruchteil davon wird erhitzt debattiert, und vielleicht ist das sogar die erstaunlichste Erkenntnis des Weltexperiments Wikipedia: dass der größte Teil des menschlichen Wissens ganz und gar unumstritten ist. Und wenn die Fakten mal nicht eindeutig sind, wird die Onlinediskussion ebenso gespeichert wie frühere, inzwischen für falsch erkannte Einträge. So kann jeder nachverfolgen, ob und in welchen Aspekten ein Begriff und seine Erklärung strittig sind. STARK IST WIKIPEDIA vor allem bei der Suche nach Hintergrundinformationen zu aktuellen Ereignissen. Sobald etwas Weltbewegendes passiert, setzt bei den Wikipedianern ein wahrer Wettbewerb ein. Wer aktualisiert den Artikel am schnellsten? Wer schafft es, das neue Ereignis am besten in Lexikonform zu gießen? So wurde der Artikel "Vertrauensfrage" am 1. Juli gleich mehrmals aktualisert. "Thoken" "Mac"; "EBB"; "Kopoltra"; "Bacchus" und viele andere feilen noch während der Bundestagssitzung an der Neufassung. Das Mitmachen geht dabei so einfach, dass man kein Technikfreak sein muss. Seite aufrufen, auf "bearbeiten" klicken, schreiben, speichern. Fertig. Gabriele Hornsteiner ist Professorin an der Fachhochschule Hof, lehrt dort Mathematik und Statistik für Betriebswirtschaftsstudenten. Sie nennt sich selbst "süchtig" nach Wikipedia. Sechs Stunden am Tag widmet sie der Arbeit an dem Onlinelexikon, und auch nachts sitzt sie am Rechner, manchmal bis zwei Uhr.
    Immer wieder geht sie die Liste der frisch geänderten Artikel durch - jede Stunde kommen etwa 20 neue hinzu. Und immer stellt sie sich die Frage: Ist das richtig? Ist das sinnvoll? Im Zweifel wählt sie die Löschtaste: "Das ist besser als Solitär spielen." Inzwischen lässt Hornsteiner zu Übungszwecken sogar ihre Studenten Wikipedia-Artikel schreiben. "Da lernt man, sich auf das Wesentliche zu konzentrieren, wissenschaftlich zu schreiben und dabei stets neutral zu bleiben." Aber was ist, wenn man nun ausgerechnet am 15. August um 15.22 Uhr nach Informationen über Rudolf Heß sucht? Mehrere Möglichkeiten werden von der Gemeinschaft zurzeit diskutiert. So könnten Seiten, die besonders oft von Vandalen heimgesucht werden, nur zeitversetzt veränderbar geschaltet werden. Dann hätten die Administratoren die Möglichkeit, böswillige Änderungen zu korrigieren, bevor sie an die Öffentlichkeit gelangen. Ein anderer Vorschlag ist, Seiten mit besonders gelungenen Inhalten für Änderungen ganz zu sperren. Das aber ist in der Gemeinschaft umstritten, denn das freie Verändern von Inhalten gehört zum Urprinzip der Wiki-Idee. Die bezeichnet nämlich erst einmal nur ein Verfahren, mit dem Webseiten von ihren Betrachtern verändert werden können ("wiki wiki" heißt auf Hawaiianisch "schnell"). Und Wikipedia ist keineswegs die einzige Wiki-Webseite. Alle möglichen Gruppen nutzen Wikis: Gebrauchsanleitungen entstehen mit WikiSoftware ebenso wie Vereinssatzungen und Reiseführer. Doch Wikis funktionieren nur, wenn viele Helfer mitarbeiten, je mehr, desto besser. Schon macht sich die Wikipedia-Gemeinde daran, das, was beim Lexikon so gut funktioniert, auf andere Bereiche auszudehnen. Die Arbeiten an Wiki-Wörterbüchern laufen bereits. Ein Wiki-QuotesProjekt sammelt Zitate. Eine ganze Bibliothek von Wiki-Büchern soll so entstehen, in der auch ausführliche Texte, die über Lexikoneinträge hinausgehen, abrufbar sind. Doch Jimmy Wales will noch mehr: Wikis sollen einmal alle schulischen Lehrinhalte erfassen, sollen Musik, Gemälde, Dateiformate, Landkarten und Literatur für jedermann frei zugänglich machen. Das klappt nicht. Das kann doch einfach nicht klappen, sagen schon die Ersten."
    Footnote
    Mit einer Grafik zum Anwachsen der Autoren- und Artikelzahl
  15. Braune, G.: Grenze im Bücherregal : Der Terror hat auch das unkomplizierte Nebeneinander von US-Amerikanern und Kanadiern verändert (2001) 0.08
    0.08423357 = product of:
      0.16846713 = sum of:
        0.120403215 = weight(_text_:jüngst in 604) [ClassicSimilarity], result of:
          0.120403215 = score(doc=604,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.22500688 = fieldWeight in 604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.01953125 = fieldNorm(doc=604)
        0.04806391 = weight(_text_:und in 604) [ClassicSimilarity], result of:
          0.04806391 = score(doc=604,freq=58.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.32990265 = fieldWeight in 604, product of:
              7.615773 = tf(freq=58.0), with freq of:
                58.0 = termFreq=58.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=604)
      0.5 = coord(2/4)
    
    Content
    "Der schwarze Strich auf dem Boden markiert die Grenze. Sie verläuft mitten durch den Lesesaal und die Eingangshalle der Haskell-Bibliothek. Das Pult der Ausleihe steht in Kanada, der Raum mit Computer und Faxgerät liegt auf US-amerikanischem Hoheitsgebiet. Fähnchen auf Regalen und Schränken zeigen dem Besucher, wo er sich aufhält. "Die meisten Bücher stehen in Kanada", sagt die Bibliotheksangestellte Nancy Rumery. Die Haskell-Bücherei liegt genau auf der Grenze. Sie gehört zu Stanstead in der kanadischen Provinz Quebec und zu Derby Line im US-Bundesstaat Vermont. Nirgendwo an der über 6000 Kilometer langen Grenze wird so deutlich, wie stark die beiden nordamerikanischen Staaten miteinander verwachsen sind 'und wie schwer es ist, die Grenze zu kontrollieren. Der Haupteingang der Bibliothek liegt in den USA. Auf dem Bürgersteig zeigt ein Betonpfosten die Grenze an. "Wir sagen unseren Besuchern, dass sie mit ihren Autos- nicht einfach über die Grenze fahren können, sondern sich erst am Grenzübergang melden müssen", erläutert Nancy Rumery. Der Übergang liegt einige, hundert Meter weit entfernt. Kameras an Laternenpfosten signalisieren, dass die offene Grenzen auch überwacht wird. Seit dem 11. September wird genau hingeschaut, wer in der Bibliothek ein- und ausgeht, und ob er sich beim Zoll meldet. Die Terroranschläge haben eine heftige Debatte über die Sicherheit der Grenze ausgelöst. Als längste unverteidigte Grenze der Welt feiern beide Staaten die Linie, die sich vom Pazifik im Westen bis zum Atlantik im Osten erstreckt durch'die Rocky Mountains, die Prärie, die Großen Seen, den Sankt-Lorenz-Strom und die Wälder und Berge Ostkanadas. Während an der mexikanischen Grenze mehr als 9000 US-Beamte patrouillieren, sind es im Norden weniger als 500. Die US-Regierung blickt bereits seit einigen Jahren sorgenvoll auf die Grenze. Als im Dezember 1999 im US-Staat Washington der aus Algerien stammende Ahmed Ressam festgenommen wurde, der mit einem gefälschten kanadischen. Pass in die USA einreisen wollte, wurde das Problem offenbar. Im Wagen Ressams wurde Sprengstoffentdeckt, mit dem zum Millenniums-Jahreswechsel ein Anschlag in Los Angeles verübt werden sollte. Zudem stellte der kanadische . Geheimdienst CSIS in seinem Jahresbericht 2000 fest, dass Kanada von Terroristen als Basis für Anschläge genutzt werden könnte. In Ottawa schrillten die Alarmglocken, als US-Innenminister John Ashcroft jüngst sagte, die 'US-kanadische Grenze könne von Terroristen als "Transitpunkt" genutzt werden. Die USA machen Druck, damit Kanada seine Flüchtlings- und Einwanderungspolitik ändert. Aus Washingtoner Sicht sind beim Nachbarn die Einreisekontrollen zu lag. Die USA rügen mehr oder weniger offen, dass Kanada Immigranten die freie Bewegung im Land ermöglicht, noch bevor endgültig ihr Status geklärt wird. US-Botschafter Paul Cellucci macht deutlich,'' Was der Bush-Regierung vorschwebt: eine gemeinsame Außengrenze der USA und Kanadas, die durch eine vereinheitlichte Einwanderungs- und Flüchtlingspolitik hergestellt werden soll. "Die Alternative dazu wäre, dass wir die Grenzkontrollen verstärken müssen." ...
    Footnote
    Nach den Anschlägen auf New York und Washington wurde die Alarmbereitschaft erhöht. An den Übergängen stauten sich die Fahrzeuge kilometerlang. Das hat auch wirtschaftliche Folgen: Über die Grenze werden täglich Waren im Wert von rund 1,4 Milliarden US-Dollar gehandelt. Kanadas Export geht zu 85 Prozent in die USA, während die USA ein Viertel ihrer Güter nach Kanada verkaufen. 40 Prozent des Handels werden allein an der Grenze zwischen Ontario und Michigan abgewickelt: Vor allem die Autoindustrie in Detroit hängt von den Zulieferbetrieben in Ontario ab. Dort haben die drei großen Unternehmen General Motors, Daimler Chrysler und Ford Werke. Die Handelskammer von Detroit stellte bei einer Umfrage bereits "bedeutende Auswirkungen" der Kontrollen fest: Fracht, Arbeitskräfte, und Produkte werden aufgehalten. Mehr Kontrolle an den Übergängen ist das eine, die Überwachung der Grenze auf dem Land, in Wäldern und an Flüssen ein anderes. "Menschen, die die Grenze unbedingt passieren wollen, ohne kontrolliert zu werden, machen dies in den Wäldern", sagen die Leute in, den Grenzgemeinden von Quebec und Vermont. Ein Farmer fährt mit seinem riesigen blauen Mähdrescher über die Wiese. "Dort ist die Grenze", sagt er und deutet auf einen etwa fünf Meter breiten Streifen Land, auf dem Hecken und Unkraut wuchern. Ein etwa zwei Meter hoher Betonpfosten, halb versteckt im Dickicht, zeigt den genauen Verlauf an. Überwacht wird hier durch Sensoren. "Wenn jemand drübergeht, wird in der Station Alarm ausgelöst. Irgendwo wird dich die Patrouille dann stellen", erklärt der Farmer. Der Kneipier in Stanstead ist von diesem System nicht so ganz überzeugt. "Viele wissen, wo die Sensoren sind. Es gibt Leute, die schmuggeln. Die wissen Bescheid." In Beebe ist die Grenze Alltag für die Menschen. Beebe ist. ein Gemeindeteil von Stanstead und liegt in Quebec, geht aber nahtlos in Beebe Plain in Vermont, über. "Canusa Avenue heißt die Straße, die zu den Kontrollpunkten führt. Der Name sagt alles: Die Straße gehört zu Kanada und den USA Das Besondere ist, dass die Grenze genau auf der Fahrbahnmarkierung in der Mitte verläuft. Am Ende der Straße geht eh rechts nach Quebec und links nach Vermont. Kameras überwachen die Straße. Wurden vor dem 11. September Autos einfach durchgewunken, so müssen jetzt alle anhalten, Türen und Kofferraum öffnen und sich ausweisen, auch wenn die Beamten sie kennen. Tat früher ein Beamter Dienst, so sind es jetzt mehrere, ausgerüstet mit kugelsicheren Westen. "lch habe nichts dagegen, dass jetzt schärfer hingeschaut wird. Vielleicht hätte man das schon früher machen sollen", sagt ein kanadischer Anwohner. Und wie ist es mit dem Besuch beim Nachbarn? "Naja, eigentlich sollten wir zum Zoll gehen und uns anmelden. Aber sollen wir für einen kurzen Small Talk hundert Meter die Straße runterlaufen und auf der anderen Seite wieder zurückgehen?" Die Antwort geben die Menschen hier nicht, aber jeder weiß, wie sie ausfallen würde."
  16. Mulsow, M.: Jede, Autor seine Maske : Die Bibliothek als Theater: Vincentius Placcius erfindet 1708 das Karteikastensystem (2002) 0.08
    0.08251472 = product of:
      0.16502944 = sum of:
        0.120403215 = weight(_text_:jüngst in 1523) [ClassicSimilarity], result of:
          0.120403215 = score(doc=1523,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.22500688 = fieldWeight in 1523, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1523)
        0.044626225 = weight(_text_:und in 1523) [ClassicSimilarity], result of:
          0.044626225 = score(doc=1523,freq=50.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.30630693 = fieldWeight in 1523, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1523)
      0.5 = coord(2/4)
    
    Content
    ""Larvatus prodeo": Mit diesen Worten erklärt Descartes 1619 gegenüber Beeckmann, er wolle seinen Untersuchungen nur versteckt und hinter einer Maske nachgehen. Simulation und Dissimulation waren in dieser Zeit fast unabdingbare Tugenden für denjenigen, der innovativ und jenseits der gängigen Pfade forschen und veröffentlichen wollte. Um so mehr, wurde es allerdings im Verlauf des siebzehnten Jahrhunderts zu einer Dringlichkeit für die "Historia litteraria", für die Orientierung in den Wissensbeständen also, den Autoren ihre Larven abzunehmen: zumindest post festum, nach dem Abflauen der jeweiligen stürmischen Kontroversen, die ihre Schriften ausgelöst hatten. Man empfand die Masse der nicht zuschreibbaren Titel als ein "Chaos", einen "Orcus", der zu bändigen sei. Diesem Bedarf kam schließlich 1708 der Hamburger Vincentius Placcius nach, mit dem ersten umfassenden Lexikon in dieser Sache, dem monumentalen "Theatrum anonymorum et pseudonymorum". Placcius ist auch der erste gewesen, der die Technik des Karteikastenschrankes publik gemacht hat; er kannte sich also aus mit der Bändigung von Wissen. Helmut Zedelmaier hat jüngst an Placcius erinnert, der als Schüler des Naturwissenschaftlers Joachim Jungius eine "Ars Excerpendi" geschrieben und darin die Entwürfe seines Lehrers veröffentlicht hat (Helmut Zedelmaier, "De ratione excerpendi: Daniel Georg Morhof und das Exzerpieren", in Francoise Waquet, Hrsg., Mapping the World of Learning: The "Polyhistor" of Daniel Georg Morhof, Wiesbaden 2000). Nach Zedelmaier war das Besondere an der von Jungius und Placcius verwendeten Methode, daß sie provisorisch war. Nicht mehr in Bücher mit festgefügten thematischen "Loci" schrieb man jetzt, sondern auf Zettel, die mit einer Halteklammer an metallene Registerkarten geheftet wurden. So konnten die Zettel nach Belieben umsortiert werden, wenn sich neue Bezüge für sie ergaben. Ein solches provisorisches Ordnen mag auch beim Aufspüren von larvierten Autoren geholfen haben. Der gelehrte Detektiv, der sich an ihre Fersen heftete, hatte immer neue Indizien zu kombinieren, bis sich das Rätsel um die Identität des Verfassers lüftete. Was heute die Recherche im Internet leistet, war damals noch Handarbeit. Anonymen- und Pseudonymenkataloge anzulegen ist im späten siebzehnten und frühen achtzehnten Jahrhundert fast zum Modephänomen unter wohlhabenden Gelehrtenavanciert. Wohlhabend: weil zu dieser Tätigkeit eine große Privatbibliothek gehörte, die sich nur mit beträchtlichen finanziellen Mitteln aufbauen ließ, zumal wenn sie seltene Texte oder gar Manuskripte enthalten sollte. Placcius' Buch ist ein Titelkupfer vorangestellt, auf dem ein Gelehrter in seiner detektivischen Tätigkeit mehreren Autoren die Masken vom Gesicht nimmt, so daß ihr wahres Antlitz sichtbar wird. Über der Szenerie hängen bereits eine ganze Reihe von Masken, die von erbrachten Sherlock-Holmes-Leistungen zeugen. Das "Theater", in dem sich diese Demaskierung vollzieht, ist natürlich die Gelehrtenbibliothek, und zwar eine Bibliothek hinter jener Bühne, auf der die larvierten Autoren aufgetreten sind. Im Hintergrund sind ein Merkur und eine Minerva sichtbar, Zeichen der Verbindung von Rhetorik und Vernunft in den Artes, und im tiefsten Hintergrund scheint die ephesinische Artemis auf, die Göttin der Natur, als letzter Referenzpunkt aller Künste. "Jedem das Seine" (suum cuique) steht als Motto über der Darstellung.
    Damit ist offenbar gemeint, daß jeder Autor sein wahres Gesicht zurückerhält, daß nicht mehr die fremde, sondern die eigene Autorität und Person gefragt ist. Präziser ist auf Cicero angespielt, der in "De officiis" von den Rollen spricht, die zu verkörpern uns die Natur aufgegeben habe, und die Regel ausgibt: Bleibe bei dem, was dir eigentümlich ist, nimm nicht andere Charaktere an, sondern sei unverstellt du selbst. Bei dem "suum cuique" ist deshalb "persona" zu ergänzen, so wie auf einer florentinischen Tafel aus dem sechzehnten Jahrhundert: "sua cuique persona". Placcius' Lexikon schafft demnach die von den Autoren künstlich hergestellte Differenz zu sich selbst aus der Welt und bringt Autor und Person wieder zur Deckung. Damit ist freilich ein gesellschaftliches, ja wissenssoziologisches Problem - das der Dissimulation - auf eine einfache moralische Devise zur Authentizität reduziert. Man ist deshalb versucht - um der Reduktion entgegenzusteuern -, das Bild und das Motto andersherum zu lesen, sicherlich gegen die intendierte Verlaufsrichtung des Stechers. Der Gelehrte im Vordergrund erscheint dann als jemand, der Masken verteilt, "personae" vergibt, und zwar "jedem die seine". Diese Blickrichtung wäre diejenige der Autoren selbst, die in der Absicht, sich zu larvieren, eine Wahl treffen müssen, welche "persona" sie annehmen Wollen, durch welche Maske sie zu sprechen gedenken. Der "Ineptus religiosus", ein anonymer Text aus der Mitte des siebzehnten Jahrhunderts, empfiehlt denn auch ganz ohne Scham: "Halte besonders diejenigen für auserlesene Bücher, welche ohne Namen des Verfassers herauskommen und auch keinen Ort des Drucks angeben." Die Leine voll Masken, die über der Bibliothek gespannt ist, bezeichnet dann die pluralisierte Situation der frühen Neuzeit mit ihrer Vielfalt von wählbaren Traditionen, und der Gelehrte ist nun ein - freilich subversiver - Requisiteur, der aus seiner Kenntnis der Wissens- und Traditionsvorräte heraus den Autoren bei der Suche nach der passenden Rolle hilft. Der dissimulierende Autor ist dabei notwendig ein Eklektiker geworden, denn bei einer Pluralisierung von Autoritäten hilft nur die connaisseurhafte Auswahl, wenn man auf der Bühne der Öffentlichkeit, die im Hintergrund sichtbar wird" Erfolg haben will. Es ist dieser Blick aus der Autorenrichtung, aus der Richtung der "invention of traditions", den die Besinnung auf die Vervielfältigung der Pseudonyme in der frühen Neuzeit und die Versuche, ihnen mit Zettelkästen beizukommen, lehrten. Denn jenseits des Polizeiblicks auf die Karteien von Verdächtigen, von Schwindlern und Betrügern gab es tatsächlich in der Frühaufklärung eine literargeschichtliche Beschäftigung mit anonymen Werken. In gleichsam subversiver Verwendung der Gelehrsamkeit ä la Placcius stellte man sich eine "Bibliotheca Vulcani" zusammen, nämlich Notizen über verbotene und verbrannte Bücher. Es waren Schriften, die "dem Vulcan geopfert" worden waren, die gleich Märtyrern den Feuertod erlitten hatten. Diese Zettelsammlung konnte dann als Archiv für neue radikale "Schandtaten" dienen. Sie stiftete zur Intertextualität an: Werke des philosophischen Untergrundes um 1700 tragen oft fiktive Verfasser- oder Druckernamen, die den Text in die Tradition etwa von Spinoza, der politischen Widerstandsliteratur oder dem Renaissancenaturalismus stellen. Je nach Wahl der Maske, die man auf der langen Leine des Zettelkastens zur Ansicht hatte."
  17. Berg-Schorn, E.: MeSH 2006: Deutsche Version lieferbar (2006) 0.08
    0.082280114 = product of:
      0.16456023 = sum of:
        0.04372459 = weight(_text_:und in 959) [ClassicSimilarity], result of:
          0.04372459 = score(doc=959,freq=12.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.30011827 = fieldWeight in 959, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
        0.12083563 = weight(_text_:headings in 959) [ClassicSimilarity], result of:
          0.12083563 = score(doc=959,freq=4.0), product of:
            0.3187486 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06568883 = queryNorm
            0.37909386 = fieldWeight in 959, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=959)
      0.5 = coord(2/4)
    
    Abstract
    Beim DIMDI erhalten Sie ab sofort die aktuelle deutsche Übersetzung des Thesaurus Medical Subject Headings (MeSH) 2006 der National Library of Medicine (NLM). Auf Anfrage liefern wir die neue Version 11.0 (Stand 2006) als kostenpflichtige XML-Datei auf CD-ROM. Gegenüber 2005 enthält derThesaurus 933 neue Deskriptoren. Andere wurden nach der aktuellen Terminologie umbenannt, obsolete Benennungen entfielen ganz. Da jede Deskriptorklasse in Konzepte und Unterkonzepte mit zugehörigen Begriffen unterteilt ist, beträgt die tatsächliche Zahl neuer Bezeichnungen etwa das Fünffache. Der laufend weiterentwickelte Thesaurus umfasst jetzt 23.880 Hauptschlagwörter (Main Headings). Zum Vergleich: vor zehn Jahren gab die NLM erst 18.436 Deskriptoren an. Zuwachs verzeichnet vor allem die Kategorie Chemische Substanzen, Drogen und Arzneimittel mit 684 neuen Schlagwörtern. Zahlreiche neue Begriffe enthalten auch die Kategorien Organismen, Krankheiten, Biowissenschaften, Anatomie sowie Analytische, diagnostische und therapeutische Verfahren und Geräte. Neue Deskriptoren sind beispielsweise Kalziumaktivierte Kaliumkanäle mit großer Leitfähigkeit, Tritonia-Meeresschnecke, Mesangiumzellen oder Bariatrische Chirurgie. Das DIMDI übersetzt den MeSH in enger Anlehnung an die amerikanische Vorlage und ist offizieller Herausgeber der deutschen Version (inkl. Urheberrechte). Der Thesaurus ist Bestandteil des UMLS (Unified Medical Language System) der NLM. Übersetzungen liegen auch in Finnisch, Französisch, Italienisch, Portugiesisch, Russisch und Spanisch vor.
  18. Lischka, K.: Falsche Fährten (2002) 0.08
    0.081133164 = product of:
      0.16226633 = sum of:
        0.120403215 = weight(_text_:jüngst in 1863) [ClassicSimilarity], result of:
          0.120403215 = score(doc=1863,freq=2.0), product of:
            0.53510904 = queryWeight, product of:
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.06568883 = queryNorm
            0.22500688 = fieldWeight in 1863, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.146119 = idf(docFreq=34, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1863)
        0.04186311 = weight(_text_:und in 1863) [ClassicSimilarity], result of:
          0.04186311 = score(doc=1863,freq=44.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.2873414 = fieldWeight in 1863, product of:
              6.6332498 = tf(freq=44.0), with freq of:
                44.0 = termFreq=44.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1863)
      0.5 = coord(2/4)
    
    Abstract
    So wollte der CDU-Ortsverband Fuldatal wohl kaum bekannt werden: Die Nordhessen gerieten in die Schlagzeilen, weil sie mit falschen und fragwürdigen Schlüsselwör-tern Nutzer von Suchmaschinen auf ihre Webseiten locken wollten. Solche erschlichenen Einträge bei Google und Co. sind nur ein Grund, warum die Ergebnislisten selten objektiv ausfallen. Manche Einträge sind auch schlicht gekauft -und andere fehlen, weil sie gefiltert wurden.
    Content
    "Algorithmen wie bei der Suchmaschine und redaktionell ausgewählte Kataloge wie Yahoo vermitteln den Eindruck von Allwissenheit und Neutralität. Doch der täuscht. Manche Anbieter lassen sich für attraktive Platzierungen in den Ergebnislisten bezahlen. Beispielsweise die deutschsprachige Suchmaschine Acoon. Ganz gleich, ob Surfer eine "Marion Müller" oder einen "Karl' Kaninchen" finden wollen: Als viertes Ergebnis taucht immer ein Internet-Reiseservice sui; mit einer angeblichen Relevanz von 87 Prozent. So krass werden Nutzer nur selten getäuscht. Doch auch die Resultate einer Recherche beim deutschsprachigen Angebot des Microsoft Network (MSN) machen stutzig: Wer "Buch" oder "Auto" eintippt, wird als Erstes auf so genannte ausgewählte Websites verwiesen. Und das sind gewiss nicht die wichtigsten. Denn die Ergebnisse ähneln sich erstaunlich: "Bücher bei MSN Shopping" oder "MSN-Carview". Das verdeutlicht: Abgesehen davon, dass Suchmaschinen höchstens ein Viertel der Webdokumente kennen, muss die Auswahl der Algorithmen oder Redakteure keineswegs objektiv oder den Nutzerfinteressen angepasst sein. Der Inhalt hängt vielmehr von einem komplexen Interessengetlecht ab. Beteiligt dabei: die Verantwortlichen für Internetangebote, die Betreiber der Suchmaschinen, der regulierende Staat und die Surfer. Manche Formen ihres Zusammenwirkens sind heikel. Zunächst kann das Gewinnstreben der Suchmaschinenbetreiber und das Interesse der Inhaltsanbieter an Seitenaufrufen die Suchresultate verzerren. Den schmalen Grat beschrieb Ganon Giguiere, Marketingchef bei Altavista, einmal so: "Man muss die feine Balance zwischen einem optimalen Produkt und einem Produkt, das Umsätze bringt, finden." Dass die Suchmaschfinenanbfieter die Herkunft gekaufter Ergebnisse nicht immer ttansparent machen, zeigt ein Brief der, US-amerikanischen Federal Trade Commission an einige Betreiber. Die Behörde mahnt, bezahlte Ergebnisse deutlicher zu kennzeichnen und den Nutzern das Zustandekommen zu erklären. In Deutschland kündigte die Wettbewerbszentrale an" gegen unzureichend kennzeichnende Suchmaschinenbetreiber wegen sittenwidrigen Verhaltens im Wettbewerb vorzugehen. Verwirrende Begriffe verwenden gar seriöse Anbieter Unter "Empfohlene Links" und "Weitere Listings zeigt Altavista Wer-, bung, Web.de nutzt den Begriff "Partnerlinks". Pikant: Einträge in das redaktionelle Verzeichnis von Web.de sind nur ,noch gegen Geld möglich. Wenigstens 27,84 Euro verlangen die Karlsruher jährlich. Ob langfristig die Chancengleichheit etwa zwischen finanzstarken Unternehmen und eher minderbemittelten Nicht-Regierungs-Organisationen gewahrt bleibt? Web.de-Sprecherin Eva Vennemann sieht kein Problem: "Wir konnten seit der Umstellung keine Unterschiede bezüglich der Struktur und Themenvielfalt feststellen. Auch Institutionen und Privatpersonen melden weiter ihre Seiten bei uns an." Bisher verlangen nur wenige Kataloge zwingend Anmeldegebühren. Meist werden gegen Bezahlung die Seiten schneller aufgenommen, sonst kann es schon einmal sechs Monate dauern. Die Zwei-Klas-sen-Aufmerksamkeitsgesellschaft erklärt den Erfolg von Projekten wie dem Open Directory Dmoz.org: Dort begutachten Freiwillige Seiten für einen redaktionellen Katalog, den andere Anbieter in Teilen oder komplett übernehmen - so such das Google-Verzeichnis. Alleine der deutschsprachige Teil zählt etwa 200 000 Einträge.
    Nicht nur Betreiber der Suchseiten streben nach Gewinnen und nehmen zumindest missverständliche Ergebnisse in Kauf Auch Programmierer von Webseiten schummeln zu ihren eigenen Gunsten, etwa indem sie beim Anmelden ihrer Angebote falsche Katalogrubriken nennen - oder Suchmaschinen mit falschen Begriffen füttem. Genau das versuchte die CDU Fuldatal. In den für Surfer unsichtbaren HtmlMetatags trug sie gefragte Begriffe wie "Sex" ein, aber auch Termini wie "Führer" und Deportation". Die Schlagwörter wurden zwischenzeitlich gelöscht. Die Tricks mancher Webmaster gehen inzwischen darüber hinaus. So gibt das Magazin Internet Professionell Tipps wie diesen: "Man manipuliert die Suchmaschinen. mit Tricks wie begriffsoptimierten Cloaking-Pages und Domain-Namen oder speziellen Einträgen zur Steigerung der Link-Fbpularity." Das bedeutet: Seiten, die auf das Bewertungsschema bestimmter Suchmaschinen ausgerichtet sind, werden dem eigentlichen Angebot vorgeschaltet. Die Surfer bemerken davon wegen automatischer Weiterleitungen kaum etwas. So erhöht man die Zahl der auf das eigene Angebot verweisenden Seiten - ein wichtiges Gütekriterium beispielsweise fir den Algorithmus von Google. Wegen solcher Praktiken sah sich der Deutsche Multimedia Verband jüngst gezwungen, eine Empfehlung für korrektes Suchmaschinenmarketing abzugeben. Besonders kritisch werden solche Methoden, wenn sie von Pornographie-Anbietern eingesetzt werden. Wer etwa statt "Anna Kournikova den leicht falsch geschriebenen Namen "Anna Kournikoba" bei Google eintippt, bekommt dank der besonderen Form "der Suchmaschinenoptimierung nackte Haut vorgeschlagen. Friedemann Schiadler, Leiter von Jugendschutz.net, der Zentralstelle der Länder für Jugendschutz im Internet, sieht Handlungsbedarf: "Es ist ein Problem, wenn Kinder und Jugendliche bei einer Suche auf Seiten stoßen, nach denen sie nicht gesucht haben." Hier kommt - zumindest in - Deutschland - die dritte Partei bei der Veränderung von Ergebnislisten ins Spiel: der Staat. Jugendschutz.net hat in den vergangenen Wochen Aufsehen mit einer Initiative erregt, nach der Suchmaschinen ihre Listen jugendgefährdender und illegaler Adressen austauschen sollten Kritiker sehen eine staatliche Vorzensur. Doch soweit kommt es wohl nicht. Schiadler räumt ein, Jugendschutz.net hat keine hoheitlichen Rechte, um Suchmaschinen zu Austausch und Nutzung der Liste zu verpflichten. Bedenklich ist der Vorschlag dennoch. Das Gesetz nennt eindeutig, was auch für Erwachsene unzulässig ist: Tier- und Kinderpornografie, Volksverhetzung und Verletzungen der Menschenwürde. Die Suchmaschinenbetreiber aber bestimmen unzulässige Inhalte auf Grund eigener Kriterien, die teils über das Gesetz hinausgehen. Wie Friedemann Schiadler sagt: "Für viele Betreiber von Suchdiensten verstoßen Darstellungen von Kindern in sexuell aufreizenden Posen gegen die eigene Policy, obwohl sie gesetzlich zulässig sind." Solche Sperren über eine gemeinsame Liste zu zentralisieren, sieht Wolfgang Schulz, Leiter des Hans-Bredow-Instituts für Medienforschung, nur eingeschränkt positiv: ".Strukturell ist der Ansatz zu begrüßen, da er die Suchmaschinenanbieter zur Selbstverantwortung anhält. Allerdings ist es im Hinblick auf die Kommunikationsfreiheit erwachsener Nutzer bedenklich, wenn bestimmte Inhalte sus dem Netz unmerklich verschwinden." Schiadler hingegen sagt, es gebe keinen Anspruch darauf, in einem Suchdienst gelistet zu sein: "Es bleibt den Betreibern vorbehalten, die Auswahl zu treffen." Bei allem Streit, wichtig ist: Die Nutzer sollten die Kriterien der Eingriffe kennen - ganz gleich ob sie der Werbung oder dem Jugendschutz dienen.
  19. Gödert, W.: Multilingualität und Lokalisierung zur Wissenserkundung : oder vom Nutzen semantischer Netze für das Information Retrieval (2007) 0.08
    0.07960299 = product of:
      0.15920597 = sum of:
        0.056673545 = weight(_text_:und in 1557) [ClassicSimilarity], result of:
          0.056673545 = score(doc=1557,freq=14.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.38899773 = fieldWeight in 1557, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
        0.10253243 = weight(_text_:headings in 1557) [ClassicSimilarity], result of:
          0.10253243 = score(doc=1557,freq=2.0), product of:
            0.3187486 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06568883 = queryNorm
            0.32167178 = fieldWeight in 1557, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.046875 = fieldNorm(doc=1557)
      0.5 = coord(2/4)
    
    Abstract
    Das CrissCross-Projekt verfolgt die Zielsetzung, ein erweitertes multilinguales und thesaurusbasiertes Registervokabular zur Dewey-Dezimalklassifikation (DDC Deutsch) zu erstellen, das als Recherchevokabulars zu heterogen erschlossenen Dokumenten verwendet werden kann und soll damit die Ausgangsbedingungen für die Gestaltung von OPAC-Retrievalumgebungen verbessern helfen. Im einzelnen soll jedes Sachschlagwort der Schlagwortnormdatei (SWD) eine DDC-Notation erhalten und es sollen die im Projekt MACS begonnen Arbeiten fortgesetzt werden, Links zwischen den Schlagwörtern der SWD, den Library of Congress Subject Headings (LCSH) und dem Répertoire d'autorité-matière encyclopédique et alphabétique unifé (Rameau) herzustellen. In diesem Beitrag wird der Vorschlag gemacht, die Zielsetzung des Projektes darin zu sehen, eine Kern-Ontologie mit universalen Relationen als Klassifikation zu benutzen und die beteiligten Normdateien als zugeordnete semantische Netze zu entwickeln, indem nicht-generische Relationen die Aufgabe der durch die Lokalisierung gestellten Anforderungen übernehmen. Generische Relationen im bekannten Thesaurussinn sind für derartige semantische Netze nicht mehr erforderlich, da sie sich aus den generischen Beziehungen der Kern-Ontologie vererben.
    Series
    Schriften der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB); Bd. 2
  20. Gaus, W.; Leiner, F.: Dokumentations- und Ordnungslehre : Theorie und Praxis des Information Retrieval (2003) 0.08
    0.079521574 = product of:
      0.15904315 = sum of:
        0.07359946 = weight(_text_:und in 5524) [ClassicSimilarity], result of:
          0.07359946 = score(doc=5524,freq=34.0), product of:
            0.1456912 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06568883 = queryNorm
            0.50517434 = fieldWeight in 5524, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
        0.08544369 = weight(_text_:headings in 5524) [ClassicSimilarity], result of:
          0.08544369 = score(doc=5524,freq=2.0), product of:
            0.3187486 = queryWeight, product of:
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.06568883 = queryNorm
            0.26805982 = fieldWeight in 5524, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              4.8524013 = idf(docFreq=942, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5524)
      0.5 = coord(2/4)
    
    Abstract
    Diese Einführung in die Grundlagen der Dokumentation und des Information Retrieval, d.h. des Wiederauffindens von Information zu thematisch-inhaltlichen Fragen, entstand auf der Basis langjähriger Lehrerfahrung. Die sowohl theoretisch fundierte als auch praxisorientierte Darstellung der Daten-, Literatur- und Faktendokumentation enthält neben zahlreichen Übungen einen Beispiel-Thesaurus, die Besprechung realer Ordnungs- und Retrievalsysteme sowie ca. 200 Prüfungsfragen mit Antworten. Das Buch ist von zentraler Bedeutung für die Ausbildung von Dokumentaren, Bibliothekaren und Archivaren. Das Thema gewinnt aber auch an Bedeutung für Wissenschaftler aller Fachrichtungen. Das Buch ist in seiner systematischen Darstellung und didaktischen Aufbereitung einzigartig. Durch sein ausführliches Sachwortregister eignet es sich auch als Nachschlagewerk. In der vorliegenden vierten Auflage werden insbesondere Entwicklungen im Bereich des Internets und der Informationssysteme berücksichtigt.
    Content
    Zweck und Grundzüge der Dokumentation.- Begriff und Wesen der Information.- Dateien und Informationsspeicher.Referate.- Ordnungsprinzip Klassifikation.- Hierarchische Begriffsstrukturen.- Alphabetisches Sortieren und systematisches Anordnen.- Die Klassfikationen ICD-10 und ICPM.- Ordnungsprinzip Register.- Beispiel einer Dokumentation mit Registern.- Ordnungsprinzip Fassettenklassifikation.- Ordnungsprinzip Begriffskombination.- Struktur eines Ordnungssystems.Beispielthesaurus Gebäude.- Ordnungssystem Medical Subject Headings (MeSH).- Verbindungs-, Funktions-, Zeit- und Sprachdeskriptoren.- Dokumenten-Deskriptoren-Matrix.Relevanz- und Vollzähligkeitsrate.- Recherchieren und Suchstrategien.- Dokumentations- und Retrievalsysteme.Aktive Informationsdienste.- Revision eines Ordnungssystems.

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1865
  • el 889
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications