Search (11774 results, page 581 of 589)

  • × language_ss:"d"
  1. Schmitz, H.: Lücken im Netz : Die New York Times sperrt einen Text für Surfer in Großbritannien - der Anfang vom Ende des weltweiten Webs? (2006) 0.01
    0.005829417 = product of:
      0.023317669 = sum of:
        0.023317669 = weight(_text_:und in 987) [ClassicSimilarity], result of:
          0.023317669 = score(doc=987,freq=12.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.18007097 = fieldWeight in 987, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=987)
      0.25 = coord(1/4)
    
    Content
    "Der Text dürfte Surfer aus Großbritannien besonders interessiert haben: "Details zum britischen Terror-Fall bekannt geworden ; verkündete die New York Times in ihrer Online-Ausgabe. Doch ausgerechnet die Leser auf der Insel bekamen statt des Artikels den schlichten Hinweis auf den Bildschirm, der Beitrag sei "auf Ratschlag von Rechtsberatern" für britische Nutzer von nytimes.com nicht verfügbar. Fachleute beunruhigt der Fall. Sie sehen das Internet als weltweites Medium in Gefahr. Ein System aus der Werbung Die renommierte Zeitung begründete den Ausschluss ihrer britischen Leser damit, dass es in Großbritannien verboten sei, Informationen vor einem Prozess öffentlich zu machen, die vor Gericht als Beweise dienen können. Rein technisch ist die Sperre keine große Sache. Die New York Times verwendet eine Software, die vor allem dazu gedacht ist, Werbung gezielt zu verbreiten. Geotargeting nennt sich das System, das dafür sorgt, dass ein Internetbesucher aus Deutschland andere Reklame sieht als ein Leser der selben Seite aus Frankreich oder den Vereinigten Staaten. "Die New York Times kann seit einiger Zeit die Herkunft ihrer Nutzer bestimmen und für gezieltes Marketing nutzen`, sagt Richard Meislin, leitender Internet-Redakteur. Freilich: Sortierte Werbung ist eine Sache, das Vorenthalten journalistischer Inhalte eine andere. Hauptanbieter der Technik sind Unternehmen wie Quova, Net Geo, Digital Envoy oder Akamai. Die Genauigkeit ihrer Dienste liegt zwischen 96 und 99 Prozent. Die Software wertet die Adresse der Surfer nach dem Internet Protokoll aus, die mit jeder Seitenabfrage übertragen wird. Zwar kann dieser Absender nicht eindeutig einem Nutzer zugewiesen werden, wohl aber dem Besitzer. In der Regel sind das die Internetprovider wie AOL oder T-Online, Universitäten, Firmen oder andere größere Einrichtungen. Die wiederum teilen die Adressen regionalen Netzknoten zu, sodass auf die ungefähre Herkunft des Nutzers geschlossen werden kann. Surfer können die Technik austricksen, in dem sie Zwischenstationen einschalten: Ein Brite beauftragt etwa einen Rechner in den Vereinigten Staaten, eine Seite der New York Times aufzurufen. Für die Zeitung sieht es so aus, als lebe der Surfer im Inland. Doch dort arbeitet nur eine Software, die den Text nach Europa weiterreicht. Fachleute bezeichnen solche Zwischenstationen als Proxyserver. Auch Anonymisierungsdienste, jüngst in den Blick von Strafverfolgern geraten, arbeiten nach dem Prinzip.
    Der jüngste Fall der New York Times zeigt: Geotargeting ermöglicht Zensur. Das hat das Blatt selbst erkannt und wiegelt ab. "Jeder Fall muss einzeln geprüft werden", sagt George Freeman, Vizepräsident des Verlags. Großbritannien sei ein Land, das die Pressefreiheit achte, und sein Haus wolle die Rechte eines solchen Landes respektieren. Unklar ist, wessen Rechte die New York Times zukünftig achten will. Wie verhielte sich das US-Blatt, wenn manche Staaten, etwa die Volksrepublik China, verlangen würden, regierungskritische Artikel für die eigenen Landesleute zu sperren? Der große Aufschrei wegen Google Groß war der Aufschrei, als Google im Januar eine chinesische Version seiner Suchmaschine startete, in der bestimmte Inhalte zu Themen wie Tibet nicht in den Ergebnislisten auftauchen. Von einem "schwarzen Tag für die Meinungsfreiheit in China" sprach die Journalistenorganisation Reporter ohne Grenzen. Die New York Times bezeichnete Googles Verhalten als "nicht gerade idealistisch". Der Suchmaschinenbetreiber arbeitet nicht nur in China so. Rainer Glück vom Chaos Computer Club sagt, Google passe stets "die gezeigten Suchergebnisse per Geotargeting an verschiedene nationale Gesichtspunkte an - und unterdrückt im Extremfall auch Suchergebnisse, wenn sie unter die mit dem entsprechenden Staat vereinbarten Regularien fallen." Um ihr Vorgehen zu verteidigen, zitiert die New York Times den Internet-Rechtsexperten Jonathan Zittrain von der Universität Oxford "Es ist bekannt, dass die Technik Inhalte geografisch beschränken kann. Zwar nicht hundertprozentig, aber effektiv genug. Und es ist anzunehmen, dass internationale Gerichte gewillt sind, diesen technischen Fortschritt bei der Rechtssprechung zu berücksichtigen." Sollte; das eintreffen, müssten Internet-seiten-Betreiber künftig viele Fachleute für internationales Recht beschäftigen, die sämtliche Inhalte darauf prüfen, ob sie in irgendeinem Land dieser Erde mit dem dortigen Recht in Konflikt stehen. So könnten Anbieter vielleicht auf die Idee kommen, ihre Seiten nur für die Länder zugänglich zu machen, mit deren Recht' sie sich auskennen. Es würden nationale Grenzen errichtet. Das Web wäre dann nicht mehr World Wide."
  2. Löw, W.: ¬Der Weg zum Wissen : Eine Betrachtung aus biowissenschaftlich-neurobiologischer Sicht (2001) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 6596) [ClassicSimilarity], result of:
          0.022437438 = score(doc=6596,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 6596, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6596)
      0.25 = coord(1/4)
    
    Abstract
    Der Verfasser versucht nach einem Literaturüberblick eigene Daten in den Kontext zu stellen. Man darf sicher behaupten, dass Wissen die Basis des heutigen menschlichen Lebens ist. Die Spur des Wissens zu verfolgen scheint nicht ganz einfach, weil es bereits (Vor-)Wissen bedarf, um Wissen zu erlangen. Dazu muss man Fragen stellen - oder anders gesagt: es muss schon viel Information angehäuft, strukturiert worden sein. Daher berührt die erste These die Schwierigkeiten von Menschen, die weit vor den "Forschungsfronten" arbeiten, wer "Wissen schafft, muss besondere Fähigkeiten zum Fragen stellen entwickeln, aber insbesondere auch zum Wahrnehmen. Es gibt Schwellenwerte der Wahrnehmung' neuer wissenschaftlicher Erkenntnisse. Die zweite These: Eine wichtige Rolle zur Überwindung dieser Schwellenwerte spielt jene Kommunikationsform, die am ältesten ist, das Gespräch. Denn die heute zu durchschreitenden Informationswüsten sind am besten mit dem persönlichen Rat zu überwinden. Die vorliegenden Daten aus Befragungen mit rund hundert Wissenschaftlern stützen dies. Nach wie vor - trotz moderner Medien wie Internet, CD-ROM und allen möglichen Datenbanken - wird das Gespräch gesucht. Der Autor sieht das Gespräch (informeller Informationskanal) zum einen - verhaltensbiologisch - als eine Urform menschlicher Kommunikation, d. h. uns ist "angeborenermaßen" eine Präferenz mitgegeben. Zum anderen ist die persönliche Kommunikation ein Wichtungsmaßstab für das" Wahr-nehmen'' im Uberangebot von Printinformationen (formeller Informationskanal), denn nach wie vor ist die Zeitschrift wichtigste Quelle für den Wissenschaftler
    Source
    nfd Information - Wissenschaft und Praxis. 52(2001) H.1, S.5-14
  3. fwt: Bewegtes Muster löscht den Hintergrund : Hirnforschung (2001) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 379) [ClassicSimilarity], result of:
          0.022437438 = score(doc=379,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 379, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=379)
      0.25 = coord(1/4)
    
    Content
    "Das Hirn kann Teile des Sehfeldes gezielt ausblenden, um mit der großen Menge der über die Augen aufgenommenen Sinnesreize fertig zu werden. Das berichtetenjetzt Yoram Bonneh vom Smith-Kettlewell Augenforschungsinstitut in San Francisco (USA) und seine Kollegen vom israehscheu Weizmann Institut in der britischen Fachzeitschrift Nature (Bd. 411, Nr. 6839). Die Forscher präsentierten ihren Versuchspersonen ein rotierendes Muster blauer Flecken vor einem Muster feststehender gelber Punkte. Dabei berichteten die Probanden, dass die gelben Punkte immer wieder für mehrere Sekunden zu verschwinden schienen. Dieses Verschwinden von Objekten in ganzen Teilen des Gesichtsfeldes entspricht nicht dem Effekt, der zu erwarten wäre, wenn die optischen Reize sich bereits in der Netzhaut beeinflussten, erklären die Wissenschaftler. Vielmehr deute es darauf hin, dass das Gehirn ganze unwichtige" Bereiche ausblende, um mit der großen Menge der auf es einströmenden Sinneseindrücke fertig zu werden. Dabei übernehme der intensivere Reiz die gesamte Aufmerksamkeit und blende in einem Teil des Gesichtsfeldes den ruhig stehenden Rest aus. Diese bewegungsinduzierte Blindheit" könnte im täglichen Leben viel verbreiteter sein als bisher geglaubt, meinen die Forscher. Beispielsweise bei Fahrten auf Autobahnen, wo die Landschaft sich rasch bewege, aber der vorausfahrende Wagen sich in relativer Ruhe befinde. Sie könnte zudem Hinweise geben auf bestimmte Krankheitsformen, bei denen die Patienten nicht mehr in der Lage sind, sich auf mehr als ein Objekt zu konzentrieren"
  4. Himmelsbach, G.: Suchmaschinen : Rechtliche Grauzone (2002) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 1569) [ClassicSimilarity], result of:
          0.022437438 = score(doc=1569,freq=16.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 1569, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1569)
      0.25 = coord(1/4)
    
    Abstract
    Viele Internet-Nutzer übersehen, Dass Suchmaschinen häufig kein objektives Ranking und damit keine objektiven Informationen anbieten. Die Betreiber meinen, dass sie rechtlich unangreifbar sind. PC Professionell klärt über die aktuelle Rechtslage beim Suchen im Web auf
    Content
    "Sucht ein Surfer unter den Stichworten "Computerzubehör Hannover" in Suchmaschinen nach Treffern, bietet sich alles andere als ein einheitliches Bild: Die verschiedenen Suchmaschinen wie Fireball, Google und andere bieten völlig unterschiedliche Rankings. Ein Grund sind sicher die unterschiedlichen Ranking-Methoden. Eigenartig wird es allerdings dann, wenn die Top-Platzierung ein Angebot belegt, das eigentlich relativ unbedeutend ist. Erscheint etwa bei der Eingabe der Suchbegriffe "Computerzubehör Hannover" ein Computer-Versand, der keine Filialgeschäfte unterhält - auch nicht in Hannover - liegt die Vermutung nahe: Beim Ranking wurde vom Anbieter getrickst. Zunehmend gehen auchmaschinen-Anbieter dazu über, ihren für den Nutzer kostenlosen Service durch Werbung zu finanzieren. Das ist durchaus legitim. Alles andere als legitim ist es jedoch, den Nutzer nicht darüber zu informieren, dass sich das auf Platz eins gelandete Unternehmen in die Liste eingekauft hat - und nicht deshalb den ersten Platz belegt, weil es der Anfrage des Nutzers am ehesten entspricht. Der Verkauf von Ranking-Plätzen ist nichts anderes als Werbung. Und Werbung muss - das ergibt sich aus dem Gesetz gegen unlauteren Wettbewerb (UWG) - als solche kenntlich gemacht werden. Betreiber von Suchmaschinen, die Ranking-Plätze verkaufen, verzichten durchweg auf einen entsprechenden Hinweis. Dieser müsste so deutlich angebracht sein, dass er für jeden Nutzer erkennbar ist. Ein versteckter Zusatz - beispielsweise nur in den allgemeinen Geschäftsbedingungen - reicht hierfür nicht aus. Entweder müsste der Listenplatz Nummer 1 ausdrücklich mit dem Wort "Werbung" überschrieben werden. Oder Platz eins wird optisch hervorgehoben und vor das Suchergebnis gesetzt. Ergibt sich aus der optischen Gestaltung zweifelsfrei, dass der Platz erkauft ist, kann der Hinweis "Werbung" entfallen. Versteckte Werbung ist jedoch nicht das einzige Suchmaschinen-Ärgernis. Das ewige Gedächtnis von Suchmaschinen ist ein weiteres Problem. Für den Nutzer ist es zwar hilfreich, über Suchmaschinen bereits aus dem Netz entfernte Inhalte ausfindig zu machen. So bietet etwa Google (www.google.de) eine Archivfunktion an. Wer bereits gelöschte Inhalte sucht, wird häufig noch "Im Archiv" fündig. So sind aber auch längst veraltete oder sonst im Internet nicht mehr gewünschte Informationen nach wie vor abrufbar. Der Archiv-Service ist deshalb rechtlich keineswegs unproblematisch: Die im Archiv des Suchmaschinenbetreibers gelagerten In formationen sind auf einem Server der Suchmaschine abgespeichert. Auf der UrsprungsWebsite befinden sich die Informationen nicht mehr. Der Suchmaschinen-Anbieter verschafft damit nicht nur einen Zugang zu fremden Informationen. Er wird auch als Host-Provider tätig, indem er DrittInformationen auf eigenen Servern abspeichert. Das ist zum Beispiel dann problematisch, wenn es sich um urheberrechtlich geschützte Inhalte handelt - längere Texte, Fotoaufnahmen oder Karikaturen. Selbst wenn das Material urheberrechtlich nicht geschützt ist, kann die dauerhafte Archivierung eine Rechtsverletzung des Website-Betreibers darstellen.
    Denn wer Inhalte aus dem Netz nimmt, gibt damit zu erkennen, dass er diese Inhalte eben nicht mehr über das Netz verbreitet haben möchte. Die Aufnahme von Inhalten auf die eigene Website bedeutet keinesfalls, dass diese Inhalte von jedem in andere Internet-Angebote integriert werden können. Die Archive von Suchmaschinen nutzen jedoch diese Informationen weiterhin, indem sie sie verfügbar halten. Es kann deshalb jeder, der bereits von ihm entfernte Inhalte in Suchmaschinen-Archiven entdeckt, diese Daten sperren lassen. Suchmaschinen ermöglichen nicht nur den Zugriff auf bereits gelöschte Inhalte. Aufgelistet werden auch Webseiten, die nach dem Willen der Betreiber gar nicht aufgelistet werden sollen. So sind zahlreiche Seiten von sicheren Servern, die mit SSL arbeiten, über Suchmaschinen verfügbar. Unproblematisch ist das, solange nur Seiten angezeigt werden, auf die jeder Nutzer auch ohne Eingabe eines Kennworts Zugriff hat. Sobald jedoch HTTPS-Seiten angezeigt werden, die nur über ein Kennwort erreichbar sind, schießen die Suchmaschinen über das Ziel, nur erlaubte Seiten anzuzeigen, weit hinaus. Die Suchmaschinen werden so zu einem Sicherheitsrisiko für die Betreiber von Sites. Sie bieten gerade Personen einen Zugriff auf die Seiten, vor denen diese geschützt werden sollen. Damit noch nicht genug: In die Datei robots.txt können die Internet-Programmierer diejenigen Inhalte aufnehmen, die nicht durch eine Suchmaschine gelistet werden sollen. Solche "Disallow-Sei-ten" werden trotzdem oft von Suchmaschinen aufgelistet. Es ist jedoch alleine die Entscheidung des Internet-Anbieters, ob seine Seite in einer bestimmten Suchmaschine gelistet wird. Es wünschen eben nicht alle Internet-Anbieter, dass auf ihre Seiten über Suchmaschinen-Treffer zugegriffen werden kann. Das müssen auch die Betreiber von Suchmaschinen respektieren. Jeder Betreiber einer Website entscheidet alleine, wem und über welche technischen Hilfsmittel er seine Inhalte anderen zugänglich machen möchte. Listet ein Suchmaschinen-Betreiber Seiten, die nicht gelistet werden sollen, muss er diese Seiten aus dem Ranking herausnehmen. Es kommt dabei nicht darauf an, ob es sich um eine RoboterSuchmaschine handelt, die automatisch das Netz durchpflügt, oder die Suchergebnisse manuell von einer Redaktion zusammengestellt werden. In beiden Fällen hat es der Betreiber der Suchmaschine in der Hand, die Rechte der Website-Betreiber zu wahren: Auch bei einem Robot kann die Software so programmiert werden, dass bestimmte Inhalte nicht mehr angezeigt werden. Zu den Inhalten, die entfernt oder gesperrt werden müssen, gehören auch Daten, deren Verbreitung in das Persönlichkeitsrecht von Dritten eingreift. Suchmaschinen sind überhaupt ein nicht unerhebliches Sicherheitsrisiko: Jeder Eintrag in ein Gästebuch, Beitrag in einem Forum, Anmerkung zu einer Website wird unerbittlich aufgelistet - und ermöglicht es in Sekunden, ein Persönlichkeitsprofil zu erstellen.
    Spannend ist auch die Frage, inwieweit die Betreiber von Suchmaschinen für die Inhalte haften, die sich hinter Links verbergen. Bis Ende vergangenen Jahres galt noch § 5 Teledienstegesetz (TDG), der eine abgestufte Haftung vorsah: Demnach waren Betreiber von Suchmaschinen für rechtswidrige Inhalte hinter den Links nur dann verantwortlich, wenn sie die Inhalte kannten und es ihnen möglich war, die Einträge zu entfernen. Im Dezember 2001 hat der Gesetzgeber die Haftungsregelungen im Teledienstegesetz geändert. Die E-CommerceRichtlinie hat zu einer Erweiterung der Regelungen beigetragen. Die Haftung von Teledienst-Anbietern ist nun in §§ 8 bis 11 TDG geregelt: Die Betreiber von Suchmaschinen dürften wohl unter § 9 TDG fallen. Demnach haften die Betreiber von Suchmaschinen grundsätzlich nicht, da sie lediglich fremde Informationen an den Nutzer über einen Link übermitteln. Rechtsprechung dazu gibt es noch nicht. Das heißt jedoch nicht, dass jegliche Haftung ausgeschlossen ist: Denn § 8 Absatz 2 TDG besagt ausdrücklich: "Verpflichtungen zur Entfernung oder Sperrung der Nutzung von Informationen nach den allgemeinen Gesetzen bleiben auch im Falle der Nichtverantwortlichkeit des Diensteanbieters nach den §§ 9 bis 11 unberührt."
  5. dpa; Weizenbaum, J.: "Internet ist ein Schrotthaufen" (2005) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 2560) [ClassicSimilarity], result of:
          0.022437438 = score(doc=2560,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 2560, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=2560)
      0.25 = coord(1/4)
    
    Content
    "Das Internet ist nach Ansicht des bekannten US-Computerexperten und Philosophen Prof. Joseph Weizenbaum ein "Schrotthaufen" und verführt die Menschen zur Selbstüberschätzung. Weizenbaum, der in den 60er Jahren das Sprachanalyse-Programm "ELIZA" entwickelte, sprach im Rahmen einer Vortragsreihe im Computermuseum in Paderborn. "Das Ganze ist ein riesiger Misthaufen, der Perlen enthält. Aber um Perlen zu finden, muss man die richtigen Fragen stellen. Gerade das können die meisten Menschen nicht." Verlust von Kreativität Weizenbaum sagte weiter: "Wir haben die Illusion, dass wir in einer Informationsgesellschaft leben. Wir haben das Internet, wir haben die Suchmaschine Google, wir haben die Illusion, uns stehe das gesamte Wissen der Menschheit zur Verfügung." Kein Computer könne dem Menschen die eigentliche Information liefern. "Es ist die Arbeit der Interpretation im Kopf, die aus den Zeichen, die Computer anzeigen, eine Information macht." Der emeritierte Forscher des Massachusetts Institute of Technology kritisierte scharf das frühe Heranführen von Kindern an den Computer: "Computer für Kinder - das macht Apfelmus aus Gehirnen." Die Folge sei unter anderem, dass Studenten zum Teil bereits Programmen das Zusammenstellen der Hausarbeit überlasse. Menschen lernten in den Medien eine Hand voll Klischees, die auch in der Politik-Berichterstattung immer wieder auftauchten. Der Mangel an echter Aussage erkläre etwa den knappen Wahlausgang der USA, dessen 50:50-Proporz Ahnlichkeit mit Zufallsexperimenten habe."
  6. Hirsch, H.: Datenbanken für professionelle Nutzer : ein Check der Preispolitik im sommer 2003 (2003) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 3010) [ClassicSimilarity], result of:
          0.022437438 = score(doc=3010,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 3010, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3010)
      0.25 = coord(1/4)
    
    Abstract
    Die Anbieter professioneller Wirtschaftsdaten sind in den vergangenen Jahren verstärkt dazu übergegangen, ihre Informationen online verfügbar zu machen. Das war bis Ende der 90er Jahre nicht selbstverständlich, da beispielsweise die "Hersteller" von Adress- sowie Firmeninformationen lange Zeit mit CD-ROMS (später dann DVDs) operierten. Einer der wesentlichen Verbesserungsvorschläge in der grundlegenden Untersuchung "Firmen-CDs in D-A-CH" von Hirsch & Gayer Consulting (HGC) aus dem Jahre 2000 zielte deshalb auch darauf ab, die Informationen online abrufbar zu stellen bei gleichzeitig möglichst variablem Pricing. Lauteten die Einwände der Branche zuerst, dass man im Internet nicht all die Funktionalitäten bieten könne, wie diese der Nutzer von den DVDs gewohnt sei, so hat in den vergangenen drei Jahren die Technik dieses Problem anscheinend meistern können; denn die Menüführung ist online mittlerweile häufig identisch mit dem altgewohnten Bedienkomfort. Natürlich kann es im Netz hin und wieder zu Verzögerungen kommen, je nachdem ob man nun via DSL oder "nur" ISDN online geht. Die Aussagekraft des Angebots im Internet hat heute zumeist denselben Level erreicht wie vormals auf den "Scheiben". Im folgenden Text steht die Preispolitik der einzelnen Anbieter im Vordergrund der Betrachtung (ausgehend von der Grundannahme, dass die zur Verfügung gestellte Qualität den Ansprüchen der jeweiligen Nutzergruppe genügt). Im Fokus der Analyse standen 33 Datenbanken. Diese wurden in drei Gruppen - in Abhängigkeit von der Höhe der Grundgebühr - unterschieden (siehe enthaltene Tabelle)
    Source
    Information - Wissenschaft und Praxis. 54(2003) H.8, S.481-482
  7. Müller, H.: ¬Das »neue« Urheberrecht - eine unendliche Geschichte : Kommerzielle Interessen bedrohen die Informationsfreiheit (2005) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 4201) [ClassicSimilarity], result of:
          0.022437438 = score(doc=4201,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 4201, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4201)
      0.25 = coord(1/4)
    
    Abstract
    Für Bibliotheken stellt das Urheberrecht eines der zentralen, ihre tägliche Arbeit beherrschenden Rechtsgebiete dar, wenn nicht gar das wichtigste überhaupt. Das geltende Urheberrechtsgesetz aus dem Jahr 1965 wurde im Vergleich zu manch anderen Gesetzen auffallend häufig geändert, besonders oft ab Mitte der Achtzigerjahre.' Zusätzlich haben die Gerichte das Urheberrecht durch grundlegende Urteile zu einzelnen Fragen immer wieder präzisiert. Aus Sicht des Bibliotheksjuristen verkörpert das Urheberrecht das in seiner Entwicklung dynamischste Rechtsgebiet. Infolge dieser vielfachen Änderungen kann man fast jedes Jahr von einem »neuen« Urheberrecht sprechen. Momentan bezieht sich die Bezeichnung auf die 2003 erfolgte Novellierung des Gesetzes. Doch im Jahre 2004 haben Verlage in einer breit angelegten Kampagne den Kopienversand der Bibliotheken zum Gegenstand zahlreicher Gerichtsverfahren gemacht. Da sich die Kläger hauptsächlich auf das Urheberrecht berufen, kann man in Bezug auf diese Klagen auch von »neuerem« Urheberrecht sprechen. Damit aber nicht genug! Am 27. September 2004 hat das Bundesjustizministerium einen »Referentenentwurf für ein Zweites Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft« veröffentlicht, der in der hier verwendeten Diktion sozusagen das »neueste« Urheberrecht enthält. Die folgenden Ausführungen geben einen Überblick und beschreiben in drei Teilen das »neue«, »neuere« und »neueste« Urheberrecht.
  8. Neuer Alert-Dienst Derwent WPI First ViewSM zum Derwent World Patents Index® auf STN International freigeschaltet : Automatische Patentüberwachung per SDI möglich (2004) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 4351) [ClassicSimilarity], result of:
          0.022437438 = score(doc=4351,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 4351, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4351)
      0.25 = coord(1/4)
    
    Abstract
    Patente sind eine strategische Waffe im globalen Wettbewerb. Das Fachinformationszentrum (FIZ) Karlsruhe bietetjetzt einen neuen, hoch interessanten Patent-Informationsdienst an. Ende März hat es zur weltweit wichtigsten Patentdatenbank Derwent World Patents Index (DWPISM) den Alert-Dienst DWPI First ViewSM im wissenschaftlich-technischen Informationsnetz STN International freigeschaltet. DWPI First ViewSM erlaubt eine Vorschau auf Patentveröffentlichungen, die später, nach weiterer Bearbeitung, in den DWPI aufgenommen werden. Bei den Schutzrechtsschriften handelt es sich um ca. 12,9 Mio. offizielle Publikationen von 40 Patentbehörden der WeIt. Zur Markteinführung ist die Anschaltzeit im DWPI First ViewSM bis Ende April kostenlos. Mit dem neuen Patentbeobachtungsinstrument kann man die Patentaktivitäten auf den Weltmärkten schnell und bequem überwachen; auf Wunsch über sogenannte SDI-Profile sogar automatisch. So lassen sich frühzeitig Anmeldungen aufdecken, die für das eigene Unternehmen relevant sind. Der Produzent Thomson Derwent hat den DWPI First ViewSM als separate Datenbank entwickelt, um dem Nutzer den schnellstmöglichen Zugriff auf neu veröffentlichte Patente zu ermöglichen. Den Mehrwert der Mutterdatenbank DWPI erzeugt Derwent durch eine tiefgehende Neuerschließung und Bearbeitung der Patentdokumente. Dazu wird einige Zeit benötigt. Um diese Zeitbrücke zu überwinden, hat Thomson Derwent den neuen Alert-Dienst bereitgestellt.
  9. dpa: Europeana hat Startschwierigkeiten : Europas Online-Bibliothek (2008) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 5537) [ClassicSimilarity], result of:
          0.022437438 = score(doc=5537,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 5537, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=5537)
      0.25 = coord(1/4)
    
    Content
    "Brüssel. Die erste gemeinsame Online-Bibliothek der Europäischen Union ist nach nur wenigen Stunden wegen technischer Probleme wieder abgeschaltet worden. Ein unerwarteter Besucheransturm legte das Portal www.europeana.eu lahm, sagte ein Sprecher der EU-Kommission am Freitag in Brüssel. Die 20 Millionen Klicks pro Stunde habe die Seite nicht verkraftet. "Wir waren ausgerüstet für fünf Millionen Klicks", begründete der Sprecher die Panne. Spätestens bis Mitte Dezember soll die Seite wieder zur Verfügung stehen. Zuvor müsse zusätzliche Computerkapazität im Rechenzentrum der Universität Amsterdam angemietet werden. Bereits am Donnerstagmittag war die Zahl der Server von drei auf sechs verdoppelt worden, nachdem die Seite bereits in den ersten Stunden nach der Freischaltung vorübergehend zusammengebrochen war. "Die Kosten können noch aus dem Budget der Europeana abgedeckt werden", sagte der Sprecher. Europeana macht Dokumente, Bücher, Gemälde, Filme und Fotografien aus europäischen Sammlungen kostenlos im Internet zugänglich. Bisher sind dort knapp drei Millionen Objekte eingestellt, bis 2010 sollen es zehn Millionen sein. Mehr als 1000 Archive, Museen und Bibliotheken haben bereits digitalisiertes Material geliefert. Die Kommission stellt zwei Millionen Euro pro Jahr für den Unterhalt der Plattform bereit. Die Kosten für die Digitalisierung tragen die Mitgliedstaaten."
  10. dpa/fr: Google scannt nun Zeitungen : Schon Millionen Artikel im "Online-Archiv" (2008) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 3224) [ClassicSimilarity], result of:
          0.022437438 = score(doc=3224,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 3224, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3224)
      0.25 = coord(1/4)
    
    Content
    "Der immer noch als "Internet-Suchmaschine" firmierende Mega-Konzern Google legt nun auch seine Hände auf Zeitungen. Er will ein Online-Archiv für Zeitungen aus aller Welt aufbauen. Nutzer sollen Artikel durchsuchen und Seiten im Original-Layout samt Fotos und Anzeigen aufrufen können, erklärte die Firma am Montag bei der Technologie-Konferenz Techcrunch 50 in San Francisco. Man habe bereits Millionen von Artikeln eingescannt. Wie viele Zeitungen derzeit schon mitarbeiten, teilte Google nicht mit. Die Archivierung sei Teil der Strategie, "Offline-Inhalte in das Internet zu bringen", sagte Google-Vizepräsidentin Marissa Mayer. Man wolle Lesern "helfen", von der Lokalzeitung bis zum größten überregionalen Blatt "alle zu finden", hieß es im offiziellen Blog des Konzerns. Anders als bei der Digitalisierung von Büchern will man bei dem Zeitungsprojekt die Zustimmung der Verleger einholen. Die Kosten fürs Einscannen trägt Google, denn man spekuliert auf eine lukratives Geschäft durch die Anzeigen, die man neben den Suchergebnissen platzieren will. Die Verleger sollen einen - von Mayer aber nicht bezifferten - Anteil des Umsatzes erhalten. Der Bundesverband Deutscher Zeitungsverleger (BDZV) verweist darauf, dass die Verlage gefragt würden, ob sie der Google-Nutzung zustimmen. Für einige Blätter könne die Zusammenarbeit interessant sein - gleichwohl würden die Inhalte "aus der Hand gegeben", sagte eine BDZV-Sprecherin."
  11. Wiesenmüller, H.: LCSH goes RSWK? : Überlegungen zur Diskussion um die "Library of Congress subject headings" (2009) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 26) [ClassicSimilarity], result of:
          0.022437438 = score(doc=26,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 26, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=26)
      0.25 = coord(1/4)
    
    Abstract
    Im Jahr 1898 begann die Library of Congress mit der Arbeit an einem Schlagwortkatalog - die Geburtsstunde der 'Library of Congress subject headings' (LCSH). Heute stellen die LCSH das zentrale Werkzeug zur verbalen inhaltlichen Erschließung in der gesamten angloamerikanischen Welt dar. Auch die Kritik an diesem Erschließungssystem hat eine lange Geschichte: Sie lässt sich bis in die Mitte des vergangenen Jahrhunderts zurückverfolgen und betraf im Lauf der Zeit recht unterschiedliche Aspekte. Neu an der Debatte der letzten Jahre ist, dass die Struktur der LCSH ganz grundsätzlich in Frage gestellt wird. Eine Projektgruppe der Bibliothek der University of California etwa urteilte 2005: "LCSH's complex syntax and rules for constructing headings restrict its application by requiring highly skilled personnel and limit the effectiveness of automated authority control." In einer für die Library of Congress erstellten Expertise mit dem Titel 'On the record' von 2008 heißt es: "LCSH suffers (...) from a structure that is cumbersome from both administrative and automation points of view". Es wird empfohlen, die LCSH in ein flexibleres Werkzeug zu verwandeln: "Transform LCSH into a tool that provides a more flexible means to create and modify subject authority data." Dies beinhaltet zum einen ein "de-coupling of subject strings", also eine 'Entkoppelung' der fest zusammengefügten (präkombinierten) Eintragungen, und zum anderen die Möglichkeit, das LCSH-Vokabular für "faceted browsing and discovery" nutzbar zu machen . Besonders drastische Worte wurden 2006 im sogenannten 'Calhoun Report' gefunden - einem Papier, das mit seinen radikalen Thesen in der amerikanischen Bibliothekswelt viel Aufsehen erregte: Man müsse die Library of Congress dazu bringen, die LCSH zu 'zerschlagen' ("urge LC to dismantle LCSH") - ja, sie gar zu 'eliminieren' ("eliminate LCSH").
  12. Temath, C.: Prototypische Implementierung der "Topic Map Query Language"-Abfragesprache für die Groupware-basierte Topic Map Engine (2005) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 1200) [ClassicSimilarity], result of:
          0.022437438 = score(doc=1200,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 1200, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1200)
      0.25 = coord(1/4)
    
    Abstract
    Die folgende Dokumentation beschäftigt sich mit den Ergebnissen der Seminararbeit zum Thema "Prototypische Implementierung der "Topic Map Query Language"-Abfragesprache für die Groupware-basierte Topic Map Engine", die im Rahmen des Seminars Wirtschaftsinformatik II am Groupware Competence Center entstanden ist. Im Rahmen des Dissertationsprojektes "K-Discovery" von Stefan Smolnik am Groupware Competence Center entstand der Prototyp einer Groupware-basierten Topic Map Engine. Diese Umgebung stellt verschiedene Werkzeuge zur Modellierung, Erstellung und Visualisierung von Topic Maps in einem Groupware-basierten Umfeld zur Verfügung. So reichen die vorhandenen Werkzeuge von einem grafischen Modellierungswerkzeug für die Erstellung von Topic Maps, bis hin zu Suchwerkzeugen, die grafisch oder textbasiert die Suche nach Informationen erleichtern. Zusätzlich existiert eine Exportschnittstelle, die es ermöglicht, die Daten der erzeugten Topic Map in ein standardisiertes XML-Format, dem XML Topic Maps (XTM) Format, zu exportieren. Dies stellt eine erste, rudimentäre Schnittstelle zum Abfragen von Topic Map Informationen für die Groupwarebasierte Topic Map Engine (GTME) dar. Im Rahmen internationaler Standardisierungsbemühungen wird zurzeit an einem Abfragestandard für Topic Maps gearbeitet, der so genannten "Topic Map Query Language (TMQL)"-Abfragesprache. Ziel dieser Arbeit ist es nun, einen Überblick über den aktuellen Stand des Standardisierungsprozesses für die TMQL-Abfragesprache aufzuzeigen und basierend auf den im Standardisierungsprozess bisher erarbeiteten Ergebnissen eine prototypische Implementierung für die Groupware-basierte Topic Map Engine zu erstellen. Das Ziel ist demnach eine standardisierte Schnittstelle zum Abfragen von Topic Map Daten zu schaffen, um die Groupware-basierte Topic Map Engine einem neuen Anwendungsspektrum zugänglich zu machen.
  13. "Google Books" darf weitermachen wie bisher : Entscheidung des Supreme Court in den USA (2016) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 3923) [ClassicSimilarity], result of:
          0.022437438 = score(doc=3923,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 3923, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3923)
      0.25 = coord(1/4)
    
    Content
    " Im Streit mit Google um Urheberrechte ist eine Gruppe von Buchautoren am Obersten US-Gericht gescheitert. Der Supreme Court lehnte es ab, die google-freundliche Entscheidung eines niederen Gerichtes zur Revision zuzulassen. In dem Fall geht es um die Online-Bibliothek "Google Books", für die der kalifornische Konzern Gerichtsunterlagen zufolge mehr als 20 Millionen Bücher digitalisiert hat. Durch das Projekt können Internet-Nutzer innerhalb der Bücher nach Stichworten suchen und die entsprechenden Textstellen lesen. Die drei zuständigen Richter entschieden einstimmig, dass in dem Fall zwar die Grenzen der Fairness ausgetestet würden, aber das Vorgehen von Google letztlich rechtens sei. Entschädigungen in Milliardenhöhe gefürchtet Die von dem Interessensverband Authors Guild angeführten Kläger sahen ihre Urheberrechte durch "Google Books" verletzt. Dazu gehörten auch prominente Künstler wie die Schriftstellerin und Dichterin Margaret Atwood. Google führte dagegen an, die Internet-Bibliothek kurbele den Bücherverkauf an, weil Leser dadurch zusätzlich auf interessante Werke aufmerksam gemacht würden. Google reagierte "dankbar" auf die Entscheidung des Supreme Court. Der Konzern hatte befürchtet, bei einer juristischen Niederlage Entschädigungen in Milliardenhöhe zahlen zu müssen."
  14. Searle, J.R.: ¬Die Konstruktion der gesellschaftlichen Wirklichkeit : zur Ontologie sozialer Tatsachen (2011) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 277) [ClassicSimilarity], result of:
          0.022437438 = score(doc=277,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 277, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=277)
      0.25 = coord(1/4)
    
    Abstract
    In seinem grundlegenden Werk geht John Searle der Frage nach, in welchem Sinn das Soziale existiert. Was unterscheidet soziale Tatsachen wie etwa Geld von natürlichen Tatsachen wie der Höhe eines Berges? Searle kommt zu dem Ergebnis, daß soziale Tatsachen durch Phänomene kollektiver Intentionalität konstituiert werden. Hierfür entwickelt er die mittlerweile zum philosophischen Standardrepertoire gehörende Formel »X gilt als Y in C«, die aufschlüsselt, wie zum Beispiel ein Stück Papier in einem bestimmten sozialen Kontext als Geld behandelt wird. Eine brillante Analyse, ein Klassiker. Der Autor untersucht in diesem Buch die Bestandteile unserer Welt, die Tatsachen nur kraft menschlicher Übereinkunft sind - wie Geld, Ehe, Eigentum und Regierung. Derartige Tatsachen haben eine objektive Existenz nur deshalb, weil wir daran glauben, dass sie existieren. Sie machen die vieldiskutierte, aber ebenso häufig mißverstandene Welt der kulturellen und gesellschaftlichen Realität aus.
  15. Dreyfus, H.L.: ¬Die Grenzen künstlicher Intelligenz : was Computer nicht können (1985) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 332) [ClassicSimilarity], result of:
          0.022437438 = score(doc=332,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 332, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=332)
      0.25 = coord(1/4)
    
    Footnote
    HST und ZST werden in verschiedenen Katalogen auch in vertauschter Reihenfolge angegeben (vgl. die Gestaltung des Covers und Titelblatts). Titel des Original: What computer can't do: the limits of artificial intelligence.
  16. Newberg, A.; D'Aquili, E.; Rause, V.: ¬Der gedachte Gott : wie Glaube im Gehirn entsteht (2003) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 470) [ClassicSimilarity], result of:
          0.022437438 = score(doc=470,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 470, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=470)
      0.25 = coord(1/4)
    
    Abstract
    Warum Menschen Götter haben, beschäftigte bislang vor allem Kulturforscher. Nun haben Mediziner den Ursprung der Religion im menschlichen Gehirn lokalisiert. Durch Experimente finden die Autoren heraus, was im Gehirn vor sich geht, wenn Menschen beten. Ihr sensationeller Befund: Es gibt eine Hirnregion, die für religiöse Gefühle zuständig ist. Ob betende Christen oder meditierende Buddhisten - es werden die gleichen Hirnzellen auf die genau gleiche Art aktiviert. Religion ist meßbar geworden. Verständlich und präzise stellen die drei Autoren den neuesten aufregenden Aspekt der Hirnforschung dar und liefern einen wichtigen Beitrag zu einer der ältesten Fragen der Menschheit: Warum gibt es Religion?
  17. Pearl, J.; Harnett, K.: ¬Die Zukunft der KI (2018) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 525) [ClassicSimilarity], result of:
          0.022437438 = score(doc=525,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 525, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=525)
      0.25 = coord(1/4)
    
    Content
    Interessante Fragen und Antworten: Denken Sie, dass es in Zukunft Roboter mit einem freien Willen geben wird? Auf jeden Fall. Wir müssen verstehen, wie man sie programmiert und was wir davon haben könnten. Das Gefühl eines freien Willens scheint ja evolutionär wünschenswert zu sein. Inwiefern? Menschen haben das Gefühl eines freien Willens; die Evolution hat uns damit ausgestattet. Offensichtlich erfüllt es einen gewissen Zweck, der sich rechnet. Woran werden wir merken, dass Roboter einen freien Willen haben? Sobald sie anfangen, kontraproduktiv miteinander zu kommunizieren, etwa durch Aussagen wie »Du hättest es besser machen sollen«. Wenn eine Fußballmannschaft aus Robotern beginnt, so zu kommunizieren, dann haben sie ein Gefühl des freien Willens. »Du hättest es tun sollen« bedeutet, dass das Gegenüber frei entscheiden konnte. Die ersten Anzeichen werden also in der Kommunikation zu finden sein, die nächsten in besserem Fußball. Woher werden wir also wissen, ob eine Maschine in der Lage ist, böse zu sein? Wenn wir bemerken, dass ein Roboter einige Softwarekomponenten konsequent ignoriert, während er andere befolgt. Dann ist auch ein Roboter zu Bösem fähig.
  18. Jörs, B.: Wider eine Überschätzung der gegenwärtigen Leistungen der deutschsprachigen Informationswissenschaft : Keine fehlende Fundierung? Doch mit gesellschaftlicher Relevanz ausgestattet? (2020) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 564) [ClassicSimilarity], result of:
          0.022437438 = score(doc=564,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 564, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=564)
      0.25 = coord(1/4)
    
    Content
    Erwiderung auf: Lewandowski, D.: Die Informationswissenschaft hat ein strukturelles, kein inhaltliches Problem: Ein Sechs-Punkte-Programm, um aus dem Status eines kleinen Faches herauszukommen. In: Open Password. Nr. 664 vom 19.11.2019, [https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=822&wysijap=subscriptions&user_id=1045]. Zweiter Teil als: Doch einen angemessenen Praxisbezug und einen ausreichenden gesellschaftlichen Nutzen? In: Open Password. Nr. 701 vom 06. Februar 2020 [Unter: https://www.password-online.de/?mailpoet_router&endpoint=view_in_browser&action=view&data=WzIwLDAsNjI2NCwiMTIxdHVlYm51bnMwa2tnZ2Nnd3dnNDgwdzg4MGs0c2MiLDE5LDBd]. Vgl. auch die vorangegangenen Beiträge von Lewandoski und Jörs.
  19. Dietz, K.: en.wikipedia.org > 6 Mio. Artikel (2020) 0.01
    0.0056093596 = product of:
      0.022437438 = sum of:
        0.022437438 = weight(_text_:und in 669) [ClassicSimilarity], result of:
          0.022437438 = score(doc=669,freq=4.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17327337 = fieldWeight in 669, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=669)
      0.25 = coord(1/4)
    
    Content
    "Die Englischsprachige Wikipedia verfügt jetzt über mehr als 6 Millionen Artikel. An zweiter Stelle kommt die deutschsprachige Wikipedia mit 2.3 Millionen Artikeln, an dritter Stelle steht die französischsprachige Wikipedia mit 2.1 Millionen Artikeln (via Researchbuzz: Firehose <https://rbfirehose.com/2020/01/24/techcrunch-wikipedia-now-has-more-than-6-million-articles-in-english/> und Techcrunch <https://techcrunch.com/2020/01/23/wikipedia-english-six-million-articles/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Techcrunch+%28TechCrunch%29&guccounter=1&guce_referrer=aHR0cHM6Ly9yYmZpcmVob3NlLmNvbS8yMDIwLzAxLzI0L3RlY2hjcnVuY2gtd2lraXBlZGlhLW5vdy1oYXMtbW9yZS10aGFuLTYtbWlsbGlvbi1hcnRpY2xlcy1pbi1lbmdsaXNoLw&guce_referrer_sig=AQAAAK0zHfjdDZ_spFZBF_z-zDjtL5iWvuKDumFTzm4HvQzkUfE2pLXQzGS6FGB_y-VISdMEsUSvkNsg2U_NWQ4lwWSvOo3jvXo1I3GtgHpP8exukVxYAnn5mJspqX50VHIWFADHhs5AerkRn3hMRtf_R3F1qmEbo8EROZXp328HMC-o>). 250120 via digithek ch = #fineBlog s.a.: Angesichts der Veröffentlichung des 6-millionsten Artikels vergangene Woche in der englischsprachigen Wikipedia hat die Community-Zeitungsseite "Wikipedia Signpost" ein Moratorium bei der Veröffentlichung von Unternehmensartikeln gefordert. Das sei kein Vorwurf gegen die Wikimedia Foundation, aber die derzeitigen Maßnahmen, um die Enzyklopädie gegen missbräuchliches undeklariertes Paid Editing zu schützen, funktionierten ganz klar nicht. *"Da die ehrenamtlichen Autoren derzeit von Werbung in Gestalt von Wikipedia-Artikeln überwältigt werden, und da die WMF nicht in der Lage zu sein scheint, dem irgendetwas entgegenzusetzen, wäre der einzige gangbare Weg für die Autoren, fürs erste die Neuanlage von Artikeln über Unternehmen zu untersagen"*, schreibt der Benutzer Smallbones in seinem Editorial <https://en.wikipedia.org/wiki/Wikipedia:Wikipedia_Signpost/2020-01-27/From_the_editor> zur heutigen Ausgabe."
  20. Matter, R.: PRECIS als zwischensprachliches System (1979) 0.01
    0.005552982 = product of:
      0.022211928 = sum of:
        0.022211928 = weight(_text_:und in 1197) [ClassicSimilarity], result of:
          0.022211928 = score(doc=1197,freq=2.0), product of:
            0.12949155 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05838478 = queryNorm
            0.17153187 = fieldWeight in 1197, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1197)
      0.25 = coord(1/4)
    
    Abstract
    PRECIS ist ein Indexierungssystem, das ursprünglich zur Herstellung des Sachregisters für die 1971 auf maschinelle Verarbeitung umgestellte BNB entwickelt wurde. Obwohl für das Englische entworfen, hat sich PRECIS bisher in einer Reihe anderer Sprachen bewährt. Die British Library finanziert seit 1976 ein Projekt, dessen Aufgabe es ist, das Potential von PRECIS als zwischensprachliche Indexsprache zu ermitteln. Es wird vor allem mit Deutsch, Französisch und Englisch gearbeitet. Das Forschungsteam hat eine Anzahl Mechanismen entwickelt, die verbale Indexierungsdaten in Form von "Eingabeketten" von einer Ausgangssprache in eine Zielsprache maschinell umsetzen. Jeder Begriff wird dabei einzeln umgesetzt. Diese Begriffe, die ein Sachverhaltspaket bilden, werden dann von einem Standardprogramm gelesen, das auch Registereinträge in einer Zielsprache oder Zielsprachen erstellt

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1870
  • el 890
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications