Search (13210 results, page 3 of 661)

  1. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.14
    0.13951266 = product of:
      0.27902532 = sum of:
        0.2066608 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.2066608 = score(doc=217,freq=4.0), product of:
            0.46918333 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.066574365 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.07236451 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.07236451 = score(doc=217,freq=50.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  2. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.14
    0.13618687 = product of:
      0.27237374 = sum of:
        0.21919689 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.21919689 = score(doc=977,freq=2.0), product of:
            0.46918333 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.066574365 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.053176835 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.053176835 = score(doc=977,freq=12.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  3. Bönicke, K.: Ungleiche Geschwister : Zum Verhältnis von Form und Inhalt bei Lukács und Holz (2019) 0.14
    0.1358201 = product of:
      0.2716402 = sum of:
        0.070902444 = weight(_text_:und in 261) [ClassicSimilarity], result of:
          0.070902444 = score(doc=261,freq=12.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.48018923 = fieldWeight in 261, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=261)
        0.20073776 = weight(_text_:hatte in 261) [ClassicSimilarity], result of:
          0.20073776 = score(doc=261,freq=2.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.51624817 = fieldWeight in 261, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.0625 = fieldNorm(doc=261)
      0.5 = coord(2/4)
    
    Abstract
    Das Diktum der Einheit von Form und Inhalt ist für die Ästhetiken von Georg Lukács und Hans Heinz Holz zentral. Der Vortrag möchte die These entwickeln, dass beide Theoretiker die Rolle von Form und Inhalt dennoch unterschiedlich gewichten - Lukács zugunsten des Inhalts, Holz zugunsten der Form - und einen Ausblick auf die sich daraus ergebenden Folgen geben.
    Content
    Am 5. Februar hatte die Gesellschaft für dialektische Philosophie zur diesjährigen Hans-Heinz-Holz-Tagung mit dem Thema »Realismus als ästhetisches Prinzip« an die Universität Wien geladen. Vgl.: http://www.dialektische-philosophie.org/?p=1556.
  4. Twain, M.: ¬The awful German language : Die schreckliche deutsche Sprache (1996) 0.13
    0.1330457 = product of:
      0.2660914 = sum of:
        0.053176835 = weight(_text_:und in 2699) [ClassicSimilarity], result of:
          0.053176835 = score(doc=2699,freq=12.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.36014193 = fieldWeight in 2699, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2699)
        0.21291457 = weight(_text_:hatte in 2699) [ClassicSimilarity], result of:
          0.21291457 = score(doc=2699,freq=4.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.5475639 = fieldWeight in 2699, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.046875 = fieldNorm(doc=2699)
      0.5 = coord(2/4)
    
    Abstract
    "Zu den subtilen Absonderlichkeiten, mit denen Mark Twain in Europa konfrontiert wurde, gehörte für ihn die deutsche Sprache. "Ich verstehe Deutsch so gut wie der Wahnsinnige, der es erfunden hat, aber ich spreche es am besten mit Hilfe eines Dolmetschers". Tatsächlich hat er versucht, Deutsch zu lernen - und seine kritischen Bemerkungen zeigten, daß er sich enrsthaft bemüht hat -, aber als er seine Kenntnisse anwenden wollte, verstand man ihn nicht so, wie er es erwartet hatte. Folglich machte er Vorschläge zur Verbesserung der deutschen Sprache, die er sich so kurz und bündig wünschte wie seine eigene. Andernfalls müßte man sie zu den toten Sprachen zählen. Auch hier galt ihm sein Amerika als leuchtendes Vorbild, und seine lachenden Leser bewiesen ihm durch den Erfolg seiner Reisebücher und Vorträge ihre Dankbarkeit dafür, daß er sie in ihren Vorurteilen gegen fremde Länder und Gebräuche bestätigt und bestärkt hatte."
  5. Twain, M.: ¬The awful German language : Die schreckliche deutsche Sprache (2003) 0.13
    0.1330457 = product of:
      0.2660914 = sum of:
        0.053176835 = weight(_text_:und in 2866) [ClassicSimilarity], result of:
          0.053176835 = score(doc=2866,freq=12.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.36014193 = fieldWeight in 2866, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2866)
        0.21291457 = weight(_text_:hatte in 2866) [ClassicSimilarity], result of:
          0.21291457 = score(doc=2866,freq=4.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.5475639 = fieldWeight in 2866, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.046875 = fieldNorm(doc=2866)
      0.5 = coord(2/4)
    
    Abstract
    "Zu den subtilen Absonderlichkeiten, mit denen Mark Twain in Europa konfrontiert wurde, gehörte für ihn die deutsche Sprache. "Ich verstehe Deutsch so gut wie der Wahnsinnige, der es erfunden hat, aber ich spreche es am besten mit Hilfe eines Dolmetschers". Tatsächlich hat er versucht, Deutsch zu lernen - und seine kritischen Bemerkungen zeigten, daß er sich enrsthaft bemüht hat -, aber als er seine Kenntnisse anwenden wollte, verstand man ihn nicht so, wie er es erwartet hatte. Folglich machte er Vorschläge zur Verbesserung der deutschen Sprache, die er sich so kurz und bündig wünschte wie seine eigene. Andernfalls müßte man sie zu den toten Sprachen zählen. Auch hier galt ihm sein Amerika als leuchtendes Vorbild, und seine lachenden Leser bewiesen ihm durch den Erfolg seiner Reisebücher und Vorträge ihre Dankbarkeit dafür, daß er sie in ihren Vorurteilen gegen fremde Länder und Gebräuche bestätigt und bestärkt hatte."
  6. Schwartz, W.: EROMM und alte Drucke (2004) 0.13
    0.13273127 = product of:
      0.26546255 = sum of:
        0.06472478 = weight(_text_:und in 4004) [ClassicSimilarity], result of:
          0.06472478 = score(doc=4004,freq=10.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.4383508 = fieldWeight in 4004, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4004)
        0.20073776 = weight(_text_:hatte in 4004) [ClassicSimilarity], result of:
          0.20073776 = score(doc=4004,freq=2.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.51624817 = fieldWeight in 4004, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.0625 = fieldNorm(doc=4004)
      0.5 = coord(2/4)
    
    Abstract
    Vor zehn Jahren ging die EROMM-Datenbank online. Begonnen hatte diese europäische Gemeinschaftsinitiative als Bibliotheksprojekt der EU mit dem Ziel, einen zentralen Nachweis von Sicherheitsverfilmungen aufzubauen. Seitdem hat EROMM sich zu dem internationalen Nachweis- und Koordinationsinstrument für Bestandssicherung auf Sekundärmedien entwickelt. Heute enthält die Datenbank die bibliographischen Daten für mehr als 2,5 Millionen Mikroformmaster und digitale Master, die aus Ländern in Europa, Nord- und Lateinamerika gemeldet werden.
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 51(2004) H.4, S.236-238
  7. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.13
    0.13076073 = product of:
      0.26152146 = sum of:
        0.18266408 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.18266408 = score(doc=50,freq=2.0), product of:
            0.46918333 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.066574365 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.07885739 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.07885739 = score(doc=50,freq=38.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  8. Syré, L.: Landesbibliographien im Internet : auf dem Weg zur Virtuellen Deutschen Landesbibliographie (VDL) (2003) 0.13
    0.13072908 = product of:
      0.26145816 = sum of:
        0.048543587 = weight(_text_:und in 3087) [ClassicSimilarity], result of:
          0.048543587 = score(doc=3087,freq=10.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.3287631 = fieldWeight in 3087, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3087)
        0.21291457 = weight(_text_:hatte in 3087) [ClassicSimilarity], result of:
          0.21291457 = score(doc=3087,freq=4.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.5475639 = fieldWeight in 3087, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.046875 = fieldNorm(doc=3087)
      0.5 = coord(2/4)
    
    Abstract
    Es ist nun zwölf Jahre her, daß ich auf dem Österreichischen Bibliothekartag - im Jahre 1990 - zum ersten und seitdem auch letzten Mal über die deutschen - und das bedeutete damals noch im Wesentlichen: westdeutschen - Landesbibliographien berichtet habe. Dies geschah in der gemeinsamen Sitzung der Kommission für Bibliographie und der Kommission für Landesbibliotheken und hatte vor allem die Automatisierung der Bibliographieerstellung zum Thema. Die Betonung lag damals auf der Landesbibliographie von Baden-Württemberg, zum einen, weil sie soeben den Sprung vom Zettelkasten zur Datenbank geschafft hatte, zum anderen, weil mit Blick auf den Veranstaltungsort - Bregenz - dem Raum rund um den Bodensee besondere Aufmerksamkeit gewidmet wurde. Neben der Landesbibliographie von Baden-Württemberg wurde deshalb damals auch die EDV-gestützte Herstellung der Bodenseee-Bibliographie vorgestellt. Im heutigen Vortrag soll es um einen weiteren Qualitätssprung gehen, doch zuvor einige Ausführungen über den Weg dorthin.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 56(2003) H.2, S.10-19
  9. Röll, M.: »Am Anfang war das Wort« : Weblogs, Google & Geschäftsbeziehungen (2005) 0.13
    0.13072908 = product of:
      0.26145816 = sum of:
        0.048543587 = weight(_text_:und in 4494) [ClassicSimilarity], result of:
          0.048543587 = score(doc=4494,freq=10.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.3287631 = fieldWeight in 4494, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4494)
        0.21291457 = weight(_text_:hatte in 4494) [ClassicSimilarity], result of:
          0.21291457 = score(doc=4494,freq=4.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.5475639 = fieldWeight in 4494, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.046875 = fieldNorm(doc=4494)
      0.5 = coord(2/4)
    
    Abstract
    Wer früher etwas im Web finden wollte, hatte es schwer: Zwar gab es Massen von Material, aber etwas Konkretes zu finden, war aufwändig. Und hatte man endlich etwas gefunden, war es oft von mangelhafter Qualität. Suchen im Web war in der Frühzeit vor allem Wühlen: Sehr viele Seiten anfassen, anschauen und verwerfen, in der Hoffnung irgendwann einmal etwas Nützliches zu finden. Suchmaschinen ändern das: Sie erfassen große Teile des Webs und versorgen den Suchenden mit unendlich viel Material - worin dann auch genau das Problem lag: Aus dem Wühlen wurde Suchen, weiter Suchen und nochmals Suchen. Filtern wurde erforderlich, um aus der riesigen Materialmenge die relevanten Teile auszusortieren. Dann kam Google und brachte das, wonach sich alle sehnten: relevante Suchergebnisse. Internet-Nutzer konnten nun finden, mussten nicht mehr wühlen, sondern nur noch googeln. Aber sind ihre Probleme damit gelöst?
  10. dpa: Neues Projekt nimmt Google ins Visier (2007) 0.13
    0.13072908 = product of:
      0.26145816 = sum of:
        0.048543587 = weight(_text_:und in 1) [ClassicSimilarity], result of:
          0.048543587 = score(doc=1,freq=10.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.3287631 = fieldWeight in 1, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1)
        0.21291457 = weight(_text_:hatte in 1) [ClassicSimilarity], result of:
          0.21291457 = score(doc=1,freq=4.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.5475639 = fieldWeight in 1, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.046875 = fieldNorm(doc=1)
      0.5 = coord(2/4)
    
    Content
    "In einem Interview mit der Wochenzeitung "Die Zeit" sagte Wales, er wolle mit "Wikia" eine Suchmaschine anbieten, deren Algorithmus jedem zugänglich sei. Google behandelt die Formel zur Berechnung der Suchergebnisse im Web dagegen als Betriebsgeheimnis. Wales, der die Firma Wikia.com im Jahr 2004 gegründet hatte, sagte, "als Bürger des Internets" müsse man "Transparenz und Offenheit gewährleisten". "Im Moment sind aber alle Suchmaschinen geschlossene Systeme, die jeweils einer Firma gehören. Und diese Firmen entscheiden, wie sie Webseiten bewerten", sagte Wales der "Zeit". Bei Wikia sollen angemeldete Benutzer Suchergebnisse bewerten und damit hoch- oder herabstufen. Das Angebot soll sich durch Werbeerlöse finanzieren, an denen die freiwilligen Mitarbeiter allerdings nicht beteiligt werden sollen. Google hatte Anfang der Woche angekündigt, mit "Knol" selbst eine Art Online-Lexikon aufzubauen und damit mit dem Internet-Lexikon Wikipedia konkurrieren zu wollen. Bislang bewertet Google die Einträge von Wikipedia sehr hoch und zeigt häufig Wikipedia-Aufsätze unter den Top-Ergebnissen einer Websuche an."
  11. EU prüft Werbeabkommen (2008) 0.13
    0.13072908 = product of:
      0.26145816 = sum of:
        0.048543587 = weight(_text_:und in 236) [ClassicSimilarity], result of:
          0.048543587 = score(doc=236,freq=10.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.3287631 = fieldWeight in 236, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=236)
        0.21291457 = weight(_text_:hatte in 236) [ClassicSimilarity], result of:
          0.21291457 = score(doc=236,freq=4.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.5475639 = fieldWeight in 236, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.046875 = fieldNorm(doc=236)
      0.5 = coord(2/4)
    
    Content
    "Die EU-Kommission überprüft das geplante Werbeabkommen zwischen den amerikanischen Internet-Konzernen Google und Yahoo. Ein Sprecher der Brüsseler Behörde sagte, dass man bereits im Juli auf eigene Initiative eine Untersuchung begonnen habe. Im Mittelpunkt stehe die Frage, ob das Abkommen Europa betreffe und europäisches Recht breche. Die Firmen hätten freiwillig Informationen zur Verfügung gestellt. Yahoo hatte die Kooperation mit Google im Juni angekündigt, als Microsoft - vergeblich - versuchte, den Internet-Pionier zu kaufen. Google soll ab Ende September auf einigen Yahoo-Websites in den USA und Kanada seine Werbung platzieren. Die Unternehmen wollen den Umsatz teilen. Yahoo könnte daran nach Branchenberichten 800 Millionen Dollar pro Jahr verdienen. Die Kooperation wird von mehreren Seiten skeptisch gesehen. Das amerikanische Justizministerium hat nach Medienberichten einen der bekanntesten US-Kartellexperten mit der Prüfung der Angelegenheit beauftragt. Vor zwei Wochen hatte die amerikanische Association of National Advertisers in einem Brief an das US-Justizministerium ihre Bedenken geäußert. Der Organisation gehören Großunternehmen wie die Einzelhandelskette Wal-Mart und der Autobauer General Motors an. Am Montag wendete sich auch der Welt-Zeitungsverband gegen das Abkommen."
    Series
    In- und Ausland: Multimedia: Aktuell
  12. ORCID (2015) 0.13
    0.13072908 = product of:
      0.26145816 = sum of:
        0.048543587 = weight(_text_:und in 2870) [ClassicSimilarity], result of:
          0.048543587 = score(doc=2870,freq=10.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.3287631 = fieldWeight in 2870, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2870)
        0.21291457 = weight(_text_:hatte in 2870) [ClassicSimilarity], result of:
          0.21291457 = score(doc=2870,freq=4.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.5475639 = fieldWeight in 2870, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.046875 = fieldNorm(doc=2870)
      0.5 = coord(2/4)
    
    Content
    ORCID soll die elektronische Zuordnung von Publikation und Autoren ermöglichen. Dies ist notwendig, da verschiedene Autoren gleiche Namen haben können, Namen sich ändern (z. B. bei Heirat) und Namen in verschiedenen Publikationen unterschiedlich angegeben werden (z. B. einmal die ausgeschriebenen Vornamen, ein anderes Mal aber nur die Initialen). ORCID soll zum De-facto-Standard für die Autorenidentifikation wissenschaftlicher Publikationen werden. Die Etablierung wird von der Non-Profit-Organisation Open Researcher Contributor Identification Initiative organisiert. Zu den Gründungsmitgliedern der Initiative gehören zahlreiche wissenschaftliche Verlagsgruppen (z. B. Elsevier, Nature Publishing Group, Springer) und Forschungsorganisationen (z. B. EMBO, CERN). Die Planungen für ORCID wurden 2010 auf Umfragen gestützt. ORCID ging am 16. Oktober 2012 offiziell an den Start. Am Jahresende 2012 hatte ORCID 42.918 Registrierte, Jahresende 2013 waren es 460.000 Registrierte und im November 2014 hatte ORCID 1 Million Autorenidentifikationen ausgestellt. Vgl. auch den Zusammenhang mit der GND und den Erfassungsleitfaden der DNB unter: https://wiki.dnb.de/x/vYYGAw.
  13. Münnich, M.: OSCAR and OhioLINK : ein Vergleich mit deutschem Lokalsystem und regionalem Verbund (1997) 0.13
    0.12931468 = product of:
      0.25862935 = sum of:
        0.057891604 = weight(_text_:und in 454) [ClassicSimilarity], result of:
          0.057891604 = score(doc=454,freq=8.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.39207286 = fieldWeight in 454, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=454)
        0.20073776 = weight(_text_:hatte in 454) [ClassicSimilarity], result of:
          0.20073776 = score(doc=454,freq=2.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.51624817 = fieldWeight in 454, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.0625 = fieldNorm(doc=454)
      0.5 = coord(2/4)
    
    Abstract
    "Anläßlich eines Besuches von OCLC hatte ich den Auftrag des Bibliotheksservicezentrums Baden-Württemberg, die Wechselwirkung des lokalen Katalogisierungsmoduls der Ohio State University (und dessen OPAC mit dem Namen OSCAR) und dem staatlichen Verbund OhioLINK anzusehen. Der Vergleich ist für die deutsche Landschaft von besonderer Bedeutung, da die lokale Katalogisierung der Ohio State University und des Verbundes OhioLINK als Modell für den Kooperativen Bibliotheksverbund Berlin-Brandenburg diente
  14. Hohnschopp, C.; Klusch, B.; Lauf-Immesberger, K.; Theobald, H.-J.: Teaching Librarians unterstützen Teaching Teachers : Ein Erfahrungsbericht aus dem Saarland (2005) 0.13
    0.12931468 = product of:
      0.25862935 = sum of:
        0.057891604 = weight(_text_:und in 4131) [ClassicSimilarity], result of:
          0.057891604 = score(doc=4131,freq=8.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.39207286 = fieldWeight in 4131, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=4131)
        0.20073776 = weight(_text_:hatte in 4131) [ClassicSimilarity], result of:
          0.20073776 = score(doc=4131,freq=2.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.51624817 = fieldWeight in 4131, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.0625 = fieldNorm(doc=4131)
      0.5 = coord(2/4)
    
    Abstract
    Vor drei Jahren hatte das Bundesministerium für Bildung und Forschung (BMBF) das Projekt »Lernende Regionen - Entwicklung von Netzwerken« ausgeschrieben. Gefördert wurden bildungsbereichs- und trägerübergreifende Netzwerke auf regionaler Ebene. Die optimale Verknüpfung der jeweiligen Angebote und Kompetenzen der beteiligten Institutionen sollte zu einer nachhaltigen Modernisierung von Bildung und Weiterbildung beitragen. Eine gute Chance für Bibliotheken, sich hier einzuklinken. Der DBV-Landesverband Saarland hat das mit einem interessanten Projekt getan.
  15. Pernik, V.; Schlögl, C.: Möglichkeiten und Grenzen von Web Structure Mining am Beispiel von informationswissenschaftlichen Hochschulinstituten im deutschsprachigen Raum (2006) 0.13
    0.12931468 = product of:
      0.25862935 = sum of:
        0.057891604 = weight(_text_:und in 203) [ClassicSimilarity], result of:
          0.057891604 = score(doc=203,freq=8.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.39207286 = fieldWeight in 203, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=203)
        0.20073776 = weight(_text_:hatte in 203) [ClassicSimilarity], result of:
          0.20073776 = score(doc=203,freq=2.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.51624817 = fieldWeight in 203, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.0625 = fieldNorm(doc=203)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Beitrag wird eine webometrische Untersuchung vorgestellt, die informationswissenschaftliche Hochschulinstitute in den deutschsprachigen Ländern zum Gegenstand hatte. Ziel dieser Studie war es, einerseits die Linkbeziehungen zwischen den Hochschulinstituten zu analysieren. Andererseits sollten Ähnlichkeiten (zum Beispiel aufgrund von fachlichen, örtlichen oder institutionellen Gegebenheiten) identifiziert werden. Es werden nicht nur die Vorgehensweise bei derartigen Analysen und die daraus resultierenden Ergebnisse dargestellt. Insbesondere sollen Problembereiche und Einschränkungen, die mit der Analyse von Linkstrukturen im Web verbunden sind, thematisiert werden.
    Source
    Information - Wissenschaft und Praxis. 57(2006) H.8, S.407-414
  16. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.13
    0.1283993 = product of:
      0.2567986 = sum of:
        0.21919689 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.21919689 = score(doc=1181,freq=2.0), product of:
            0.46918333 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.066574365 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.037601702 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.037601702 = score(doc=1181,freq=6.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  17. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.13
    0.12839821 = product of:
      0.25679642 = sum of:
        0.2066608 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.2066608 = score(doc=1761,freq=4.0), product of:
            0.46918333 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.066574365 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.0501356 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.0501356 = score(doc=1761,freq=24.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  18. Funk, V.: Wirbel um Sperrung von Wikipedia : Linken-Politiker Heilmann geht gegen Online-Lexikon vor - und gibt dann doch klein bei (2008) 0.13
    0.12839702 = product of:
      0.25679404 = sum of:
        0.03236239 = weight(_text_:und in 2976) [ClassicSimilarity], result of:
          0.03236239 = score(doc=2976,freq=10.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.2191754 = fieldWeight in 2976, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2976)
        0.22443165 = weight(_text_:hatte in 2976) [ClassicSimilarity], result of:
          0.22443165 = score(doc=2976,freq=10.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.577183 = fieldWeight in 2976, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.03125 = fieldNorm(doc=2976)
      0.5 = coord(2/4)
    
    Content
    "Erst ließ er tagelang die deutsche Startseite des Online-Lexikons Wikipedia sperren, dann zog er sich kleinlaut zurück: Lutz Heilmann, Bundestagsabgeordneter der Linken. Mit der weltweiten Community der Wiki-Fans und Autoren angelegt hatte er sich wegen vier angeblicher Falschbehauptungen über ihn in der Internet-Enzyklopädie. Heilmann erwirkte am vergangenen Donnerstag gerichtlich eine Einstellung der Weiterleitung von wikipedia.de zu de.wikipedia.org. Wer am Wochenende dort schnell mal etwas nachschlagen wollte, stieß auf eine Wand: "Mit einstweiliger Verfügung des Landgerichts Lübeck (...), erwirkt durch Lutz Heilmann, MdB (Die Linke), wird es dem Wikimedia Deutschland e.V. untersagt, 'die Internetadresse wikipedia.de auf die Internetadresse de.wikipedia.org weiterzuleiten'". Nur über Umwege gelangte man zu den Inhalten. Am Sonntag erklärte Heilmann dann überraschend seinen juristischen Clinch mit dem Verein Wikimedia Deutschland für beendet. Die "falschen" Inhalte seien weitgehend aus dem entsprechenden Wikipedia-Artikel entfernt worden. Heilmann hatte sich schon mehrfach über den Artikel zu seiner Person auf Wikipedia geärgert. Diesmal ging es um vier Punkte, erklärte der Anwalt von Wikimedia Deutschland, Thorsten Feldmann, der FR, ohne weitere Details nennen zu wollen. Ein möglicher Streitpunkt: die Stasi-Vergangenheit des 42-jährigen Juristen Heilmann. Er hatte, nach Angaben auf seiner Bundestags-Website, im Personenschutz der Stasi von 1985 bis 1990 gedient - unklar bleibt, von wann bis wann genau. Bei der Nominierung zur Kandidatur für die Bundestagswahl 2005 hatte er dies nicht erzählt, ein "Fehler", sagte er später, nachdem Medien ihn darauf ansprachen.
    Medienhype zwingt vermutlich zum Rückzug Der Sperre per einstweiliger Verfügung ging eine Abmahnung durch Heilmanns Anwälte voraus. "Unsere Erklärung zu den einzelnen Punkten der Abmahnung ist dem Gericht beim Antrag auf die einstweilige Verfügung vorenthalten worden", kritisiert Feldmann. Die Streitpunkte rechtfertigten eine Sperrung der Seite auf gar keinen Fall. Vermutlich war es nicht das Argument des Wiki-Anwaltes, das Heilmann Sonntagfrüh eines besseren belehrte, sondern der Medienhype, den er mit seiner Attacke auslöste. Heilmann zog gesenkten Hauptes vor die Online-Community und schrieb in einer Pressemitteilung: "Ich bedaure außerordentlich, dass durch die von mir beantragte einstweilige Verfügung des Landgerichts Lübeck die deutschen Wikipedia-Userinnen und -User in den letzten 24 Stunden keinen direkten Zugriff mehr auf die Wikipedia-Inhalte hatten." Am Samstag hatte sich die Nachricht über die Sperre schnell in diversen Online-Publikationen verbreitet. Doch wirklich weh tun wird Heilmann in Zukunft etwas anderes: Seine Aktion ist bereits unter anderem auf der englischen, polnischen und dänischen Seite von Wikipedia dokumentiert. So wird sein juristischer Schnellschuss auch in Zukunft ein Abschnitt in seiner Wiki-Biographie bleiben."
  19. Kuessner, T.: Logbuch Mathematik (2020) 0.13
    0.12816663 = product of:
      0.25633326 = sum of:
        0.0434187 = weight(_text_:und in 956) [ClassicSimilarity], result of:
          0.0434187 = score(doc=956,freq=8.0), product of:
            0.14765522 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.066574365 = queryNorm
            0.29405463 = fieldWeight in 956, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=956)
        0.21291457 = weight(_text_:hatte in 956) [ClassicSimilarity], result of:
          0.21291457 = score(doc=956,freq=4.0), product of:
            0.38883966 = queryWeight, product of:
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.066574365 = queryNorm
            0.5475639 = fieldWeight in 956, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.8406816 = idf(docFreq=350, maxDocs=44421)
              0.046875 = fieldNorm(doc=956)
      0.5 = coord(2/4)
    
    Abstract
    Ein Beitrag zum Einbürgerschaftsgespräch mit Kurt Gödel und der Verarbeitung in Daniel Kehlmann: Geister in Princeton.
    Content
    Kurt Gödels Staatsbürgerschaftstest "Nun, Mister Gödel, wo kommen Sie her?" "Wo ich herkomme? Österreich." "Was für eine Regierung hatten sie in Österreich?" "Es war eine Republik, doch die Verfassung war so, dass sie in eine Diktatur verwandelt wurde." "Oh, das ist schlecht. Das kann in diesem Land nicht passieren." "Aber ja. Ich kann es beweisen." "Oh Gott. Lassen wir uns da nicht ins Detail gehen." Dieses Gespräch führte Kurt Gödel 1947 bei seinem Einbürgerungstest. Zur Vorbereitung auf die Prüfung hatte er in den Monaten zuvor die Verfassung der USA gelesen. Dem Spieltheoretiker Oskar Morgenstern hatte er danach aufgeregt von inneren Widersprüchen in der Verfassung erzählt und dass es auf völlig legale Weise möglich sei, "ein Diktator zu werden und ein faschistisches Regime zu installieren". Um Probleme beim Einbürgerungsgespräch zu vermeiden, begleiteten ihn deshalb Morgenstern und Albert Einstein, die als Bürgen - anders als sonst üblich - mit ihm gemeinsam befragt wurden..
  20. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.13
    0.12786485 = product of:
      0.5114594 = sum of:
        0.5114594 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.5114594 = score(doc=5463,freq=8.0), product of:
            0.46918333 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.066574365 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA

Authors

Languages

Types

  • a 9353
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications