Search (11774 results, page 2 of 589)

  • × language_ss:"d"
  1. Kretschmer, B.; Hackl, Y.; Knapp, M.: ¬Das große Buch Java : mit Top-Index - Nachschlagen für alle Fälle ; heisse Themen, Tips & Tricks: mehr als 100 Programmbeispiele, mit vollständiger Praxisreferenz, verständliche Einführung in die objektorientierte Programmierung (1997) 0.17
    0.17357719 = product of:
      0.69430876 = sum of:
        0.69430876 = weight(_text_:java in 5709) [ClassicSimilarity], result of:
          0.69430876 = score(doc=5709,freq=14.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            1.6480849 = fieldWeight in 5709, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=5709)
      0.25 = coord(1/4)
    
    Abstract
    Von der starren Webseite zum animierten Multimedia-Ereignis - Java macht's möglich. Das große Buch Java führt ausführlich uns schrittweise in die Programmierung mit Java ein
    Object
    Java
    RSWK
    Java <Programmiersprache>
    Subject
    Java <Programmiersprache>
  2. Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004) 0.17
    0.17186476 = product of:
      0.34372953 = sum of:
        0.29339898 = weight(_text_:java in 225) [ClassicSimilarity], result of:
          0.29339898 = score(doc=225,freq=10.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.69644296 = fieldWeight in 225, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
        0.05033056 = weight(_text_:und in 225) [ClassicSimilarity], result of:
          0.05033056 = score(doc=225,freq=30.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.37962294 = fieldWeight in 225, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
    Classification
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Object
    Java
    RSWK
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
    RVK
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Subject
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
  3. Loviscach, J.: Formen mit Normen (2000) 0.15
    0.14959013 = product of:
      0.29918027 = sum of:
        0.26242402 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.26242402 = score(doc=6100,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.036756244 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.036756244 = score(doc=6100,freq=4.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.5 = coord(2/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    Java
  4. Postman, N.: ¬Die zweite Aufklärung : vom 18. ins 21. Jahrhundert (1999) 0.14
    0.14347817 = product of:
      0.28695634 = sum of:
        0.05358097 = weight(_text_:und in 2294) [ClassicSimilarity], result of:
          0.05358097 = score(doc=2294,freq=34.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.40413946 = fieldWeight in 2294, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2294)
        0.23337537 = weight(_text_:humane in 2294) [ClassicSimilarity], result of:
          0.23337537 = score(doc=2294,freq=2.0), product of:
            0.5618414 = queryWeight, product of:
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.05977747 = queryNorm
            0.41537586 = fieldWeight in 2294, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.03125 = fieldNorm(doc=2294)
      0.5 = coord(2/4)
    
    Abstract
    Der amerikanische Kulturkritiker äußert sich sehr kritisch zu den Themen Fortschritt, Technologie, Sprache, Information, Erzählungen, Kinder, Demokratie und Erziehung. Ausgehend von den Erfahrungen der Vergangenheit, entwirft er Handlungsmodelle für die Zukunft. Handlungsanleitungen für die Zukunft. (PI),,Neil Postman ist sowohl für Polemik und Provokation als auch für originelle Denkansätze bekannt. Im vorliegenden Buch spricht er als erklärter "Feind dieses Jahrhunderts", einer Zeit, die wenig gute Ideen hervorgebracht habe, und wendet seinen Blick nach hinten, um in die Zukunft zu sehen. Er erinnert sich dabei an die besseren Träume der Zeit der Aufklärung und stellt gegen die von ihm diagnostizierte psychische Desorientierung der Gegenwart die Rückbindung an eine humane Tradition, die gesunde Autorität, Sinngebung und ein paar gute Ideen für das 21. Jahrhundert anbiete. In 8 Kapiteln schlägt er die Brücke ins 18. Jahrhundert, 8 Schlagworte (Fortschritt, Technologie, Sprache, Information, Erzählungen, Kinder, Demokratie, Erziehung) stellt er in den historischen Kontext und prüft ihre Bedeutung für die Zukunft. Dabei verklärt er die Aufklärung nicht, sieht aber jeweils das "Geschenk" dieser Periode und schöpft aus der Erinnerung an die Vergangenheit auch kritische und polemische Kontraststandpunkte zu Erscheinungen der Gegenwartskultur. Die noch nicht umgesetzen Denkmodelle stellt er anschaulich als mögliche Handlungsmodelle einer humaneren Zukunft vor.
    Neil Postman ist - ganz im Sinne des gegenwärtig verbreiteten amerikanischen Kulturpessimismus - durch aufrüttelnde Warnungen vor den Konsequenzen wissenschaftlich-technischen Fortschritts bekannt geworden. Die Entmündigung der Menschen durch die Technologien, das Ende von Kindheit und Erziehung in der rationalen Welt von heute waren ebenso seine Themen wie die Widerwärtigkeit der Spaß- und Spielgesellschaft. Das vorliegende Buch ist ein Essay im Stile von "Das Beste aus ..." und gibt einen Überblick über die entsprechenden Anliegen Postmans. Der Reader ist eine leicht und flüssig geschriebene Bewertung der Aufklärung. Sie wird positiv beurteilt, wo sie Freiheit, Humanität und eine Reihe weiterer Errungenschaften gebracht hat. Mit pessimistischer Geste wird das Umschlagen der Aufklärung in einen Antihumanismus der Gegenwart beklagt. Die neuen Kommunikationsgewohnheiten, der überbordende Individualismus, die Macht der Technologie und der globalen Konzerne, der Verlust von Kindheit und der Religionen, dies alles rührt an die Wurzeln der Demokratie. Diese Mischung wird mit kräftiger Polemik und vielen undifferenzierten Verkürzungen präsentiert, ohne dass kreative Alternativen ins Auge springen außer ein nicht näher bestimmter idealisierter Aufklärungsbegriff, den es hochzuhalten gälte. Trotzdem, wer sich von den zahlreichen Platitüden nicht abschrecken lässt, wird durch viele historische Verweise belohnt und wird manch eine Anregung erfahren, über die Ambivalenz des Fortschritts nachzudenken.
  5. Pöppe, C.: Blitzkarriere im World Wide Web : die Programmiersprache Java (1996) 0.14
    0.13917135 = product of:
      0.5566854 = sum of:
        0.5566854 = weight(_text_:java in 4404) [ClassicSimilarity], result of:
          0.5566854 = score(doc=4404,freq=4.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            1.3214076 = fieldWeight in 4404, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=4404)
      0.25 = coord(1/4)
    
    Object
    Java
  6. Schoepe, B.: ¬Die Digitalisierung und ihre Effizienzgewinneaus pädagogischer Perspektive : Datenschutzrechtliche Probleme der Coronakrisen-induzierten"Digitalisierungsoffensive". Mit einer kritischen Bewertungzur Einführung der Microsoft 365 / Microsoft Teams -Software an derSekundarstufe Iund II der Fritz-Schumacher-Schule (FSS), Hamburg (2021) 0.13
    0.12815568 = product of:
      0.25631136 = sum of:
        0.05210793 = weight(_text_:und in 1116) [ClassicSimilarity], result of:
          0.05210793 = score(doc=1116,freq=42.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.39302891 = fieldWeight in 1116, product of:
              6.4807405 = tf(freq=42.0), with freq of:
                42.0 = termFreq=42.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1116)
        0.20420344 = weight(_text_:humane in 1116) [ClassicSimilarity], result of:
          0.20420344 = score(doc=1116,freq=2.0), product of:
            0.5618414 = queryWeight, product of:
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.05977747 = queryNorm
            0.36345387 = fieldWeight in 1116, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.02734375 = fieldNorm(doc=1116)
      0.5 = coord(2/4)
    
    Abstract
    Der Text nimmt repräsentative Studien zum negativen Einfluss, den die Digitalisierung des Unterrichts auf die Verbesserung von Lernleistungen hat, zum Anlass über die Effizienzgewinne nachzudenken, die tatsächlich mit der Digitalisierung verbunden sind. Es wird dargestellt, wie unter dem verschärften Handlungsdruck, den die Coronakrise für Schulen ausgelöst hat, sich nun zusätzlicheine Dynamik Bahn bricht, die zur Bevorzugung von Big-Data-Digitallösungen beiträgt und weiter - bei fehlendem Einspruch - dazu führen wird, dass die IT-Konzerne sich die dominante Stellung auf dem bundesdeutschen Bildungsmarkt sichern.Im weiteren Verlauf entfaltet der Text, was unter den tatsächlichen Effizienzversprechen der Digitalindustrie zu verstehen ist, die im Kontext einer algorithmischen und psychometrischen Steuerung verortet werden. Diese werden durch den neoliberalen Schulumbau konsequent in den Dienst genommen. Die Effekte, die sie auf den Lern-und Bildungsbegriff haben, werden ebenso beleuchtet, wie die sich verändernde Rolle des Lehrpersonals, dessen schwindender Einfluss auf pädagogische Prozesse kritisiert wird.
    Die Effizienzgewinne der Digitalisierung werden im Kontext der Etablierung eines neuen Typus von Kontrollgesellschaft diskutiert, der als epochale Zäsur für das Schul-und Bildungssystem dargestellt wird. In diesem Zusammenhang wird aufgezeigt, wie durch die beabsichtigte Digitalisierung Methoden des Profiling, der Verhaltenssteuerung und des Mental-Programming (vulgo: Gehirnwäsche) die Klassenzimmer erobern. Komplementär dazu wird die Rolle der Empirischen Bildungsforschung, der kompetenzorientierten Bildung und des sogenannten Bildungsmonitorings als neue Ideologie-, Konditionierungs-und Kontrollinstanzen des Schulumbaus untersucht und kritisch gedeutet.
    Es wird dargelegt, inwieweit die Prämissen, Modelle und die auf die Praxis durchschlagenden Effekte dieser Change-Agenten neoliberaler Schule ihrerseits die Digitalisierung in der überwachungskapitalistischen Variante begünstigen bzw.deren Einfluss auf die Gesellschaft insgesamt verstärken. Anhand von Beispielen und eines Rückblicks werden Belege für die These gesammelt, dass die Change-Agenten maßgeblich einen neuen postdemokratischen Herrschaftstypus mit ausbilden helfen, der auf die psychopolitische Steuerung der Subjekte und eine Entsolidarisierung bzw.Dysfunktionalisierung durch Desintegration der Kollektive hinausläuft.
    Um den dystopischen Gefahren zu begegnen, die diese Befunde verdeutlichen, plädiert der Text für eine Stärkung des Persönlichkeitsschutzes und der Belange des Datenschutzes an Schulen und erklärt seine Gewährleistung zur "Gretchenfrage", ob die drohende Dehumanisierung der Schulen noch abgewendet werden kann. An zwei konkreten Beispielen schulischer Praxis, der Einführung von Microsoft 365 und dem integrierten Tool Microsoft Teams, werden die rechtlichen und professionsethischen Probleme dieser Software -Tools exemplarisch verdeutlicht. Zum Schluss nimmt der Text die jüngsten Erfolge bürger-und datenschutzrechtlichen Engagements, das zu wegweisenden Urteilen der höchsten Gerichtsinstanzen geführt hat, zum Anlass, um die Rechtmäßigkeit der Microsoft-Programme in führung abzuschätzen. Darüber hinaus werden die Chancen einer "alternativen Digitalisierung" (nicht nur) für Schulen aufgezeigt. Der Text endet mit dem Aufruf,sich als Pädagoge der Verantwortung durch die neuen Medien zu stellen. Er deutet Veränderungen an, die jenseits der Digitalisierung als die eigentlichen Herausforderungen für Schule anzusehen sind und appelliert an Kolleginnen und Kollegen und eine breite, kritische Öffentlichkeit, sich für die Umsetzung einer alternativen, technisch lange bereits möglichen Digitalisierung für eine humane Bildung und eine freie Gesellschaft einzusetzen.
  7. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.13
    0.12526914 = product of:
      0.2505383 = sum of:
        0.1855618 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.1855618 = score(doc=217,freq=4.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.06497647 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.06497647 = score(doc=217,freq=50.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  8. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.12
    0.12228289 = product of:
      0.24456578 = sum of:
        0.19681802 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.19681802 = score(doc=977,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.04774776 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.04774776 = score(doc=977,freq=12.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  9. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.11741075 = product of:
      0.2348215 = sum of:
        0.16401502 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.16401502 = score(doc=50,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.070806466 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.070806466 = score(doc=50,freq=38.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  10. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.115290396 = product of:
      0.23058079 = sum of:
        0.19681802 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.19681802 = score(doc=1181,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.033762768 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.033762768 = score(doc=1181,freq=6.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  11. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.11528941 = product of:
      0.23057882 = sum of:
        0.1855618 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.1855618 = score(doc=1761,freq=4.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.045017023 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.045017023 = score(doc=1761,freq=24.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  12. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.11072571 = product of:
      0.22145142 = sum of:
        0.16236658 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16236658 = score(doc=5002,freq=4.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.059084836 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.059084836 = score(doc=5002,freq=54.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  13. Was kommt nach der Informationsgesellschaft? : 11 Antworten (2002) 0.10
    0.10017201 = product of:
      0.20034403 = sum of:
        0.05448443 = weight(_text_:und in 2504) [ClassicSimilarity], result of:
          0.05448443 = score(doc=2504,freq=90.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.41095388 = fieldWeight in 2504, product of:
              9.486833 = tf(freq=90.0), with freq of:
                90.0 = termFreq=90.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2504)
        0.1458596 = weight(_text_:humane in 2504) [ClassicSimilarity], result of:
          0.1458596 = score(doc=2504,freq=2.0), product of:
            0.5618414 = queryWeight, product of:
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.05977747 = queryNorm
            0.2596099 = fieldWeight in 2504, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2504)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: BuB 55(2003) H.4, S.264-265 (H.-D. Kübler): "Noch ist die "Informationsgesellschaft", nicht hinlänglich etabliert, erst recht nicht weltweit, noch streiten sich viele um ihre validen Charakteristika und registrierbaren Indikatoren, noch dürften viele Zeitgenossen mit dem Begriff und vor allem mit seinen konkreten Realia wenig anfangen und in ihrem Bewusstein zumal angesichts vieler vorderhand drängenderen Probleme des Alltags verankert habenda fragt die rührige Bertelsmann Stiftung in diesem (ansprechend gestalteten) Sammelband (schon in zweiter Auflage) internationale Experten danach, was ihres Erachtens oder nach ihrer Fantasie danach kommen wird: die Wissensgesellschaft, die selbstorganisierende Gesellschaft, die Hightouch- (statt Hightech)Society oder einfach mannigfaltige, immer weniger prognostizierbare Formationen und Zukünfte. Denn mindestens in zwei Pole lassen sich die elf, wohl willkürlich gewählten Autoren aus diversen Disziplinen - darunter auch notorische Propheten wie der umtriebige (Seite 46) Trendscout Matthias Horx, der Essener Medienguru Norbert Bolz und der Computer-Visionär John Naisbitt- aufteilen. - Durchwurstelei statt Nachhaltigkeit - Da sind zunächst die einen, die meinen, und just in diesen Aufsätzen meist mit vielen, sich auch widersprechenden Worten begründen, dass und warum Zukunftsprognosen, die über simple und damit irreführende Extrapolationen der Gegenwart hinausreichen wollen, kaum mehr oder gar immer weniger möglich sind. So fragt sich der Kommunikationswissenschaftler Holger Rust zunächst, in welcher Gesellschaft wir leben, zumal für ihn nicht einmal eindeutig ist, wann die Informationsgesellschaft beginnt: War's mit dem Buchdruck oder 1901 mit der Erfindung des Telegrafen oder 1956 mit der Gründung des Shockley Semiconductor Laboratory oder erst mit dem World Wide Web? Genüsslich verweist er auf die kürzlich (2000) erschienene Recherche (»In welcher Gesellschaft leben wir?«) des Münchner Journalisten Achim Pongs, der allein schon für die Bundesrepublik 24 einschlägige Etiketten ausmachte, und schlägt unter den Vorzeichen des wachsenden Naming die sperrige, aber wohl alle ironisch einvernehmende Kompromissformel »informationstechnologiebasierte Wissensdienstleistergesellschaft mit industriellem Kern« (Seite 66) vor. Da fehlt wohl nichts mehr von den wohlfeilen Attributen. Zuvor schon plädieren Eckhard Minx, Leiter der Forschungsgruppe »Gesellschaft und Technik« bei DaimlerChrysler, und seine Mitarbeiter mit nüchternem, aber kritischem Gespür dafür, die vielen eher technisch und ökonomisch formierten »Denkblockaden« weg zu räumen und mehr Utopien in »diskursiven Prozessen« zu entwickeln. Denn nur so ließe sich mit der »Zwickmühle« umgehen, in der wir stecken: »Auf der einen Seite wird der Druck, Aussagen über die Zukunft zu treffen, immer größer, auf der anderen Seite sind verlässliche Vorhersagen meist nicht möglich« (Seite 30).
    Auch die Zukunftsforscher Klaus Burmeister, Andreas Neef und Beate Schulz-Montag versprechen sich von einer »gut entwickelten Diskurskultur« (Seite 116) »kreative Verknüpfungen«, Impulse und auch mehr Verantwortungsbereitschaft in einer generell nicht voraussagbaren, weil überaus widersprüchlichen und risikobehafteten »Crossover Socitey«. Selbst Norbert Bolz kann entgegen seinen früheren gewissen Visionen, »nüchtern betrachtet [...], nichts über die Zukunft sagen, sondern allenfalls etwas über ihre Möglichkeiten- und die Grenzen ihrer Andersartigkeit«. Denn »je mehr das Wissen die Zukunft prägt, desto weniger kann man von der Zukunft wissen« (Seite 210). Gleichwohl nimmt er »nach einem halben Jahrhundert [...] wieder Abschied« von der »Informationsgesellschaft«, und irgendwie im Fortgang seines »Blindfluges ins 21. Jahrhundert« werden ihm seine schon vielfach publizierten Vokabeln wieder gewiss (wie schon jenes Zitat ahnen lässt): »Weltkommunikation« ist eine, bei der man den Raum preisgibt, »um die Zeit zu binden« (Seite 201), oder »Wissensgesellschaft«, weil jetzt Wirtschaft und Bildung konvergiere und die »Produktivität der geistigen Arbeit entdeckt« werde, oder - nun endgültig - das Ende jeder großen Theorie, weil sie der »Inbegriff aller Versuche [ist], der Praxis zu entfliehen« (Seite 216). Nun also vernimmt der Zuhörer aus eitlem wissenschaftlichem Munde: »Kehrtmarsch!«, denn angestimmt wird jetzt das forsche Lied des »Sichdurchwurstelns«, weil eine solche Politik viel erfolgreicher ist »als die Strategie der Nachhaltigkeit und Antizipation« (Seite 214). Ob sich damit auch der visionär und strategisch operierende Think Tank Bertelsmann Stiftung angesprochen fühlt? - Welt als Text - Ungeachtet solcher Bedenken und Warnungen, entwirft die andere Gruppe nach wie vor ihre Zukunftsvisionen undwohlfeilen Etiketten für die nunmehr Nach-Informationsgesellschaft: Gemein ist ihnen fast allen die Abkehr von vorwiegend technischen und ökonomisch bestimmten Formationen, wozu sie die Informationsgesellschaft fast einhellig und erstaunlicherweise zählen; dies auch den hier noch unbelehrbaren Protagonisten ins Stammbuch geschrieben! Denn die Technik integriere sich mit Gen-, Nanound sonstigen Soft-Technologies in die alltäglichen Systeme oder gar in die menschlichen Organe, was selten als problematisch erachtet wird; das »Reich der Notwendigkeiten« und Zwänge eskamotiere. In den Mittelpunkt rücke (wieder) das Individuum, das Humane schlechthin, mindestens die Fähigkeiten der Selbstorganisation, Selbstbestimmung, der Dezentralisierung und weitgehenden Freiheiten. Ideelle Kräfte und Werte werden demnach vorrangig, »Nachhaltigkeit« - so lässt sich Computer-Guru John Naisbitt im Gegensatz zu Norbert Bolz vernehmen - »ist die Zukunft« (Seite 233), aber dafür bedarf es für ihn der Informationstechnologien. Der dänische Autor Rolf Jensen wähnt wie in seinem Buch (1999) die »Dream Society« heraufziehen, weil die Menschen für ihre emotionalen Bedürfnisse gute Geschichten brauchen, selbst wenn sie nur den Waren als Marketingzusatz beigegeben sind - als Gebrauchswertversprechen, wie man das früher nannte. Das Science-Fiction- und Zukunftsforscher-Ehepaar Angela und Karlheinz Steinmüller argumentiert sich in einem sokratischen Dialog in eine eher wunderliche Epoche von Erzählungen und Mythen hinein, und Steve Talbott, Herausgeber der elektronischen Zeitschrift »NetFuture«, verwirft ebenfalls den Informationsgriff und postuliert als lebenswerte Kategorien hingegen Sinn und Bedeutung: Auch Naturwissenschaftler und Okonomen müssten »die Welt« als einen »sinnvollen Text« begreifen und nicht länger mehr als »informationelles System«.
    - Zukünftegestalten - So scheint der Informationsbegriff und mit ihm die Informationsgesellschaft schon mächtig dekonstruiert - oder soll man schon sagen: denunziert? -, ob auf seriösem, realistischem Fundament oder in reichlich spekulativen, idealistischen Höhen, scheint dahingestellt. Das Unbehagen ob ihrer Unschärfe und ihrer semantischen Implikationen seit ihren nachrichtentechnischen Anfängen schwärt ja schon lange - und wurde auch in dieser Zeitschrift diskutiert. Aber so recht etwas Neues und Treffenderes zur Beschreibung des zweifellos stattfindenden Strukturwandels ist (noch) nicht zur Hand, mindestens nicht hinlänglich akzeptiert. Und immerfort mit dem Präfix »Post-« zu operieren, befriedigt auf Dauerebensowenig. So kann sich der Autor des Vorworts, Michael Kühlen, ebenfalls nur für den Plural, für »Zukünfte«, aussprechen, weil dadurch die »Gestaltbarkeit des Kommenden in den Mittelpunkt« gestellt und die »Autonomie des Menschen« betont werden (Seite 14). Aber ist solche Rede nicht wieder maßlos optimistisch und damit unrealistisch - solange solche Ziele und Werte nur beschworen, aber nicht in ihrem realen Wettstreit mit den weniger (oder zumindest nicht von vielen) beeinflussbaren Kräften austariert werden? Solche im guten Sinne pragmatische (und auch einigermaßen taxierbare) Szenarios findet man zu wenige in diesen elf Zukunftsskizzen."
  14. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.09840901 = product of:
      0.39363605 = sum of:
        0.39363605 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.39363605 = score(doc=1743,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  15. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.09840901 = product of:
      0.39363605 = sum of:
        0.39363605 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.39363605 = score(doc=2137,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  16. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.098251626 = product of:
      0.19650325 = sum of:
        0.16401502 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.16401502 = score(doc=729,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.032488234 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.032488234 = score(doc=729,freq=8.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  17. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.09676763 = product of:
      0.19353525 = sum of:
        0.13121201 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.13121201 = score(doc=2567,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.062323242 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.062323242 = score(doc=2567,freq=46.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  18. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.09607533 = product of:
      0.19215067 = sum of:
        0.16401502 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.16401502 = score(doc=617,freq=2.0), product of:
            0.42128214 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05977747 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.028135637 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.028135637 = score(doc=617,freq=6.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  19. Dueck, G.: Supramanie : vom Pflichtmenschen zum Score man (2006) 0.10
    0.09554066 = product of:
      0.19108132 = sum of:
        0.04522171 = weight(_text_:und in 1657) [ClassicSimilarity], result of:
          0.04522171 = score(doc=1657,freq=62.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.34108895 = fieldWeight in 1657, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1657)
        0.1458596 = weight(_text_:humane in 1657) [ClassicSimilarity], result of:
          0.1458596 = score(doc=1657,freq=2.0), product of:
            0.5618414 = queryWeight, product of:
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.05977747 = queryNorm
            0.2596099 = fieldWeight in 1657, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.01953125 = fieldNorm(doc=1657)
      0.5 = coord(2/4)
    
    Abstract
    Dueck's kultige Bücher sind ja immer mit einer ziemlich brennenden Fackel geschrieben: Licht und Leidenschaft! Diesmal sieht es mehr nach Rasiermesser aus: Supramanie ist eine Reise ins Dunkle des Menschen, das in ihm nach Dueck's Darstellung planmäßig durch die ökonomischen Turbo- und Anreizsysteme erzeugt wird. Übertriebene Leistungssysteme der Bildung und Arbeit träufeln uns unaufhörlich ein: "Du bist nicht gut genug!"&nbsp;Wir laugen aus oder beginnen im Alltag zu schummeln, zu schönen, zu schmücken und anzugeben. So manipulieren wir heimlich an unserer persönlichen Ich-AG-Bilanz. Wir sind wie ein Abbild der Suprasysteme geworden, über deren Bilanzskandale wir uns empören. Eigenartig, wie der Leser leicht-satirisch-sanft bis zur Fassungslosigkeitsgrenze geführt wird. Antikriegsfilme verstören mit so viel Blut, dass wir nie mehr Grausamkeit mögen. Dieses Buch will für das Wahre und Humane erschrecken.
    Content
    Inhalt: Teil 1: Oben und Unten mit System.- Die Pflicht zum Erfolg: Der Supratrieb.- Der gute Systemdurchschnitt und The Organization Man.- Elemente der Wirksamkeit.- Das Ganze erbauen.- Das Suprasystem.- Der Score-Man.- Das Ganze ist weit weniger als die Summe der Teile.- Zeit der Suprasysteme - Zeit der Raubtiere.- Teil 2: Der punktegepflasterte Umweg.- Die Versuchung der Punkte.- Topimierung: Bestmöglichkeit richtiger Menschen.- Utopimierung: Ideentraum der wahren Menschen.- Ontopimierung: Stolzäußerung des natürlichen Menschen.- Im Strudel von Suprasystem und Supramenschen.- Sacrificium, Martyrium, "Deficior!".- Teil 3: Intellektuelle Tränen.- Gesamtkonzept Supra-Mensch.- Supratrieb und die Pyramidenwerte.- Unweg und Tao.
    Footnote
    Rez. 1. Aufl. in: Spektrum der Wissenschaft (C. Pöppe): "Die herkömmliche Auffassung des menschlichen Arbeitslebens "erfährt in diesen Jahren eine Revolution". Die Arbeitswissenschaftler haben erkannt, dass der Mensch die klassische Forderung nach Disziplin und Pflichttreue zwar erfüllen kann, aber nur durch Unterdrückung seines eigenen Willens und seiner Begierden. Einen wesentlichen Teil seiner Energie setzt er also nicht für die Arbeit ein. Kann man diese Energien mobilisieren? "Lässt sich Gier oder Siegeswille in Arbeit verwandeln?" Ja - und zwar im Prinzip ganz einfach. Man stelle dem Menschen sein Gehalt nicht dafür in Aussicht, dass er tut, was ihm gesagt wird, sondern dafür, dass er auf irgendeiner Leistungsskala möglichst viele Punkte erreicht. Das klingt einleuchtend. Nicht Vernunft noch Intuition, sondern weit gehend unbewusste Triebe und Ängste bestimmen vorrangig das Verhalten des Menschen - Gunter Dueck, Mathematiker und Manager bei IBM, hat das in seinem letzten Buch "Omnisophie" (Spektrum der Wissenschaft 11/2003, S. 88) ausgeführt, indem er nicht drei Seelen in der Brust des Menschen, sondern drei sehr verschiedene Computer in seinem Hirn postulierte. Also appelliere man nicht an seine Vernunft oder sein Pflichtbewusstsein, sondern spreche durch gezielte Anreize die mächtigsten Triebfedern in seinem Innersten an: seine Geldgier und seine Angst vor Minderwertigkeit. Für Verkäufer, die von Provisionen leben, ist das nichts Neues; neu ist, dass dieses Prinzip auf viele andere Berufe übertragen wird, auch solche, in denen die Leistung nicht an der Zahl gefertigter Werkstücke oder verkaufter Versicherungsverträge ablesbar ist. Wo ein solcher quantitativer Maßstab fehlt, wird flugs einer definiert. Und damit beginnt das eigentliche Übel. Dueck beschreibt die Folgen aus profunder Insiderkenntnis. Bei allem, was der Mitarbeiter tut, denkt er an seine Punkte und handelt danach. Für Zusammenarbeit und Hilfe unter Kollegen ist da wenig Platz, denn das System der Punktezumessung ist so ausgelegt, dass alle Leistungen einzelnen Mitarbeitern zugerechnet werden ("accountability"). In der Regel misst ein solches Punktesystem nur einen Teil dessen, auf das es wirklich ankommt, und lädt damit zu widersinnigem Verhalten ein: Ein Verleger, dessen Leistung nur an der Anzahl publizierter Bücher gemessen wird, kann mächtig Punkte machen (und seinen Geschäftsführer positiv beeindrucken), indem er jede Menge Bücher auf den Markt bringt, die mangels Qualität besser ungedruckt geblieben wären.
    Selbst wenn der Leistungsmaßstab an sich nicht zu beanstanden ist, kann die ausschließliche Orientierung an Kennzahlen zu absurden Ergebnissen führen. Beispiel "Mitarbeiterzufriedenheit": Die Anzahl der Kündigungen ist ein guter Indikator. Was macht der Chef, der auf der Skala "Mitarbeiterzufriedenheit" hohe Punktzahlen erzielen will? Er gewährt seinen Leuten reich dotierte Aktienoptionen, die man nur nutzen kann, wenn man in fünf Jahren noch bei der Firma ist. Daraufhin sinkt die Kündigungsrate - die Leute haben jetzt ja mehr zu verlieren -, aber die Zufriedenheit ist nicht angestiegen! Alle Jahre aufs Neue schaut sich die oberste Geschäftsleitung der Firma die zahlreichen Kennzahlen an, mit denen der Zustand der Firma gemessen wird, findet eine, die im Argen liegt (Umsatz, Gewinn, Kundenzufriedenheit .), und gibt die Anweisung aus, diese und nur diese Kennzahl zu verbessern. Da schaudert es jeden Optimierer, und den Autor, der sich durch neue Optimierungsverfahren einen Namen gemacht hat, erst recht. Denn gerade wenn die Firma in einem optimalen Zustand ist, wird jedes Drehen an einer der zahlreichen Stellschrauben diesen Zustand zunächst verschlechtern. Wenn im jährlichen Wechsel der Geschäftsziele die berüchtigte Konzentration auf die Kernkompetenzen angesagt ist, wird das schlechteste Drittel der Mitarbeiter entlassen. Durch die allgegenwärtigen Punktzahlen glaubt man genau zu wissen, wer das ist. Natürlich gibt sich jeder die größte Mühe, nicht zum schlechtesten Drittel zu gehören, und findet die abenteuerlichsten Wege, seine Punktzahl hochzutreiben, wenn ihm das durch ehrliche Arbeit nicht gelingt. Die Sammlung drastischer Beispiele zu diesem Thema - allenfalls leicht übertrieben, beteuert der Autor - war für mich der eindrucksvollste Teil des Buchs. Ich hätte nie gedacht, dass einige Geschichten aus den Hochburgen des Kapitalismus ausgerechnet Honeckerwitzen zum Verwechseln ähnlich sind. Dueck geht so weit, die jüngsten Bilanzskandale dem allgegenwärtigen Zwang zum Punktebetrug zuzuschreiben und die anhaltend hohe Arbeitslosigkeit der Tatsache, dass moderne Firmen für das unterdurchschnittliche Drittel ihrer Mitarbeiter keine Verwendung mehr zu haben glauben.
    In seiner Darstellung ist die "Supramanie", die Sucht, immer der Erste zu sein, eine Krankheit der Gesellschaft. Die Leidenden sind sowohl die "Leistungsträger", die für viel Geld den höchsten Einsatz bringen, dafür alles andere im Leben hintanstellen und vom vorzeitigen "burn-out" bedroht sind, als auch die Unterdurchschnittlichen, die mit dem Makel der persönlichen Minderwertigkeit leben müssen. Dinge, die das Leben lebenswert machen: Selbstachtung, Vertrauen, Identifizieren mit der Arbeit, Begeisterung, gehen unter in der ewigen Jagd nach den Punkten. Aber die Gesellschaft empfindet sich, zumindest in diesem Punkt, nicht als krank: Es florieren ja gerade die Firmen, die Supramanie praktizieren. Was ist die Krankheitsursache? Ist es die "Omnimetrie" selbst, der Versuch, den ganzen Menschen durch Kennzahlen zu erfassen, oder nur die ungeschickte Anwendung der Omnimetrie, wie Dueck noch in seinem Buch "Wild Duck" annahm (Spektrum der Wissenschaft 11/2000, S. 101)? Diesmal spricht er nicht mehr davon, dass eine noch intensivere Verwendung von Kennzahlen dem Unfug mit den Kennzahlen ein Ende machen könne. Was ist die Therapie der Krankheit? Ein "Zurück zu den alten Zeiten" ist illusorisch. Natürlich gibt es eine theoretische Lösung: "Wie wäre dies? Wir verzichteten auf zwanzig Prozent unseres Gehaltes und drehten das Übermaß der geforderten Arbeits- und Leistungsdichte wieder zurück? Wir bekämen wieder Anerkennung und Dank statt immer nur Geld? Wir würden hochleben statt höherwertig?" Aber Dueck beherrscht das Geschäft der Optimierung viel zu gut, um nicht zu wissen, dass die Gesellschaft als Ganzes sich nicht in diese Richtung bewegen wird. Am Ende entlässt er den Leser ohne Trost. "Der Weise ist so ganz zerrissen. Kann der Welt denn überhaupt geholfen werden? Er weiß es nicht. Will sie sich helfen lassen? Definitiv nicht. Ist ihr klar, dass sie Hilfe braucht? Nicht wirklich. Dies ist Teil des Problems." So muss er sich diesmal mit dem Versuch begnügen, der Welt - oder wenigstens dem Leser - das klar zu machen. Denn für den in die Zukunft gerichteten dritten Teil seiner Trilogie aus "Omnisophie", "Supramanie" und "Topothesie" ringt der Autor noch mit Worten."
  20. Blittkowsky, R.: ¬Das World Wide Web gleicht einer Fliege : Studien versuchen zu erklären, warum Suchmaschinen nicht immer fündig werden (2001) 0.09
    0.09063142 = product of:
      0.18126284 = sum of:
        0.035403233 = weight(_text_:und in 2090) [ClassicSimilarity], result of:
          0.035403233 = score(doc=2090,freq=38.0), product of:
            0.1325804 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05977747 = queryNorm
            0.26703218 = fieldWeight in 2090, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2090)
        0.1458596 = weight(_text_:humane in 2090) [ClassicSimilarity], result of:
          0.1458596 = score(doc=2090,freq=2.0), product of:
            0.5618414 = queryWeight, product of:
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.05977747 = queryNorm
            0.2596099 = fieldWeight in 2090, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.398883 = idf(docFreq=9, maxDocs=44421)
              0.01953125 = fieldNorm(doc=2090)
      0.5 = coord(2/4)
    
    Abstract
    Einer möchte wissen, auf welchen Webseiten sein Name vorkommt. Die andere sucht nach den neusten Sportergebnissen. Ein Dritter recherchiert den Wissensstand über Schrödingers Katze. Internetnutzer befragen jede Minute zu Hunderttausenden Suchmaschinen und Webkataloge. Die wurden, seit das Internet zum Masseninedium herangereift ist, zu Info- (Mono-) Polen für den Zugang zur heterogenen Welt des Web. Dahinter steckt viel Arbeit. Die Suchmaschinen schicken unentwegt Roboter und Agenten los, die Seiten lesen - und Inhalte oder Verweise an mächtige Datenbankservermelden. Täglich entstehen mehrere hunderttausend Webseiten; die Zahl der Adressen, die verarbeitet werden müsste, ist mittlerweile auf mehr als eine Milliarde gewachsen. Nicht nur deshalb wird die automatische Recherche zunehmend schwierig. Eine Untersuchung der Firmen Altavista, Compac und IBM, die die Verbindungen auf 500 Millionen Seiten auswertete, ergab: Im WWW wächst ein Bereich heran, den konventionelle Suchtechnologien nicht erfassen können. Das widerspricht früheren Studien, nach denen zwei beliebige Webadressen höchstens 19 Hyperlinks voneinander entfernt liegen - sich prinzipiell also alles finden lässt. Die Forscher um Altavista-Chefwissenschaftler Andrei Broder vergleichen den Aufbau des World Wide Weh mit der Form einer Fliege. Das Netz gliedert sich demnach in vier Bereiche. Etwa ein Drittel der Seiten fügen den zentralen Kein, um den sich die anderen Gebiete lagern. Den Knoten beschreiben die Fachleute als Giant Strongly Connected Components (SCC): Die Seiten sind untereinander eng verknüpft; es bestehen gute Linkverbindungen zwischen den Angeboten; sie sind leicht zu finden. Ein Viertel der Adressen macht eine Schicht aus, die sich als eine Schleife der Fliege sehen lässt. Es handelt sich vorwiegend um Anfangsseiten, Einstiegspunkte zu Webseiten und inhaltlich sortierende Kataloge.
    Von dort aus sind die zentralen Seiten im Knoten gut erreichbar. Eine zweite Schleife, ein weiteres Viertel aller Webseiten, bilden die Endpunkte - Angebote ohne Links. Sie sind nur über den Knoten erreichbar. Verbleibt etwa ein Fünftel aller Seiten, die gar nicht oder nur indirekt mit dem Knoten verknüpft sind. Letztere werden als Tendrils bezeichnet. Diese Webangebote basieren beispielsweise auf Datenbanken von Unternehmen, Verbänden oder Organisationen. Sie entstehen erst in den wenn sie abgerufen werden - oft in kryptischen Dateiformaten und mit Animationen, Bildern oder Audiodateien angereichert. Surfer können diese Informationen mit Recherchen in den Webseiten der Schleifen aufspüren. Die Agenten der Suchmaschinen dagegen sind darauf trainiert, ständig verfügbare Dokumente im html-Format zu finden. Ihnen entgeht dieser Teil des World Wide Web. Das US-Softwareunternehmen Bright Planet schätzt, das WWW umfasst 2000-mal so viele Seiten, wie alle Suchsysteme zusammen glauben. Auch wenn sie systembedingt nicht alle Seiten kennen: Insgesamt liefern die automatischen Maschinen mehr Ergebnisse als Kataloge wie Yahoo, Dino-Online oder Looksmart. Deren Macher beschäftigen Redaktionsstäbe, die Inhalte recherchieren, sichten und in die Verzeichnisse einordnen. Webkataloge bauen also auf die humane Intelligenz ihrer Rechercheure, die Themen und Seiten verknüpfen sowie Inhalte kommentieren und einordnen. Yahoo, Lieblingskind der New Economy, bringt es indes gerade einmal auf 15 Millionen katalogisierter Webseiten. Gleichwohl kauft Yahoo bei einigen Themen mancher Suchmaschine den Schneid ab: Eine vorstrukturierte, handverlesene Einarbeitung von Inhalten in die Rubriken eines Katalogs kann genauer Auskunft geben.
    Die Spitzenreiter unter den Suchmaschinen sehen sich im Zugzwang, ihren Service zu verbessern. Schließlich sollen die Kunden immer wieder Anfragen starten und damit indirekt die üppigen Werbepreise rechtfertigen. Alltheweb, Google und Altavista erkunden das Netz unterschiedlich. Alltheweb, betrieben vom norwegisch-amerikanischen Unternehmens Fast, setzt bei der Verwaltung der Index-Datenbank auf superschnelle Rechenleistungen und Servertechnologie, damit die richtigen Hyperlinks oben stehen. Etwa 500 Millionen indizierter Webseiten bedeuten für Alltheweb die Pole-Position. Die rein maschinelle Verarbeitung scheint ein gutes Konzept zu sein: Allthewebs Resultatslisten warten mit den besten mehrsprachigen Kommentaren auf. Die Suchmaschine Google, die ihren Namen der Zahl Googol verdankt und eine eins mit hundert Nullen bezeichnet, speichert alle Webseiten lokal auf einer Computerfarm mit 6000 Zentraleinheiten. Sie verwendet ein mathematisches Verfahren, um Webseiten nach inhaltlichen Kriterien zu ordnen. Larry Page und Sergej Brin, die Entwickler des kalifornischen Projekts an der Stanford University, setzen bei der internen Bewertung von Webseiten, dem Page-Ranking, auf die Einschätzungen der Internet-Surfer: Wenn sie einem Verweis auf eine andere Adresse folgen, treffen sie eine intuitive Entscheidung. Sie rufen ein Angebot auf, von dem sie bessere Informationen, eine konkrete Antwort auf ihre Frage erwarten. Page und Brin überlegten, die Summe der Surfentscheidungen kann ihren Inhalt indirekt qualifizieren: Je häufiger eine Webseite ausgewählt wird, desto höher kann ihre Qualität sein - in Bezug auf die inhaltliche Relevanz hinsichtlich eines Themas. Mit einem komplizierten Bewertungsverfahren filtern die Datenbankserver von Google permanent und ohne menschliches Zutun die Entscheidungen unzähliger Surfer Die Ergebnisse von Google gehören nachweisbar zu den besten, die Maschinen weltweit bieten. Altavista ist schon lange im Geschäft. Auch die Manager dieses Unternehmens setzen auf einen hohen technologischen Aufwand. Sie schicken Suchroboter, genannt Scooter, los, die Tag für Tag ungefähr 24 Millionen Dokumente überprüfen und gegebenenfalls der Datenbank hinzufügen. Das entspricht einer Kapazität von 800 DIN-A4-Seiten pro Sekunde. Die Datenbank erfasst alle Worte eines Dokuments. Der Vorteil der Volltext-Indizierung ist offenkundig: Jedes Dokument kann theoretisch auf Grund eines darin enthaltenen Worts sekundenschnell gefunden werden. Altavista kennt 50 Millionen deutschsprachiger Webseiten. Als Spezialität findet sie auch Produktinformationen und Markenbezeichnungen - und sicher auch das Neueste zu Schrödingers Katze

Authors

Languages

  • e 32
  • m 3

Types

  • a 8489
  • m 1870
  • el 890
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications