Search (13208 results, page 4 of 661)

  1. Siebert, I.: Positionen zu RAK / AACR / RDA (2005) 0.10
    0.103414506 = product of:
      0.20682901 = sum of:
        0.04892623 = weight(_text_:und in 5767) [ClassicSimilarity], result of:
          0.04892623 = score(doc=5767,freq=34.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.35362202 = fieldWeight in 5767, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5767)
        0.15790278 = weight(_text_:heißen in 5767) [ClassicSimilarity], result of:
          0.15790278 = score(doc=5767,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.31286076 = fieldWeight in 5767, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5767)
      0.5 = coord(2/4)
    
    Abstract
    Der folgende Text stellt die leicht überarbeitete Fassung eines Referats dar, das die Verfasserin am 19. Mai 2005 auf der Sitzung der Sektion IV des DBV in Heidelberg vorgetragen hat. Es enthält eine deutliche Kritik an den Migrationsbestrebungen der Deutschen Bibliothek und des Standardisierungsausschusses und fordert die Fertigstellung von RAK2. Die anwesenden Mitglieder der Sektion IV unterstützten diese Position mit großer Mehrheit bei nur fünf Enthaltungen und einer Gegenstimme. Zwei Monate später reagierte die Deutsche Bibliothek auf dieses Referat mit einem offenen Brief an die Autorin. Bedauerlicherweise geht die Deutsche Bibliothek in ihrem Schreiben nicht auf die in dem Vortrag formulierten entscheidenden Kritikpunkte an den Migrationsplänen bzw. vorhersehbaren Migrationsfolgen ein: Zu hohe Kosten, Verhinderung notwendiger Innovationen, fehlender Nutzen für die Nutzer, Vernichtung von Medienerwerbungsmitteln, Inkonsistenz der Kataloge sowie unzureichende Beteiligung der bibliothekarischen Öffentlichkeit. Fast gleichzeitig mit diesen Ereignissen entstand der Eindruck, als sei die ganze Debatte Schnee von gestern. Was war geschehen? Unsere amerikanischen Kollegen hatten die vom Joint Steering Committee vorgelegten Entwürfe für AACR3 als unmodern, unabgestimmt und nicht mit anderen Standards zusammen passend (!) scharf kritisiert. Anders als in Deutschland, wo die begründete fachliche Kritik an den Migrationsplänen konsequent ignoriert wird, hat das Joint Steering Committee auf die Anregungen der bibliothekarischen Öffentlichkeit reagiert und seine Entwürfe zurückgezogen. Damit waren auch die Migrationsvorstellungen des Standardisierungsausschusses Makulatur und die in diese Diskussion investierten Energien und Kosten vergebens. Die neuen Pläne der Amerikaner heißen RDA, Resource Description and Access. Von RDA erhofft man sich, dass sie moderner, schlanker und zeitgemäßer seien als AACR2. Die Fertigstellung ist für 2008 vorgesehen. Ob der Zeitplan eingehalten werden kann, ist angesichts der vorausgegangenen Erfahrungen mit AACR mehr als zweifelhaft.
    In einer Informationsveranstaltung im Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen in Köln hat die Deutsche Bibliothek am 11. November 2005 unter dem Titel "RAK, RSWK, AACR, IME-ICC, RDA - Wohin geht die Regelwerksentwicklung?" die neuen Pläne vorgestellt. Kompetente Bibliothekare gewannen dabei den Eindruck, dass die Katalogisierung durch RDA nicht einfacher, sondern im Gegenteil komplexer, komplizierter und damit auch zeitaufwändiger würde. Ganz unabhängig davon, ob die RDA unseren Vorstellungen entsprechen werden oder nicht, die deutschen Bibliotheken verlieren weitere vier, fünf oder mehr Jahre für die seit langem gewollte Modernisierung und Vereinfachung ihrer Katalogisierungsarbeiten. Durch den Verzicht auf die Ausarbeitung und Einführung der schon seit 1993 vorliegenden deutschen Regelwerksreform, RAK2 bzw. RAK-Online, das sklavische Sich-abhängig-machen von einer kaum zu beeinflussenden und nicht kalkulierbaren internationalen Entwicklung sowie das systematische Ignorieren berechtigter Fachkritik hat eine jahrzehntelange Verschleppung der dringend erforderlichen Rationalisierung der Katalogisierung zur Folge und stellt damit eine große Verschwendung an Personalressourcen und Steuermitteln dar. Die Migration nach AACR2/3 ist Schnee von gestern, nicht jedoch die Kritik der Umstiegsskeptiker an der Vorgehensweise der Deutschen Bibliothek und des Standardisierungsausschusses und die Fragen nach der Wirtschaftlichkeit und dem Nutzen des nun zur Debatte stehenden Regelwerks RDA. Der nachfolgende Text meines Vortrags bleibt deshalb ebenso wie die schon vor Jahren geäußerte Kritik an den Migrationsplänen mit großer Wahrscheinlichkeit weiter aktuell, sofern man die Abkürzung AACR gegen RDA austauscht oder diese ergänzt.
  2. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.10269707 = product of:
      0.41078827 = sum of:
        0.41078827 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.41078827 = score(doc=1743,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  3. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.10269707 = product of:
      0.41078827 = sum of:
        0.41078827 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.41078827 = score(doc=2137,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    
  4. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.10269707 = product of:
      0.41078827 = sum of:
        0.41078827 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.41078827 = score(doc=2035,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  5. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.10269707 = product of:
      0.41078827 = sum of:
        0.41078827 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.41078827 = score(doc=2050,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  6. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.10253283 = product of:
      0.20506565 = sum of:
        0.17116179 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.17116179 = score(doc=729,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.033903867 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.033903867 = score(doc=729,freq=8.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  7. Erben, K.M.: ¬Das Internet wird menschlich : Web-Guides sind die neuen Pfadfinder im Dschungel des Netzes (2001) 0.10
    0.101930484 = product of:
      0.20386097 = sum of:
        0.04595819 = weight(_text_:und in 6735) [ClassicSimilarity], result of:
          0.04595819 = score(doc=6735,freq=30.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.33217007 = fieldWeight in 6735, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6735)
        0.15790278 = weight(_text_:heißen in 6735) [ClassicSimilarity], result of:
          0.15790278 = score(doc=6735,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.31286076 = fieldWeight in 6735, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.02734375 = fieldNorm(doc=6735)
      0.5 = coord(2/4)
    
    Abstract
    Sie kamen, sie surften - und gingen zurück an den Strand", so überschrieb die British Virtual Society letzten September eine Analyse, die sich mit dem neuen Phänomen der "Web-Verweigerer" beschäftigt. Web-Verweigerer das sind die Leute, die für ein paar Tage oder Wochen ins Netz schauen und dann zu der Ansicht kommen: "Das ist nichts für mich." Für diese Entscheidung werden unterschiedliche Gründe genannt: zu teuer, zu zeitraubend und, immer wieder, zu technisch. Viele Menschen mögen einfach nicht mit Maschinen kommunizieren. Das gilt auch für diejenigen, die in den Statistiken als Internet-Anwender erscheinen. Sie versenden E-Mails, weil das zu ihrem Job gehört. Sie erledigen BankÜberweisungen am PC, weil sie wählend der Schalterstunden keine Gelegenheit dazu haben. Im äußersten Fall suchen sie bei www.bahn.de auch einmal, eine Zugverbindung. Für alles Weitere fehlen ihnen die Lust und die Erfahrung. Suchmaschinen - sofern sie sie überhaupt kennen - sind ihnen ein Graus. Der Anteil dieser Gruppe in der angeblich unaufhaltsam steigenden Anwenderzahl ist nicht bekannt. Schätzungen von einem Drittel und höher erscheinen jedoch realistisch. "Netzferne" in der Mehrheit - Zusammengerechnet bilden die, die keinen Zugang zum Netz haben oder, die Möglichkeiten der Technik nur unvollkommen oder widerstrebend nutzen, noch auf lange Zeit die Mehrheit der Bevölkerung. Und niemand, der von ECommerce spricht kann dieses Kundenpotential ignorieren. Auf die Bedürfnisse dieses "netzfernen", noch unerschlossenen Potentials ist das neue Angebot des Internet-Auskunftsdienstes zugeschnitten. Denn der Befund ist eindeutig: Weitaus mehr Mitglieder der Zielgruppe als erwartet sind entweder unwillig, die von der Technik gebotenen Möglichkeiten zu nutzen, oder sie verfügen nicht über die dazu erforderliche Erfahrung und Computerkompetenz. Die heftige Diskussion über die benutzerfreundliche Gestaltung von Websites ("usability") ist eine Reaktion darauf. Der "menschliche Faktor" ist ein anderer, neuer Lösungsansatz in der Überwindung des Mankos. "Web-Guides" heißen die Pfadfinder beim Hindernislauf durch den Internet-Dschungel, die nebenbei auch als Pioniere in einem neuen Beruf agieren. Idee und Konzept der WebGuides folgen der Einsicht, daß noch mehr Technik eben die Probleme nicht löst, die sich in dem verbreiteten Unbehagen im Umgang mit Technik äußern, Von Robots und intelligenter Software sollte man nicht mehr erwarten, als sie leisten können. Diese Lücke bietet die Chance für den menschlichen Faktor. Konkret heißt das: jedem, der Interesse an Informationen und Dienstleistungen aus- dem Internet hat, bietet beispielsweise die "AllesAuskunft" von talking. riet einen menschlichen Ansprechpartner als Vermittler oder Unterstützer. Und das nicht selten bei höchst persönlichen Fragen. Web-Guides verfügen nach einer eigens konzipierten Schulung über die NetKompetenz, die ungeübten oder auch nur ungeduldigen Netz-Anwendern abgeht. Web-Guides kennen Informationsangebote, Register und Suchmaschinen, und sie wissen, wie man am schnellsten Resultate erzielt. Sie sind die menschliche Clearingstelle zwischen den Informationsschätzen der Wissensgesellschaft und den ratlosen Schatzsuchern. Ein Telefon genügt fürs erste - In der ersten Ausbaustufe sind die WebGuides über Telefon oder E-Mail erreichbar. Schon hier können sie die große Stärke des unmittelbaren Kontakts ausspielen. Im persönlichen Gespräch, mit dem Anrufer klären sie, ob das, was er sagt auch das ist, was er sucht. Auf dieser Grundlage. werden einfache Auskünfte sofort erteilt, komplexerer Anfragen nach entsprechender Recherche durch einen Rückruf. Woher diese Auskünfte kommen - aus dem Internet, von der CD-ROM eines Verlages, aus der hauseigenen Datenbank - , spielt für den Anrufer keine Rolle. Was zählt, sind Qualität und Schnelligkeit
  8. Schwarte, J.: ¬Das große Buch zu HTML : Publizieren im Internet; die eigene HomePage im World Wide Web, topaktuell: HTML 3, SGML und Netscape-Erweiterungen (1996) 0.10
    0.100984156 = product of:
      0.20196831 = sum of:
        0.13692942 = weight(_text_:java in 2567) [ClassicSimilarity], result of:
          0.13692942 = score(doc=2567,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.31145877 = fieldWeight in 2567, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
        0.0650389 = weight(_text_:und in 2567) [ClassicSimilarity], result of:
          0.0650389 = score(doc=2567,freq=46.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.47007886 = fieldWeight in 2567, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2567)
      0.5 = coord(2/4)
    
    Abstract
    Mit HTML und diesem Buch kann wirklich jeder im Internet publizieren. Step-by-step-Touren vermitteln das grundlegende Know-how, das Sie in die Lage versetzt, in Eigenregie Homepages erstellen und diese einfallsreich, witzig und übersichtlich zu gestalten. Appetit auf die eigene Homepage machen die mehr als 200 Links zu den heißesten und coolsten HomePages im WWW. Alle Links sind von CD startbar. Dazu gibt es direkt einsetzbare Grafiken, Bars, Lines, Dots und Body-Backgrounds für Ihre WWWDokumente. Vom InfoKonsumenten zum InfoProduzenten. Systematisch führt das Buch in den Aufbau von HTML und in die HTML zugrundeliegende "Sprache" SGML ein. Ausgangspunkt ist dabei sowohl der derzeitige WWW-Standard HTML 2.0 als auch das aktuelle HTML 3.0 mit allen neu hinzugekommenen Möglichkeiten - z. B. mathematischen Formeln und Tabellen sowie den Netscape-Erweiterungen. Natürlich kommen auch aktuelle Trends wie die Handhabung von Client-Site-Imagemaps und des neuartigen Frames-Konzept nicht zu kurz. Trends und neue Entwicklungen. Dreh- und Angelpunkt aller Betrachtungen ist Windows 95. Komplett praxisorientiert zeigt das Buch alle Möglichkeiten grafischer Browser und Editoren unter Windows 95. Zur Sprache kommen HTML-Editoren wie HotMetal, HotDog, Home-Page-Creator, InternetAssistant von Microsoft etc. Auch neue Entwicklungen wie HotJava werden unter der Berücksichtigung ihrer zukünftigen Verwendbarkeit unter Windows 95 betrachtet. Und das Genialste daran: Ein Großteil der Software findet sich direkt startfähig auf der CD. Kurz & bündig. * Für ganz Eilige: Die eigene Homepage mit dem CompuServe Wizzard * SGML: Ein Standard für Textdokumente, die sich elektronisch speichern und austauschen lassen * HTML 2.0 und HTML 3.0: Der erfolgreiche Standard im World Wide Web und der aktuelle Vorschlag für das Publizieren im World Wide Web * HTML-Erweiterungen: neue Attribute zu offizieller Tags, neue Tags für die Schriftgestaltung und zur Einbindung von Multimedia-Dateien, Client-SiteImagemaps u. v. a. m. * Adressierungskonzepte im Internet: IP-Nummern, Anwendungsprotokolle, HTTP-URL's etc. * HTTP-Server und FTP für Windows * Ausblicke auf Java-Applets, Panorama, Hyper-G VRML und HTML als Standard für den elektronischen Informationsaustausch
    Classification
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
    RVK
    ST 250 H85 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen H / HTML; XHTML
  9. Schwarz, I.; Umstätter, W.: Zum Prinzip der Objektdarstellung in SGML (1998) 0.10
    0.100261696 = product of:
      0.20052339 = sum of:
        0.17116179 = weight(_text_:java in 617) [ClassicSimilarity], result of:
          0.17116179 = score(doc=617,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.38932347 = fieldWeight in 617, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
        0.029361611 = weight(_text_:und in 617) [ClassicSimilarity], result of:
          0.029361611 = score(doc=617,freq=6.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.21221566 = fieldWeight in 617, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=617)
      0.5 = coord(2/4)
    
    Abstract
    Semantische Thesauri sind dazu geeignet, Wissen zu strukturieren. Der vorliegende Beitrag soll unter anderem deutlich machen, daß die SGML (Standard Generalized Markup Language) ein mögliches Instrument zum Aufbau semantischer Thesauri ist. Die SGML ist eine Metasprache, die geeignet ist, Texte in natürlicher Sprache mit Strukturen zu versehen, die das Erkennen des Informationsgehaltes eines Dokuments erleichtern. Zugleich wird damit unter anderem die Voraussetzung dafür geschaffen, Volltextindexierungen in einer Weise vorzunehmen, wie dies bislang nicht möglich war. Die rasant zunehmende Bedeutung der SGML, liegt zweifellos an der bekanntesten Document Type Definition (DTD) im Rahmen der SGML, der Hypertext Markup Language (HTML), wie wir sie im WWW (World Wide Web) des Internet in Anwendung finden. Darüber hinaus erfüllt SGML je nach DTD die Bedingungen, die Objektorientiertheit unserer natürlichen Sprache mit ihren definierbaren Begriffen sinnvoll zu unterstützen und beispielsweise mit Hilfe der objektorientierten Programmiersprache JAVA zu verarbeiten. Besonders hervorzuheben ist die sich damit verändernde Publikationsform bei wissensbasierten Texten, in denen SGML-Dokumente nicht mehr nur für sich zu betrachten sind, wie Zeitschriftenaufsätze oder Bücher, sondern die darüber hinaus in Form von Wissenselementen in einer Daten- und Wissensbank organisiert und recherchiert werden können
  10. Ovid announces strategic partnerships : Java-based interface (1997) 0.10
    0.09682372 = product of:
      0.3872949 = sum of:
        0.3872949 = weight(_text_:java in 397) [ClassicSimilarity], result of:
          0.3872949 = score(doc=397,freq=4.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.8809384 = fieldWeight in 397, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=397)
      0.25 = coord(1/4)
    
    Abstract
    Reports agreements between Ovid Technologies and 5 publishing companies (Blackwell Science, Lippincott-Raven, Munksgaard, Plenum, Willams and Wilkins) to secure the rights to the full text over 400 leading periodicals. Once the periodicals are loaded on Ovid they will be linked with other fulltext electronic periodicals to bibliographic databases to produce a web of related documents and threaded information. Concludes with notes on the Ovid Java Client graphic user interface, which offers increased speeds of searching the WWW
  11. Jedwabski, B. u. J. Nowak (Bearb.): Weiter auf dem Weg zur virtuellen Bibliothek! : Bibliotheken nutzen das Internet. Erste INETBIB-Tagung in der Universitätsbibliothek Dortmund vom 11.-13. März 1996 (1996) 0.09
    0.09383604 = product of:
      0.18767208 = sum of:
        0.13692942 = weight(_text_:java in 2121) [ClassicSimilarity], result of:
          0.13692942 = score(doc=2121,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.31145877 = fieldWeight in 2121, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
        0.05074266 = weight(_text_:und in 2121) [ClassicSimilarity], result of:
          0.05074266 = score(doc=2121,freq=28.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.36675057 = fieldWeight in 2121, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2121)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: AHLERS, T.: Sondersammelgebiete im Internet: Bibliothekskooperation im World-Wide Web am Beispiel des WEBIS-Projektes; BINDER, W.: Anforderungen an Internet-basierte Informationssysteme von Bibliotheken; KOCH, T.: Suchmaschinen im Internet; RUSCH-FEJA, D.: Clearinghouses als Vermittlungsstellen für Fachinformation im Internet; DUGALL, B.: Von der Fernleihe zur Dokumentlieferung: überregionale Bestrebungen zur Verbesserung der Literaturversorgung; HOMMES, K.P.: Öffentliche und wissenschaftliche Bibliotheken zusammen?!: Projektbericht 'Verbundkatalogisierung für Öffentliche Bibliotheken'; MAY, A.: Kooperationsversuche - Zum Beispiel Paderborn; PARKER, R.: Das Internet und die Folgen: Erfahrungen und Perspektiven einer britischen Universitätsbibliothek; SEIFFERT, F.: Internet am Beispiel des HBZ: was macht eine Verbundzentrale?; NAGELSMEIER-LINKE, M.: Am Beispiel der UB Dortmund: wir starten ins Internet; TRÖGER, B.: Erziehungswissenschaften im Internet: die Dortmunder Fachinformationsseiten zur Erziehung und Bildung, Sondererziehung und Rehabilitation; SCHRÖDER, K.: Internet-Benutzerarbeitsplätze in der Universitätsbibliothek Dortmund; NIGGEMEYER, E.: Der multifunktionale Benutzerarbeitsplatz; GRIEPKE, G.: Elektronische Zeitschriften im Internet: Publizieren; CREMER, M.: WebDOC: eine PICA-Projekt zur Katalogisierung und Bereitstellung von elektronischen Dokumenten; MÜNNICH, M.: Wir katalogisieren das Internet; PAYER, M.: Wir katalogisieren das Internet: URL's, URN's und Co.; WERNER, M.: Der WWW-Server der HBI-Stuttgart: eine Idee nimmt Formen an; OBST, O.: Medizinbibliotheken als Informationsvermittler; Informationsanbieter und Informationsbenutzer im Netz: die Rolle von EMail; SCHAARWÄCHTER, M.: Electronic-Mail in deutschen Bibliotheken am Beispiel der UB Dortmund: wie ein Medium die Arbeitsweisen revolutioniert; HERGETH, B.: Z39.50 in Bibliotheken und im World-Wide-Web; PFEIFER, U.: Searching structured documents with the enhanced retrieval functionality of free WAIS-sf and SFgate; HANF, M.: HotETHICS: mit Java in die Bibliothek; TOCHTERMANN, K.: Hyper-G und virtuelle Bibliotheken; OßWALD, A.: Internet-Ausbildung am Fachbereich Bibliotheks- und Informationswesen der FH Köln: Ziele und praktische Erfahrungen; WÄTJEN, H.-J.: Hypertextbasierte OPACs im World-wide Web; HEINISCH, C.: Bibliotheken und Software-Firmen: notwendige Zusammenarbeit?; SCHMIDT, R.: Bibliotheken, Verbundzentralen und Internet: was bringt die Zukunft?
  12. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.09383604 = product of:
      0.18767208 = sum of:
        0.13692942 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.13692942 = score(doc=346,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.05074266 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.05074266 = score(doc=346,freq=28.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.
  13. Carr, R.: Leservermehrung : Für eine europäische Perspektive: Die digitalisierte Google-Buchsuche nützt der klassenlosen Wissensgesellschaft (2007) 0.09
    0.093100525 = product of:
      0.18620105 = sum of:
        0.0508558 = weight(_text_:und in 764) [ClassicSimilarity], result of:
          0.0508558 = score(doc=764,freq=50.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.3675683 = fieldWeight in 764, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=764)
        0.13534525 = weight(_text_:heißen in 764) [ClassicSimilarity], result of:
          0.13534525 = score(doc=764,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.26816636 = fieldWeight in 764, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0234375 = fieldNorm(doc=764)
      0.5 = coord(2/4)
    
    Content
    "Die Nachricht, dass sich nun auch die Nationalbibliothek von Katalonien und die Bibliothek der Universität Complutense Madrid in die länger werdende Liste der großen Google-Partnerbibliotheken eingereiht haben und so das ehrgeizige Projekt der GoogleBuchsuche weiter voranschreitet, wird von der' Bodleian-Bibliothek in Oxford ganz besonders begrüßt. Zu Beginn, als im Dezember 2004 fünf Pilot-Bibliotheken es dem Internet-Riesen Google vertraglich gestatteten, Millionen von Büchern aus den Bibliotheksbeständen zu digitalisieren und diese zur allgemeinen Verfügbarkeit ins Web zu stellen, war die Bodleian-Bibliothek das einzige nicht-nordamerikanische Mitglied. Durch den Beitritt von weiteren europäischen Bibliotheken zum Programm der Massendigitalisierung wird nicht nur die Partnerschaft als Ganzes enorm aufgewertet, sondern auch der Umfang und die Reichweite der Google-Buchsuche erheblich erweitert, da jedem Internet-Anwender an jedem Ort der Erde nun auch viele weitere fremdsprachige Texte zur Verfügung stehen. Niemals hat die Bodleian-Bibliothek die Bedenken geteilt, die gegenüber den Google-Aktivitäten und den damit verfolgten Zielen der Massendigitalisierung vielfach geäußert wurden. Sowohl in den USA wie auch in Großbritannien und dem restlichen Europa haben einige Verleger (wenn auch nicht viele), eine Reihe von Autoren (genau genommen ihre Verbände) und auch einige wenige Bibliotheken Einwände gegen Googles groß angelegtes Bücher-Digitalisierungsprojekt erhoben. Größtenteils hingen derartige Bedenken mit der Sorge um den Schutz des Urheberrechtes zusammen, gelegentlich gab es aber auch echte Besorgnis um das wirtschaftliche Fortbestehen der Verlage, des möglichen Verlustes "angemessener Entlohnung" für kreative Schriftsteller und einer eventuellen Schwächung des öffentlichen Stellenwerts von Bibliotheken. (Und hier und da befürchtete manch einer sogar eine Beschädigung der kostbaren Originalexemplare.)
    Die Bodleian-Bibliothek hingegen sieht in der Freigabe ihrer Bücher, die in weitläufigen und riesigen Archiven lagern, die Möglichkeit, zur Schaffung einer besseren Welt für alle Menschen beizutragen, und hat deshalb bereitwillig Millionen relativ unbedeutender; nicht urheberrechtlich geschützter Bücher (aus allen Teilen der Welt und in vielen Sprachen) zur weltweiten Verfügbarkeit ins Internet gestellt. Die altehrwürdige Aufgabe der Bibliothek - mit der sie im 17. Jahrhundert von ihrem Gründer, dem elisabethanischen Diplomaten Sir Thomas Bodley, beauftragt wurde - bestand seit jeher darin, als Wissensquelle zu dienen. Nicht allein für die Universität von Oxford, sondern auch für die außeruniversitäre Welt. Bis zum Aufkommen elektronischer Netzwerke beschränkte sich diese Aufgabe vier Jahrhunderte lang darauf, die Bibliothekspforten all jenen zu öffnen, die das Glück hatten, persönlich nach Oxford kommen zu können. Doch jetzt ermöglicht es das Internet, Sir Thomas Bodleys Vision vom universellen Stellenwert der Bibliothek neu zu interpretieren, indem zur vergleichsweise begrenzten Leserschaft von lediglich 40.000 Personen vor Ort nun möglicherweise Milliarden neuer Leser hinzukommen könnten. Folglich sollte es niemanden verwundern, dass die Bodleian-Bibliothek so gerne bereit ist, gemeinsam mit Google und dessen Partnern die Welt der Bücher und Information für die klassenlose Gesellschaft des World Wide Web zu erschließen. Doch selbst die Formulierung "Erschließung" beschreibt die neuartigen Zugangsmöglichkeiten durch die Google Buchsuche nur unzureichend, denn die digitale Umwandlung und Auffindbarkeit so vieler gedruckter Bücher ermöglicht eine viel bessere Verbreitung und Verfügbarkeit des gesammelten und aufgezeichneten Wissens der Menschheit. Lizenzfreie Bücher gehören dorthin, wo die Weltöffentlichkeit sie auch nutzen kann; und genau dort wollen die Bodleian-Bibliothek und ihre Partnerbibliotheken diese Bücher auch wissen. Egal wie man dazu steht, das Internet ist heutzutage nun einmal die Quelle, in der die Weltöffentlichkeit zuerst nach Informationen sucht. Und dieser unaufhaltsamen Welle des Fortschritts widerstehen zu wollen, heißt lediglich, den Fehler von König Knut dem Großen zu wiederholen, der letztlich einsehen musste, dass auch ein König von England die ansteigende Flut nicht aufhalten konnte. Da die Welt immer weiterreichenden, tieferen und bequemeren Zugang zu ihrem veröffentlichten Erbe erhält, freut sich die Bodleian-Bibliothek umso mehr, zu sehen, wie durch die Ergänzung um eine weitere europäische Dimension ein Zusammenschluss zum unaufhaltsamen und wünschenswerten Fortschritt gegenüber einer Bevölkerung des Internets entsteht, mit mehr und mehr wertvollen Informationen zu Gunsten einer wahren Weltleserschaft. Wir heißen Barcelona und Madrid herzlich willkommen! Mögen viele weitere Teilnehmer folgen..."
  14. Beuth, P.: ¬Die Jagd nach Nutzer-Profilen (2009) 0.09
    0.093100525 = product of:
      0.18620105 = sum of:
        0.0508558 = weight(_text_:und in 20) [ClassicSimilarity], result of:
          0.0508558 = score(doc=20,freq=50.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.3675683 = fieldWeight in 20, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=20)
        0.13534525 = weight(_text_:heißen in 20) [ClassicSimilarity], result of:
          0.13534525 = score(doc=20,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.26816636 = fieldWeight in 20, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0234375 = fieldNorm(doc=20)
      0.5 = coord(2/4)
    
    Abstract
    Microsoft und Yahoo greifen Googles Vorherrschaft in der Online-Werbung an. Wer auf ihre Angebote eingeht, gibt die Kontrolle über seine Daten auf - und damit ein Grundrecht.
    Content
    "Zehn Jahre sind eine Ewigkeit in einem Geschäft, das es erst seit neun Jahren gibt. Und doch haben Yahoo und Microsoft eine Kooperation für diese Ewigkeit verabredet. Der Deal ist ein Zuchtprogramm. Gezüchtet werden soll der Internetnutzer der Zukunft, und das braucht Zeit. Dieser künftige Internetnutzer soll vor allem eins: Geld bringen. Geld von anderen Firmen in die Taschen vom Yahoo und Microsoft. Wie das geht, wissen beide Unternehmen seit dem Jahr 2000, als Google die Vermarktung von Online-Anzeigen revolutionierte. Die Idee, dem Nutzer nur solche Werbung anzuzeigen, die zu seinen Suchbegriffen passt, ist bis heute der Ausgangspunkt von Googles astronomischen Gewinnen und gilt auch für die Zukunft als größte Geldquelle im Netz. Voraussetzung ist, dass die Werbung möglichst präzise an jedne einzelnen Benutzer angepasst wird, damit die Preise für Anzeigen nicht abstürzen. Google sammelt dafür auch Daten über seine populären Dienste Youtube oder Blogger.com. Yahoo tut das gleiche, etwa mit seiner Fotocommunity Flickr. In diesem Zusammenhang ergibt die langfristige Partnerschaft von Yahoo und Microsoft einen Sinn. Der Softwareriese hat viel Geld in die Entwicklung seiner neuen Suchmaschine Bing investiert und wird dies auch in Zukunft tun. Yahoo spart sich diese Ausgaben und konzentriert sich auf sein neues Profil als Anbieter von Online-Inhalten und -Diensten.
    Zusammen soll das ein Konglomerat ergeben, dass es technisch und inhaltlich mit Google aufnehmen kann. Aufnehmen heißt erstens, die Allgegenwärtigkeit von Google-Diensten im Netz angreifen zu können und möglichst viele Internetnutzer an sich zu binden. Aufnehmen heißt zweitens, diese Nutzer eben so gut ausspionieren zu können wie Google das tut. Bausteine für die komplette Durchleuchtung ihrer Nutzer existieren schon bei allen drei Unternehmen. Es sind kleine, unauffällige Links auf ihren Startseiten. Die Bausteine heißen iGoogle, My MSN und MyYahoo. Sie sind die Zukunft der Internetnutzung, so wie sie sich Google, Yahoo und Microsoft vorstellen. Hinter allen drei Links stehen personalisierbare Startseiten, mit denen sich der Nutzer mehr oder weniger seine gesamte Online-Präsenz in ein einziges Browserfenster holt, das er für seine Standardaktivitäten dann kaum noch verlassen muss. Suchmaschine, aktuelle Nachrichten, E-Mails, Messenger oder virtuelle Notizzettel - alles individuell kombinierbar, und alles auf einen Blick. Bezahlen muss der Nutzer dafür nicht, Mitmachen kostet nur eine E-Mail-Adresse und ein Passwort. Nach dem Log-in beginnt das Profiling. Google arbeitet sogar schon am übernächsten Schritt. Der Konzern hat jüngst ein eigenes Betriebssystem angekündigt, das weitgehend netzbasiert arbeiten soll. Dann werden im Browserfenster zusätzlich noch Textverarbeitungsprogramme und Media-Player laufen. Briefe und Tabellen speichert der Nutzer dann nicht mehr auf der Festplatte ab, sondern auf Googles Servern.
    So entstehen noch viel mehr Daten, die einem Nutzer zugeordnet werden können. Wie genau diese weiterverarbeitet und an dritte verkauft werden, kann niemand nachvollziehen. Wer sich darauf einlässt, gibt die Hoheit über seine persönlichen Daten ab und damit ein Grundrecht. Aus informationeller Selbstbestimmung wird informationelle Fremdbestimmung. Es ist natürlich das gute Recht eines jeden, dieses Grundrecht in den Wind zu schlagen. Für viele, nicht nur junge Menschen, ist der Austausch von Informationen aller Art selbstverständlich geworden, um Kontakte zu erhalten und soziale und geschäftliche Netze zu knüpfen. Diejenigen, die andere per Internet nicht nur jederzeit über ihren Gemütszustand, sondern sogar über ihren genauen Aufenthaltsort unterrichten, empfinden personalisierte Werbung möglicherweise sogar als angenehm. Wer aber den Gedanken unheimlich findet, dass jede Firma der Welt einen Datensatz erwerben kann, der Auskunft über seine Wünsche, Neigungen, Fantasien, Krankheiten und Beziehungen gibt, der muss den Log-in verweigern, auch wenn alle Welt freudig mitmacht. Der Preis für den Selbst(-Daten)schutz kann durchaus die soziale Ausgrenzung im Netz sein. Der Internetnutzer der Zukunft wird - so lautet der Plan von Google, Yahoo und Microsoft - einer großen Versuchung ausgesetzt sein: Alles aus einer Hand. Oder anders gesagt: Alles in eine Hand."
  15. Buurman, G.M.: Wissenterritorien : ein Werkzeug zur Visualisierung wissenschaftlicher Diskurse (2001) 0.09
    0.091954 = product of:
      0.183908 = sum of:
        0.13692942 = weight(_text_:java in 6889) [ClassicSimilarity], result of:
          0.13692942 = score(doc=6889,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.31145877 = fieldWeight in 6889, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
        0.046978578 = weight(_text_:und in 6889) [ClassicSimilarity], result of:
          0.046978578 = score(doc=6889,freq=24.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.33954507 = fieldWeight in 6889, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6889)
      0.5 = coord(2/4)
    
    Abstract
    Das Forschungsprojekt »Wissensterritorien« ist im Schwerpunktbereich Interaction-Design/KnowledgeVisualization der Hochschule für Gestaltung und Kunst Zürich angesiedelt. Ausgangspunkt und Grundlage des Projektes ist ein elektronisches Textarchiv der Universität St. Gallen (MCM-Institut, Prof. Dr. Beat Schmid, http://www.netacademy.org). Im Rahmen des Forschungsprojektes sollte die Frage geklärt werden, ob bzw. wie mit Hilfe neuer Medientechniken der Zugang zu diesen (und vergleichbaren) wissenschaftlichen, textgebundenen Informationen optimiert werden kann. Es handelt sich hier um Fragestellungen der Forschungsbereiche Information Retrieval, Data Mining, Scientific Visualization oder Knowledge-Management. Zusätzlich wurde jedoch versucht, diese Problematik designspezifisch, d. h. mit einer Kombination aus inhaltlichen und ästhetischen Lösungsstrategien zu bearbeiten. In einer ersten Phase des Projektes haben sich die Forscher der HGKZ ausführlich mit den Suchmechanismen (semantisch, logisch, ikonografisch) wissenschaftlicher Textarchive beschäftigt. Im Falle der expliziten Suche (der Benutzer weiß, was er sucht: Autorennamen, Herkunft der Texte, Themata, Überschriften u. a.), funktionieren diese meist problemlos. Wird hingegen nach inhaltlich-chronologischen bzw. generisch-inhaltlichen Reihen oder nach diskursiven Formationen einer wissenschaftlichen Fragestellung gesucht, so versagen die meisten Systeme, da sie nicht über geeignete Kategorien (Attribute, die einem Text nicht explizit zugewiesen, d.h. nicht »suchbar« sind) verfügen. Da keine zusätzlichen beschreibenden Metadaten hinzugefügt werden sollten (Erhöhung der Systemkomplexität), wurden die Texte der »Netacademy« selbst nach funktionalisierbaren Hinweisen »befragt«. Mit der Aktivierung der Fußnoten und Anmerkungen sowie einer texteigenen strukturellen Ähnlichkeit gelang es, die inhaltlichen und damit die qualitativen Zusammenhänge der Texte innerhalb einer wissenschaftlichen Disziplin (Teildisziplin) in neuer Weise darzustellen. Basierend auf diesen Überlegungen wurde ein Prototyp erstellt (Java) und mit den verfügbaren Daten der »Netacademy« experimentell getestet. Im Kontakt mit Experten aus den Bereichen Informatik und Computerlinguistik wurde zudem die prinzipielle Eignung des gewählten Ansatzes nachgewiesen. Dieser wird zur Zeit aus der Sicht des Anwenders weiterentwickelt
    Series
    Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis; 4
    Source
    Information Research & Content Management: Orientierung, Ordnung und Organisation im Wissensmarkt; 23. DGI-Online-Tagung der DGI und 53. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. DGI, Frankfurt am Main, 8.-10.5.2001. Proceedings. Hrsg.: R. Schmidt
  16. Lämmel, U.; Cleve, J.: Künstliche Intelligenz : mit 50 Tabellen, 43 Beispielen, 208 Aufgaben, 89 Kontrollfragen und Referatsthemen (2008) 0.09
    0.091954 = product of:
      0.183908 = sum of:
        0.13692942 = weight(_text_:java in 1642) [ClassicSimilarity], result of:
          0.13692942 = score(doc=1642,freq=2.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.31145877 = fieldWeight in 1642, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
        0.046978578 = weight(_text_:und in 1642) [ClassicSimilarity], result of:
          0.046978578 = score(doc=1642,freq=24.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.33954507 = fieldWeight in 1642, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1642)
      0.5 = coord(2/4)
    
    Abstract
    Die Euphorie der 80er-Jahre rund um die künstliche Intelligenz (KI) ist gewichen, der Alltag hat Einzug gehalten. Spannend ist das Thema dennoch, ist es doch eng verknüpft mit der Erforschung des Gehirns und der menschlichen Denkweise. Zudem haben die Erkenntnisse der KI Einzug in eine Vielzahl von Anwendungen gehalten. Uwe Lämmel und Jürgen Cleve, beide an der Hochschule Wismar die künstliche Intelligenz vertretend, haben mit dem Lehr- und Übungsbuch Künstliche Intelligenz eine kompakte Einführung in dieses doch recht komplexe Thema geschaffen. Nach einer kurzen Einführung in die Grundlagen und die Motivation geht es im zweiten Kapitel gleich um die Darstellung und Verarbeitung von Wissen. Hierbei behandeln die Autoren auch vages Wissen und die Fuzzy Logic als Teil hiervon. Das dritte Kapitel befasst sich sehr detailiert mit Suchproblemen, einem in der Informatik oft zu findenden Thema. Weiter geht es dann mit einer Einführung in Prolog -- einer Sprache, mit der ich mich während meines Studiums zugegebenermaßen schwer getan habe. In Prolog geht es um das Finden von Lösungen auf der Basis von Fakten und Regeln, auch Klauseln genannt. Diese ersten drei Kapitel -- plus der Einführung -- machen mehr als die Hälfte des Buches aus. Die zweite Hälfte teilt sich in neun weitere Kapitel auf. Die Themen hier sind künstliche neuronale Netze, vorwärts verkettete neuronale Netze, partiell rückgekoppelte Netze, selbstorganisierende Karten, autoassoziative Netze, adaptive Resonanz Theorie, Wettbewerbslernen, Arbeiten mit dem Stuttgarter Neuronale Netze Simulator (SNNS) und einer Implementation neuronaler Netze in Java, was für mich sehr interessant ist. Die Vielzahl der Kapitel zeigt, dass das Thema nicht einfach ist. Dennoch gelingt es Lämmel und Cleve sehr gut, ihr Wissen kompakt und verständlich zu vermitteln. Dabei gefallen zudem die vielen Grafiken, der klare Satz und die angenehme Gestaltung. So macht der Einstieg in die künstliche Intelligenz Spaß.
  17. Stillich, S.: Heute ein König : Wieso Web-Aktivisten den achtjährigen Luke Taylor aus Kansas zur Protestfigur erkoren (2010) 0.09
    0.09041603 = product of:
      0.18083206 = sum of:
        0.04548681 = weight(_text_:und in 226) [ClassicSimilarity], result of:
          0.04548681 = score(doc=226,freq=40.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.3287631 = fieldWeight in 226, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=226)
        0.13534525 = weight(_text_:heißen in 226) [ClassicSimilarity], result of:
          0.13534525 = score(doc=226,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.26816636 = fieldWeight in 226, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0234375 = fieldNorm(doc=226)
      0.5 = coord(2/4)
    
    Abstract
    Rache-Aktion irgendwo zwischen Kampf um Meinungsfreiheit und Lust auf Krawall: Wie Hunderte Internet-Aktivisten den achtjährige Luke Taylor zum Märtyrer erkoren.
    Content
    "Angriff der Porno-Krieger: Youtube-Streich Noch zum Jahreswechsel war Luke Taylor nur ein ganz normales, etwas pummeliges Kind aus Wichita im US-Bundesstaat Kansas. Ein Kind mit Brille, Knubbelkinn und einer Videokamera. Und dank dieser ist er für einige Tage zum König des Internets geworden - und für die Videoplattform "Youtube" zum Problem. Die Geschichte geht so: Im Juli vergangenen Jahres beginnt Luke damit, unter dem Namen "lukeywes1234" Filme auf Youtube zu laden. Seine Videos sind harmlose Kindereien. Luke spielt mit seinen Nintendo-Figuren Mario und Luigi, seine Großmutter filmt ihn, wie er mit einem Schwert in der Hand und einem selbst gebastelten Helm aus Alufolie auf dem Kopf "Geisterjäger" spielt. Nur zwei Handvoll Nutzer haben seine Videos zu dieser Zeit abonniert, das heißt: Sie werden sofort benachrichtigt, wenn Luke einen neuen Film online stellt. Freunde aus Wichita sind das vielleicht oder seine Verwandten. Am 27. Dezember lädt Luke Taylor einen neuen Film auf seinen Youtube-Kanal. Atemlos vor Aufregung erzählt er, wie sehr er sich freuen würde, im Februar 50 Abonnenten zu haben. An Neujahr werden die Nutzer des Forums "4chan" auf dieses Video aufmerksam. "4chan" ist so etwas wie ein Durchlauferhitzer im Netz, ein brodelnder Marktplatz von Nichtig- und Wichtigkeiten. Schnell finden sich 50 Nutzer, die die Filme von "lukeywes1234" abonnieren, und noch schneller werden es mehr. Tags darauf erscheint ein neues Video von Luke. Mit großen Augen bedankt er sich für die vielen neuen Abonnenten - 328 sind es jetzt. "Vielen Dank", sagt er immer wieder, "vielen, vielen Dank!" Am nächsten Tag ist die Zahl auf 5000 gestiegen. Bei 7000 Abonnenten dreht Luke ein neues Video. "Das ist verrückt", sagt er und verspricht weitere Folgen seiner "Mario- und Lugi-Supershow, die ihr alle, ähm, anscheinend so gerne mögt". Am 3. Dezember hat er 9000 Abonnenten, am nächsten Morgen sind es 15.000 - und damit einige Tausende mehr als der Videokanal von CNN. Dann, der Schock: Um elf Uhr vormittags sperrt Youtube den Nutzerzu-gang von "lukeywes1234" und löscht alle Filme.
    Ein Sturm bricht los im Internet. "Warum wurde sein Zugang gelöscht?", fragen immer mehr Nutzer vor allem bei "4chan". Einen "Verstoß gegen die Nutzungsbedingungen" wirft die Firma dem Jungen vor. Doch was soll das heißen? Youtube gibt dazu keinen Kommentar ab. Und das ist ein Fehler. - Hunderte Videos auf Youtube zollen Luke Tribut Denn nun werden die Diskussionen immer hitziger, und der Zorn der Netz-Gemeinde richtet sich gegen das Unternehmen - aus ehrlicher Sorge um die Freiheit des Netzes und freie Meinungsäußerung, oder einfach aus Lust an Ironie und Hysterie. Schnell tauchen die Filme von "lukeywes1234" wieder auf, hochgeladen von anderen Nutzern. Die Firma löscht sie sofort. Luke Taylor selbst meldet sich unter einem anderen Namen neu an - auch der Zugang wird geschlossen. Zu diesem Zeitpunkt gilt "lukeywes1234" bereits als Märtyrer im Netz, sein Nutzername ist bei Google einer der beliebtesten Suchbegriffe. Hunderte Videos auf Youtube zollen ihm Tribut, dem "Gott", dem "amerikanischen Helden", dem "Führer der freien Welt". "Er ist so lustig und so unschuldig", sagt ein Anhänger, "wir alle sehen ein Stück von uns selbst in diesem Kind." Stimmen, die mahnen, Luke sei doch höchstens acht Jahre alt und schlicht viel zu jung für einen eigenen Youtube-Kanal - das Mindestalter liegt laut den Geschäftsbedingungen bei 13 Jahren - sie gehen unter im digitalen Tumult.
    In dieser Woche erreichte der Sturm auf die Videoplattform schließlich seinen Höhepunkt. Die "4chan"-Macher riefen einen "Youtube Porn Day" aus: Die Nutzer wurden aufgefordert, Pornofilme auf Youtube hochzuladen, um die Filterprogramme der Firma zum Absturz zu bringen, die sonst dafür sorgen, dass das Angebot jugendfrei bleibt. Und das ist schon an normalen Tagen schwierig, schließlich landen auf Youtube laut eigenen Angaben des Unternehmens 20 Stunden Videomaterial pro Minute. Am 6. Januar also folgen Hunderte dem Ruf nasch Rache für Lukeywes - warum auch immer. Im Sekundentakt wird Youtube mit Pornoschnipseln vollgepumpt. Das Unternehmen gibt zwar an, den Angriff abgewehrt zu haben - das wird aber einiges an Arbeit verursacht haben. Gezeigt hat der Aufruhr jedenfalls erneut, wie schnell sich im Netz Massen für und gegen etwas mobilisieren lassen - ohne dass dafür ein ernstzunehmender Grund vorliegen muss. Wie viel Luke Taylor von all dem mitbekommen hat, weiß leider niemand. Der zu junge Junge aus Wichita, Kansas, ist bislang auf Youtube (noch) nicht wieder aufgetaucht. Doch eines ist sicher: Seinen Platz als erster Online-Star dieses Jahrzehnts wird er für ewig behalten. Sein Name - oder zumindest sein Benutzername "lukeywes1234" - ist nun eingebrannt in das Gedächtnis des Internets. Ob er das auch noch mit 13 Jahren gut finden wird oder nicht."
  18. Burke, P.: Papier und Marktgeschrei : Die Geburt der Wissensgesellschaft (2001) 0.09
    0.08984016 = product of:
      0.17968032 = sum of:
        0.04433506 = weight(_text_:und in 4313) [ClassicSimilarity], result of:
          0.04433506 = score(doc=4313,freq=38.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.32043862 = fieldWeight in 4313, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4313)
        0.13534525 = weight(_text_:heißen in 4313) [ClassicSimilarity], result of:
          0.13534525 = score(doc=4313,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.26816636 = fieldWeight in 4313, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0234375 = fieldNorm(doc=4313)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: taz vom 4.9.200, S.18 (J. Vogel): "Glaubt man dem Ruf der modernen Propheten, so erleben wir derzeit den Anbruch einer neuen Zeit: der so genannten Wissensgesellschaft. Vor allem die ITund-Computer-Branche rühmt sich, mit ihren Produkten den Weg zur wissensbasierten Gesellschaft" zu ebnen. Unter dem Stichwort des "Wissensmanagements" hat die Diskussion längst die seriöse Wirtschaftspresse und die betriebswirtschaftlichen Lehrstühle der Universitäten erreicht, wo inzwischen "Wissen" als neuer "Produktivfaktor" gefeiert wird. "Vernetzung" und "lebenslanges Lernen" heißen die Devisen" die auch Politiker begierig aufgreifen. Stolz zählen sie vor, wie viele Computer in den Schulen angeschlossen wurden, und versuchen so, ihre ansonsten inhalts- und richtungslose Bildungspolitik zu kaschieren. In der allgemeinen Euphorie wird allerdings die vage inhaltliche Definition der Wissensgesellschaft ebenso wenig in Frage gestellt wie die angebliche Neuartigkeit des Phänomens. So verweisen einige gern auf die in allen Lebensbereichen gestiegene Bedeutung von naturwissenschaftlichem Wissen (Stichwort: Biowissenschaften), andere wiederum auf den rapide wachsenden Einfluss von Computern, Internet und Suchmaschinen als Speicher und Verbreiter des Wissens. Software oder Hardware, welchem Element bei der Bestimmung der Wissensgesellschaft die entscheidende Bedeutung zukommt; ist ebenso wenig entschieden wie ihre präzise historische Einordnung. Erstaunlicherweise ist die Debatte um die Wissensgesellschaft bislang weitgehend ohne die Historiker geführt worden, und dies trotz einer außerordentlich fruchtbaren neueren Wissenschaftsgeschichte. Umso besser ist es daher, dass sich der englische Kulturhistoriker Peter Burke in seinem neuen Buch der "Geburt der Wissensgesellschaft" zwischen Renaissance und Aufklärung zuwendet. Er unterstreicht dabei vor allem, wie radikal die Erfindung des Buchdrucks die Verarbeitung, Speicherung und Verbreitung von Informationen verändert hat.
    Zudem hätten die Entdeckungen in der außereuropäischen Welt die Neugierde der Zeitgenossen angeregt, so dass sie begierig neues Wissen sarnmelten und in ihr Weltbild einzuordnen versuchten. Mit dem Hinweis auf die "Wissensexplosion" der Frühen Neuzeit relativiert Peter Burke die beliebte These von der Neuartigkeit unserer heutigen Informationsgesellschaft. Gradueller Wandel, nicht Revolution zeige sich dem Historiker beim Blick auf die Geschichte des Wissens seit dem ausgehenden Mittelalter. In seinem äußerst umfangreichen Essay über die "Sozialgeschichte des Wissens", so der präzisere englische Titel, präsentiert Burke ein ebenso breites wie buntes Bild jener Umstände, unter denen das Wissen in der Frühen Neuzeit zusammengestellt, klassifiziert und verbreitet wurde: Seit der Renaissance wurden die Gelehrten, Kleriker ebenso wie gebildete Laien, zu Trägern einer neuen Kultur des Wissens, die sich nicht nur an den Universitäten, sondern zunehmend auch in den Vorhöfen der staatli- chen und kirchlichen Macht etablierte. Neben den klassischen Lehranstalten stiegen dabei Akademien, Observatorien, Mineralien- oder Kuriositätenkabinette (die Vorläufer der Museen) zu begehrten Wirkungsstätten einer wachsenden Zahl von "Hofgelehrten" auf. Die Lebensgeschichte Galileis oder die des Wiener Alchemisten Johann Joachim Becher zeigt aber auch, dass diese privilegierte Situation am Hofe ihren Prei forderte. Denn die Wissenschaftler hatten sich nicht nur den höfischen Umgangsformen, sondern auch den politischen und wirtschaftlichen Interessen der Herrscher anzupassen. Staat und Kirche, die entscheidenden Förderer des neuen Wissens, waren von Anfang an bemüht, dessen Produktion und Verbreitung in strikten Grenzen zu halten. Da die Kontrolle des Wissens eine wichtige Grundlage ihrer Macht bildete; erschien die Bündelung der Informationen in der Hand des Fürsten ebenso legitim wie die Anwendung der Zensur oder der Inquisition. Allerdings verhinderten diese Methoden nicht die Entstehung eines regelrechten "Marktes" des Wissens, an dem sich auch die Buchdrucker durch Raub- und Nachdrucke rege beteiligten. Die Gelehrten traten ebenfalls als Wissensunternehmerin Erscheinung, indem sie je nach Marktlage ihre Kenntnisse den unterschiedlichsten Herren anboten. Folgt man den faszinierenden Streifzügen des Autors durch die Geschichte des Wissens in der Frühen Neuzeit, erhält man eine Vielzahl von interessanten Einblicken in eine Zeit, die bereits eine ganze Reihe von vermeintlich modernen Züge unserer heutigen Wissensgesellschaft vorwegnimmt. Manch spannender Gedanke wird von Burke allerdings mehr angerissen als ausgeführt, etwa sein Hinweis auf den eingeschränkten Zugang zu den frühneuzeitlichen Bibliotheken, Museen und Sammlungen, über die sich die neuen Wissenswelten überhaupt erst den angehenden Gelehrten eröffneten. Dieser Gedanke hätte sich zudem bis in unsere Zeit verlängern lassen: Auch heute sind weder Forschungsbibliotheken noch Museumsarchive, ja nicht einmal Internetzugänge frei verfügbar. Schwerer als dieser Einwand wiegt, dass der Autor sich nur auf die Sozialgeschichte des Wissens beschränkt, also in erster Linie die sozialen Bedingungen des Wissens betrachtet, aber kaum dessen Inhalte in den Blick nimmt. Die Vernachlässigung der "Software" führt ihn etwa dazu; von einer "wissenschaftlichen Revolution" der Frühen Neuzeit zu reden, obgleich Historiker die damit verbundene Vorstellung von einer radikalen Umwälzung des wissenschaftlichen Denkens längst in Frage stellen. Trotz dieser Kritik: Burkes Essay ist fesselnd geschrieben und lässt am Ende manch allzu euphorische Aussagen der Propheten der Wissensgesellschaft auf eine vernünftige Größe schrumpfen - ein großes Verdienst in einer Debatte, die oftmals von erstaunlich fortschrittsgläubigen Positionen bestimmt wird."
  19. Tsai, B.-s.: Infomapping in information retrieval (1997) 0.09
    0.08893827 = product of:
      0.3557531 = sum of:
        0.3557531 = weight(_text_:java in 3877) [ClassicSimilarity], result of:
          0.3557531 = score(doc=3877,freq=6.0), product of:
            0.439639 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0623822 = queryNorm
            0.8091937 = fieldWeight in 3877, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3877)
      0.25 = coord(1/4)
    
    Abstract
    Capability and capacity in handling the topology of a special subject information field has made infomapping techniques and systems instrumental in information searching, monitoring and navigation. Applying the technique to communication networks can reveal the intellectual relationships among junior and senior researchers in the field, and can also show the continuing popularity of a particular researcher's citation record over time. Reports the use of Java in making a cartoon series of chronological maps based on citation analysis on a special subject field (nutrition and dietetics). The map making methods, Java programming, and statistical analysis of the map data are presented, and the advantage and significance of constructing Java maps in enhancing information retrieval discussed. Further technical developments in applying VRML to link together a 3-D spatial indexing system and a 2-D HTML Web site are suggested
  20. Rötzer, F.: Internet ist überlebensnotwendig (2001) 0.09
    0.08600894 = product of:
      0.17201789 = sum of:
        0.036672637 = weight(_text_:und in 481) [ClassicSimilarity], result of:
          0.036672637 = score(doc=481,freq=26.0), product of:
            0.13835742 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0623822 = queryNorm
            0.26505727 = fieldWeight in 481, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=481)
        0.13534525 = weight(_text_:heißen in 481) [ClassicSimilarity], result of:
          0.13534525 = score(doc=481,freq=2.0), product of:
            0.50470626 = queryWeight, product of:
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0623822 = queryNorm
            0.26816636 = fieldWeight in 481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.090549 = idf(docFreq=36, maxDocs=44421)
              0.0234375 = fieldNorm(doc=481)
      0.5 = coord(2/4)
    
    Content
    "Im Rahmen der von EMNID im Auftrag von AOL durchgeführten "ePeople-Studien" ging es bei der jüngsten Befragung um das Therna "Kinder und Internet". Berragt wurden 1.500 Haushalte über die Nutzung des Internet. Das Ergebnis, daß mittlerweile die Mehrzahl der 6- bis 18Jährigen bereits das Internet nutzen, wird dabei ebenso wenig überraschen wie der Umstand, daß die Eltern den Umgang mit ihm geradezu für überlebensnotwendig erachten. Möglicherweise war es ja nur ein Versehen, daß die Befragung "Kinder und das Internet - Nachwuchs für das World Wide Web" genannt wurde. Da glaubt man sich gleich in den Bereich der Memetik versetzt, da auch bei dieser Theorie davon ausgegangen wird, daß nicht etwa Menschen Bücher oder sonst etwas suchen, sondern Bücher oder Bibliotheken wie Parasiten die Menschen infizieren, um sich in deren Geist als Mein zu reproduzieren. Von Memetik haben aber vielleicht so viele noch gar nichts gehört, weswegen man vermuten darf, daß mit der Studie zugleich für die schöne, neue und saubere Welt des Web geworben werden soll, die wahrscheinlich noch besser unter den Fittichen von AOL zu finden ist. Dunkle oder kritische Aspekte wird man bei dieser Befragung nicht finden. Es sei denn, man legt die Ergebnisse gewissermaßen gegen die Intention aus. Wenn so etwa 73 Prozent der Befragten, was, hochgerechnet, die Meinung von 46,6 Millionen Bundesbürgern über 14 Jahre wäre, dem Satz zustimmen, daß sich "nur mit einem sicheren Internet-Umgang Kinder auf dem Arbeitsmarkt der Zukunft behaupten" werden, dann fehlen da möglicherweise nicht nur Auswahlmöglichkeiten, sondern kann man auch einen ungeheuren Anpassungsdruck erkennen. Wer nicht drin ist, ist draußen. Gute Arbeit haben da Politiker, Unternehmer und Ideologen geleistet. 74 Prozent der Befragten haben übrigens keine Kinder (mehr) im Haushalt, allerdings sind davon wieder 83 Prozent zwischen 14 und 29 Jahre alt.
    Nimmt man noch hinzu, daß 35 Prozent (hochgerechnet 22 Millionen Bürger) glauben, Kinder, die den Umgang mit dem Internet nicht beherrschen, seien auch - was immer das heißen mag - privat benachteiligt, dann läßt sich bemerken, daß das Internet für viele offenbar bereits mindestens den Stellenwert der früheren Alphabetisierung einnimmt. Man könnte gar vermuten, daß diese mitsamt anderen Grundkenntnissen hintan gesetzt wird, wenn die Hälfte der Haushalte mit des Satz übereinstimmt, daß die Kinder so früh wie möglich ans Internet herangeflihrt werden müßten. Aber, wie gesagt, bei Befragungen, die nur bestimmte Meinungen abhaken, fallen Zwischentöne und reflektierte Meinungen schlicht unter den Tisch. Bei 34 Prozent der Haushalte herrscht die Meinung vor, daß die Schulen für die Internetkompetenz genug machen, 74 Prozent sehen Eltern oder ältere Geschwister in der Pflicht, dem Web-Nachwuchs die notwendigen Fertigkeiten nahezubringen. Wie auch immer, so scheint die Intemetnutzung bereits ziemlich hoch zu sein. 25 Prozent der 6- bis 18-Jährigen gehen mehrmals im Monat, 30 Prozent mehrmals in der Woche, 9 Prozent mehrmals täglich ins Internet, wobei bei den unter 14-Jährigen schon 47 Prozent mehrmals wöchentlich online sind. Nur 26 Prozent haben nach der Befragung noch keine Erfahrung mit dem Internet, was sich aber bei 9 Prozent noch in diesem Jahr ändern soll. Lediglich 15,8 Prozent der Befragten gaben an, dass eine Internetnutzung "nicht geplant" sei. Für den Standort Deutschland ist erfreulich, daß sich 83 Prozent der Kinder und Jugendlichen "regelmäßig" über das Internet "gezielt" Informationen beschaffen, auch wenn wir nicht genau wissen, um welche Art der Informationen es sich dabei handelt. Bei der Befragung ging es um spezielle Interessen (Sport, Hobby etc.), was dann schon wahrscheinlicher klingt.
    Dafür erledigen jedenfalls angeblich 6,6 Millionen (66 Prozent) dieser sonst oft so gar nicht aufs Lernen erpichten Altersgruppe mit der Hilfe des Internet ihre Hausaufgaben oder bereiten sich auf den Unterricht vor, wobei die Mädceen etwas eifriger zu sein scheinen, Aber natürlich wird auch herumgesurft (71 Prozent), gespielt oder Spiele heruntergeladen (50 Prozent), Musik gehört oder heruntergeladen (37 Prozent). Ganz wichtig ist auch Kommunikation, also Emails (60%), Chatten (36%) oder SMS (47%) verschicken, während das "Ansehen von Finnen" (7 Prozent) etwas kurz gerät. Ob man das als Multitasking auslegen will oder nicht, so scheinen die Kinder und Jugendlichen während der Internetnutzung nicht nur Musik zu hören oder mit Freunden zusammen zu sein, sondern auch zu fernsehen, zu telefonieren, zu essen und zu trinken, zu lesen oder Hausaufgaben zu machen. Manche dieser Kombinationen ist denn schon erstaunlich. Ob die 71 Prozent, bei denen angegeben wurde, sie würden zusammen mit Freunden online gehen, dies auch immer so machen, darf doch bezweifelt werden. AOL sieht das jedoch lieber so: "Entgegen weitverbreiteter Vorurteile verzichten sie auch nicht auf die Gesellschaft anderer: 71 Prozent der Kinder und Jugendlichen surfen gemeinsam mit Freunden oder nutzen das Medium zu Kontaktaufbau und -pflege." Mit der Intemetnutzung reduziert sich auch die Zeit, die noch für andere Medien da ist. Das mag nicht so tragisch sein, wenn dafür wenige oft die Glotze (26%) oder der Radio (2 1 %) läuft, klingt aber schon nicht mehr so toll, wenn dies auch die "Nutzung" von Büchern (25%) und Zeitschriften (21%) betrifft. Bei fast 50 Prozent habe die Internetnutzung hingegen nicht zu einer Reduzierung der Zeit geführt, die für andere Medien verwendet wird."
    Footnote
    Vgl. auch: http://heise-online.de/tp/deutsch/inhalt/te/9149/1.html und zur Studie: http://www.aolpresse.de/aol/studien.shtml

Authors

Languages

Types

  • a 9351
  • m 2234
  • el 1009
  • x 591
  • s 554
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications