Search (13214 results, page 3 of 661)

  1. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.13
    0.12986189 = product of:
      0.25972378 = sum of:
        0.19236507 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.19236507 = score(doc=217,freq=4.0), product of:
            0.4367276 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06196909 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.0673587 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.0673587 = score(doc=217,freq=50.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  2. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.13
    0.12676615 = product of:
      0.2535323 = sum of:
        0.20403397 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.20403397 = score(doc=977,freq=2.0), product of:
            0.4367276 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06196909 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.049498335 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.049498335 = score(doc=977,freq=12.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  3. E-Text : Strategien und Kompetenzen. Elektronische Kommunikation in Wissenschaft, Bildung und Beruf (2001) 0.12
    0.12370069 = product of:
      0.24740139 = sum of:
        0.058721952 = weight(_text_:und in 1622) [ClassicSimilarity], result of:
          0.058721952 = score(doc=1622,freq=38.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.4272515 = fieldWeight in 1622, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1622)
        0.18867944 = weight(_text_:horst in 1622) [ClassicSimilarity], result of:
          0.18867944 = score(doc=1622,freq=2.0), product of:
            0.5143602 = queryWeight, product of:
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.06196909 = queryNorm
            0.36682358 = fieldWeight in 1622, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.03125 = fieldNorm(doc=1622)
      0.5 = coord(2/4)
    
    Abstract
    Elektronische Produktion, Verbreitung und Rezeption von Texten - deren integrative Wechselbeziehungen eingeschlossen - verändern unausweichlich unsere Forschungs-, Lernund Arbeitsbedingungen. In diesem Wandel braucht es Orientierung, Strategien und Kompetenzen. Dieser Band bietet sie in interdisziplinärer Vielfalt. Teil 1 befaßt sich mit Wissen und Wissenschaft. Er spannt den Bogen der Medientheorie von der Antike bis ins 21. Jahrhundert und bietet einen konstruktivistischen Ansatz für das Wissensmanagement. Textsortenkonventionen und Hypertext sind ebenso Schwerpunkte wie empiriegestützte Guidelines und innovative Werkzeuge für das wissenschaftliche Arbeiten. Teil 2 ist Lernumgebungen gewidmet. Reflexionen zur Theorie von hypermedialem Lernen und Kognition werden ergänzt durch ein Produktionssystem für interaktive Software. Eine Felduntersuchungvergleicht Varianten kooperativen Schreibens, ein Schreibdidaktik-Projekt vermittelt zwischen Studium und Beruf. Teil 3 vereint unter dem Titel «Domänen der Praxis» empirische Erhebungen zur Text(re)produktion und elektronischen Kommunikation im Berufsalltag, die Konzeption eines Werkzeugs für die Übersetzungsarbeit und den Ausblick auf kulturspezifische Web-Sites in der Wirtschaft.
    Content
    Aus dem Inhalt: Peter Handler: Das E zum Text. Einführung - Eva-Maria Jakobs: Textproduktion im 21. Jahrhundert - Christoph Sauer: Vom «Alten» im «Neuen». Zur Bestimmung der Integration früherer Medienentwicklungen in multimediale Textgestaltungen - Eva Martha Eckkrammer: Textsortenkonventionen im Medienwechsel - Guido Ipsen: Pragmatik des Hypertextes. Linguistische Aspekte WWW-gebundener Informationsmedien als designtechnisches Instrument - Rolf Todesco: MailTack - Individuelles Wissensmanagement - Carsten Hausdorf/Herbert Stoyan: ScientiFix - ein modellbasiertes Werkzeug zur integrierten Rezeption und Produktion wissenschaftlicher Texte - Dagmar Knorr: Von der Dissertationsschrift zur Publikation oder: Wie wird aus einem Manuskript ein Buch? -Jörg Zumbach/Peter Reimann: Hypermediales Lernen und Kognition. Anforderungen an Lernende und Gestaltende - Bernd Gaede: Konventionalisierung der Gestaltung multimedialer Software durch Automatisierung. Ein Produktionssystem für interaktive Lernsoftware - Helmut Felix Friedrich/Aemilian Hron/Sigmar-Olaf Tergan/Thomas Jechle: Unterstützung kooperativen Schreibens in virtuellen Lernumgebungen - Katrin Lehnen/Kirsten Schindler: Schreiben zwischen Studium und Beruf. Zur didaktischen Vermittlung domänetispezifischer Schreibanforderungen in der Hochschulausbildung - Daniel Perrin: «Wir tun uns hier mal um den Inhalt herummogeln». Strategien computergestützter Textreproduktion beim Nachrichtenschreiben - Horst Silberhom: Das Projekt ForeignSGML. Übersetzungsunterstützung bei technischer Dokumentation - Karl-Heinz Pogner/Anne-Marie Soderberg: Organisationsinterne `E-Mail an alle'-Kommunikation: Informationsübertragung oder Kommunikationsraum? - Marc Rittberger/Frank Zimmermann: Wirtschaftliche und kommunikative Aspekte eines internen Kommunikationsforums in einem Unternehmen der Medienindustrie - Rogier Crijns: Elemente textuellen Appellierens in der digitalen Produktwerbung. Textgestaltung und kulturspezifische Appellformen in Webvertising.
    Series
    Textproduktion und Medien; Bd.7
  4. Mautrich, M.: ¬Die Call Center-Euphorie : eine echte Chance für verbesserte und neue Dienstleistungen der Informationsspezialisten? (2000) 0.12
    0.12291759 = product of:
      0.24583519 = sum of:
        0.05715575 = weight(_text_:und in 6516) [ClassicSimilarity], result of:
          0.05715575 = score(doc=6516,freq=36.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.41585606 = fieldWeight in 6516, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=6516)
        0.18867944 = weight(_text_:horst in 6516) [ClassicSimilarity], result of:
          0.18867944 = score(doc=6516,freq=2.0), product of:
            0.5143602 = queryWeight, product of:
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.06196909 = queryNorm
            0.36682358 = fieldWeight in 6516, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.03125 = fieldNorm(doc=6516)
      0.5 = coord(2/4)
    
    Abstract
    Viele neue Entwicklungen kennzeichnen die Arbeit und den Arbeitsprozess. Damit gehen auch immer mehr Begriffe in den täglichen Umgang über, deren Inhalt und Hintergrund nicht sofort oder nur mittelbar verständlich werden. Ein solcher Begriff ist der des Call Centers. Es handelt sich hierbei nicht nur um einen kurzen Modebegriff. So renommierte Unternehmensberatungen wie beispielsweise Frost & Sullivan oder Kienbaum gehen nach intensiven Untersuchungen davon aus, dass die Anzahl der Call Center sich in ganz Europa innerhalb der nächsten fünf Jahre versiebenfachen wird. "Call Center sind wichtige Motoren für Innovation und Beschäftigung", erklärte auch der Staatssekretär im baden-württembergischen Wirtschaftsministeriuin, Horst Mehrländer, auf einer Pressekonferenz im Herbst 1999. Call Center zählen zu den führenden Wachstumsbranchen und generieren eine immens hohe Wertschöpfung", führte er weiter aus. Auch in den Medien wird verstärkt vorn Call Center-Booin gesprochen. Alle reden also darüber. Wir auch! So richtig angekommen ist der Boom des Call Center-Einsatzes im Bibliotheks- und Informationswesen aber noch nicht. Ganz vereinzelt organisieren Verlage oder Buchhändler ihre Kundenkontakte nach Call Center-Prinzipien, und auch der Aufbau virtueller Bibliotheken hat begonnen und mit ihm die Frage, wie Auskunfts- und Beratungsdienstleistungen verbessert werden können. Bevor die Möglichkeiten des Einsatzes von Call Centern für den Bibliotheks- und Informationssektor betrachtet werden, soll zunächst erläutert werden, was Call Center sind, welche generellen Aufgaben sie haben und welche Rolle sie bei der Qualität des Service einer Informationseinrichtung spielen oder spielen können
    Series
    Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI); Bd.1)(Tagungen der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V.; Bd.3
    Source
    Information und Öffentlichkeit: 1. Gemeinsamer Kongress der Bundesvereinigung Deutscher Bibliotheksverbände e.V. (BDB) und der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI), Leipzig, 20.-23.3.2000. Zugleich 90. Deutscher Bibliothekartag, 52. Jahrestagung der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. (DGI). Hrsg.: G. Ruppelt u. H. Neißer
  5. Scalla, M.: Bilder sehen Dich an : Horst Bredekamp auf den Spuren von Max Horkheimer und Theodor W. Adorno (2005) 0.12
    0.12265518 = product of:
      0.24531037 = sum of:
        0.045185592 = weight(_text_:und in 47) [ClassicSimilarity], result of:
          0.045185592 = score(doc=47,freq=40.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.3287631 = fieldWeight in 47, product of:
              6.3245554 = tf(freq=40.0), with freq of:
                40.0 = termFreq=40.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=47)
        0.20012477 = weight(_text_:horst in 47) [ClassicSimilarity], result of:
          0.20012477 = score(doc=47,freq=4.0), product of:
            0.5143602 = queryWeight, product of:
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.06196909 = queryNorm
            0.38907516 = fieldWeight in 47, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.0234375 = fieldNorm(doc=47)
      0.5 = coord(2/4)
    
    Content
    "Als Colin Powell im Februar 2003 im Gebäude der Vereinten Nationen in New York saß und die Weltöffentlichkeit von der Notwendigkeit eines Krieges überzeugen wollte, hing hinter ihm ein Wandteppich mit den Motiven von Picassos "Guernica". Allerdings konnte ihn niemand sehen; er wurde verhängt, denn natürlich hätten die berühmten Szenen ausgesprochen kontraproduktiv gewirkt. Die große Weltmacht hatte Angst vor einem Bild, und diese Angst führt mitten hinein in die Gemengelage um aktuelle Bilderkämpfe und hin zu Fragen, wie in diesem "Iconoclash", diesem Krieg der Bilder, die friedensstiftende Vernunft gestärkt werden kann. Nichts anderes war der Versuch des Berliner Kunsthistorikers Horst Bredekamp 2007 bei den Adorno-Vorlesungen, die nun als Buch herausgekommen sind. Bredekamp will aufklären - und er möchte Horkheimers und Adornos "Dialektik der Aufklärung", die noch nichts von einem "Iconic turn" wissen konnte, fortschreiben. Zu diesem Zweck nimmt er eine "lebendige Eigenkraft des Bildes" an. Dieses ist körperlich zu spüren. Es blickt den Betrachter nicht nur an, vielmehr entfaltet es, wie der amerikanische Bildtheoretiker W.J.T. Mitchell es formulierte, einen "Medusa-Effekt": Es möchte aus dem Betrachter wiederum ein Bild für den eigenen Blick machen. Diese Fähigkeit des Bildes hat in der Geschichte häufig zu ikonoklastischen Aktionen geführt. Die Taliban etwa wehrten sich militant gegen die Bildkraft und zerstörten Buddha-Statuen. Aber auch das Gegenteil, die Idolatrie, ist ein heimtückischer Gegner. Bilder werden Bredekamp zufolge zu "Primärwaffen", wenn Terrorkrieger Soldaten der Gegenseite exekutieren, nur um Videos von dieser Tat zu drehen und auf westlichen Bildschirmen Furcht und Schrecken verbreiten zu können.
    Zwischen den Extremen muss also vermittelt, ein Maß gefunden werden. Bredekamp hat einen besonderen und theoretisch herausragenden Weg gefunden. Angelehnt an die Sprechakttheorie von John Austin und John Searle entwickelt er eine Theorie des Bildaktes, in der er drei Bildakte untescheidet: den schematischen, den substitutiven und den intrinsischen. Ersterer bezeichnet die Verbindung von Bild und Körper, wie sie in den Tableaux vivants oder in den modernen Visionen, in denen sich Menschen mit Maschinen verbinden, erscheinen; der zweite Bildakt dreht sich um den Austausch von Bild und Körper und reicht vom Abbild Christi im Tuch bis zu gegenwärtigen Bilderstürmen. Der dritte Bildakt ist derjenige, der der Aufklärung den Weg weisen könnte. Dieser Akt führt, ganz auf der Linie Adornos, über die Form. Durch die Wahl einer bestimmten Form gewinnen Bilder oder Zeichnungen eine Kraft, die nur aus ihnen selbst kommt - daher der Ausdruck "intrinsisch" - und keiner Autorintention oder eines sonstigen äußeren Anstoßes bedarf. Sie wurde hergestellt, steckt aber ausschließlich im Werk selber. Als Charles Darwin die Evolution in der Gestalt eines Baumes visualisierte, gewann das Bild schnell eine Eigendynamik, wurde populär und verstellte letztlich die Vorstellung von der Evolution als einem komplexen, von vielen Faktoren abhängenden Prozess. Nicht minder einflussreich war das Bild der Doppelhelix, deren Form sich aus einer Zeichnung von Odile Crick, der Frau des Entdeckers der DNA, Francis Crick, herleitet. Es beherrschte aufgrund der Bildkraft die Vorstellung weit über die Fachgrenzen hinweg - und hat doch nicht sehr viel mit der biologischen Realität zu tun.
    Diese "lebendige Eigenkraft" der Bilder kann gefährlich, kann auch lästig werden, wenn sie zu unzulässiger Simplifizierung führt. Unschädlich lässt sie sich auf keinen Fall mehr machen, denn Bredekamp verortet sie bereits in frühen menschlichen Kulturen und erklärt sie zu einer anthropologischen Konstante. Verständnis und Distanz sind die Losungsworte des Wissenschaftlers. Die Menschen sollen Distanz gegenüber ihren autonomen Artefakten gewinnen. Wenn sie das schaffen, gilt: "Das Ich wird stärker, wenn es sich gegenüber der Aktivität des Bildes relativiert." Bredekamps Theorie hat unbestreitbar rationalisierende Effekte im Bilderkrieg. Doch ob das hier wahrlich nicht zum ersten Mal bemühte Ego das letzte Wort sein kann, ist eine offene Frage. Das wäre mehr "Minima moralia" als "Dialektik der Aufklärung". Wer soll dieses Ich sein? Der kunstgebildete Museumsbesucher, der Fälle von Idolatrie in der Gegenwart sofort entziffert? Der immun ist gegenüber ikonoklastischen Versuchungen? Oder ergibt sich aus dieser Theorie ein gesellschaftskritischer Ansatzpunkt, der institutionelle Hinweise für Museen, Medien oder Gesetzgeber enthält? Schließlich ist nicht nur die Moderne, sondern auch die Aufklärung ein unvollendetes Projekt." Besprechungsaufsatz zu: Bredekamp, H. Theorie des Bildakts. Frankfurt: Suhrkamp 2010.
  6. Bibliothek leben : Das deutsche Bibliothekswesen als Aufgabe für Wissenschaft und Politik. Eine Festschrift für Engelbert Plassmann zum 70. Geburtstag (2005) 0.12
    0.12211242 = product of:
      0.24422485 = sum of:
        0.05554541 = weight(_text_:und in 2785) [ClassicSimilarity], result of:
          0.05554541 = score(doc=2785,freq=34.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.40413946 = fieldWeight in 2785, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2785)
        0.18867944 = weight(_text_:horst in 2785) [ClassicSimilarity], result of:
          0.18867944 = score(doc=2785,freq=2.0), product of:
            0.5143602 = queryWeight, product of:
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.06196909 = queryNorm
            0.36682358 = fieldWeight in 2785, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.03125 = fieldNorm(doc=2785)
      0.5 = coord(2/4)
    
    Classification
    AN 51000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Fest- und Gedenkschriften für Personen
    Content
    Enthält die Beiträge: Retrospektiven Hans-Michael Schäfer: "Warum baut ein Privatmann eine Bibliothek" - Die Bibliothek Warburg inmitten der preußisch dominierten Bibliothekslandschaft zu Beginn des 20. Jahrhunderts; Horst Röhling: Slavica und Universales im wissenschaftlich-politischen und anthropologischen Kontext der Bibliothek; Dale Askey: Bibliothekstourismus zwischen Deutschland und den Vereinigten Staaten; Hans-Christoph Hobohm: Bibliothek als Zensur; Günter Pflug: Die Ausbildung des höheren Bibliotheksdienstes nach dem Zweiten Weltkrieg; Konrad Umlauf: Bibliotheksentwicklungsplanung 1966 bis 1973 und Bibliotheken 2007; Hans Joachim Meyer: Kontinuität und Neubeginn - Sächsische Bibliothekspolitik nach 1990; Siegfried Schmidt: Eine verpaßte Gelegenheit? - Gründe und Hintergründe zur Schließung der Fachhochschule für das öffentliche Bibliothekswesen Bonn; Walther Umstätter: Bibliothekswissenschaft im Spannungsfeld von Bibliotheksgeschichte, Nationalökonomie des Geistes und Informatik; Helmut Jüngling: Themen à la mode -Versuch einer informetrischen Analyse informationswissenschaftlicher Datenbanken; Perspektiven Wolfgang Schmitz: "Gemeinsam können wir viel bewirken" - Die gemeinsamen Fachbibliotheken von USB und Instituten an der Universität zu Köln; Jürgen Hering: Vier Buchstaben und etwas Farbe - Zum Erscheinungsbild der SLUB in der Öffentlichkeit; Ludger Syré: Haben Regionalbibliotheken eine Zukunft? - Zeitgemäße Betrachtungen zu einem scheinbar unzeitgemäßen Bibliothekstyp; Gudrun Behm-Steidel: Spezialbibliotheken in Deutschland - Nische im Bibliothekswesen oder Vorreiter im Informationsmanagement?; Regina Peeters: Auf der Kuhstraße zur Weltliteratur oder: Jedes Lesen ist Übersetzen; Holger Knudsen: Die International Association of Law Libraries (IALL); Torsten Seela: Bibliotheken und Museen als Informationsdienstleister -Konvergenzen und Divergenzen; Christian Uhlig: Buchhandel und Bibliotheken - Konfrontation oder Kooperation?; Reimar Riese: Macht unsere Bücher preiswerter! - Die Preiswürdigkeit von Büchern im Meinungsbild ihrer Konsumenten; Gerhard Hacker: Die Hybridbibliothek - Blackbox oder Ungeheuer?; Jürgen Seefeldt: Die Zukunft der Bibliothek - die Bibliothek der Zukunft: Visionen, Traumschlösser, Realitäten
    RVK
    AN 51000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Fest- und Gedenkschriften für Personen
  7. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.12171538 = product of:
      0.24343076 = sum of:
        0.17002831 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.17002831 = score(doc=50,freq=2.0), product of:
            0.4367276 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06196909 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.07340244 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.07340244 = score(doc=50,freq=38.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  8. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.11951729 = product of:
      0.23903458 = sum of:
        0.20403397 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20403397 = score(doc=1181,freq=2.0), product of:
            0.4367276 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06196909 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.03500061 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.03500061 = score(doc=1181,freq=6.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  9. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.11951627 = product of:
      0.23903254 = sum of:
        0.19236507 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19236507 = score(doc=1761,freq=4.0), product of:
            0.4367276 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06196909 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.04666748 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.04666748 = score(doc=1761,freq=24.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  10. Mesaric, G.: Black magic Web : using the new World Wide Web technologies (1997) 0.12
    0.11901981 = product of:
      0.47607923 = sum of:
        0.47607923 = weight(_text_:java in 5463) [ClassicSimilarity], result of:
          0.47607923 = score(doc=5463,freq=8.0), product of:
            0.4367276 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06196909 = queryNorm
            1.0901057 = fieldWeight in 5463, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=5463)
      0.25 = coord(1/4)
    
    Abstract
    A spell book for mastering the WWW. Step by step, readers are taught how to use the Internet efficiently, and, in particular, how to publish information on the Web. After completing this book, the reader will be able, for example, to create stunning Web home pages and even take the first steps in Java programming. There are many books on the net bound to either one product, e.g. Mosaic, or to one topic, HTML. Mesaric, on the other hand, covers all WWW-related topics and all products which are in popular use. The magic revealed includes common data formats (HTML, PDF, JPEG, GIF), an introduction to Java and Java Srcipt, emerging technologies such as Hyper-G, hypermedia authoring with Haemony and Amadeus, information about ATM, TeleScript, and much more
    Object
    JAVA
  11. Read, T.; Hall, H.: Java: an explosion on the Internet (1996) 0.12
    0.11901981 = product of:
      0.47607923 = sum of:
        0.47607923 = weight(_text_:java in 86) [ClassicSimilarity], result of:
          0.47607923 = score(doc=86,freq=2.0), product of:
            0.4367276 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06196909 = queryNorm
            1.0901057 = fieldWeight in 86, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.109375 = fieldNorm(doc=86)
      0.25 = coord(1/4)
    
  12. Weiße, A.: Tagung der AG Dezimalklassifikationen bei der GfKl (2000) 0.12
    0.11767346 = product of:
      0.23534691 = sum of:
        0.04666748 = weight(_text_:und in 5985) [ClassicSimilarity], result of:
          0.04666748 = score(doc=5985,freq=24.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.33954507 = fieldWeight in 5985, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5985)
        0.18867944 = weight(_text_:horst in 5985) [ClassicSimilarity], result of:
          0.18867944 = score(doc=5985,freq=2.0), product of:
            0.5143602 = queryWeight, product of:
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.06196909 = queryNorm
            0.36682358 = fieldWeight in 5985, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.03125 = fieldNorm(doc=5985)
      0.5 = coord(2/4)
    
    Abstract
    Die diesjährige Öffentliche Sitzung der AG Dezimalklassifikationen fand erstmalig nicht im Rahmen der Jahrestagung der Gesellschaft für Klassifikation (GfK1) statt, sondern wurde auf den 20. März 2000 nach Leipzig, dem Tagungsort des Bibliothekskongresses, verlegt, wo sie regen Zuspruch fand. In 4 Vorträgen wurde über den Einsatz von Dezimalklassifikationen (UDC, DDC) in Bibliothekssystemen und internet-basierten Fachinformationssystemen berichtet und Vorschläge zu einer Konkordanz zwischen UDC und DDC dargestellt. Dr. Horst Hogh (Slowakische Nationalbibliothek Martin) gab einen Überblick über die Anwendung der UDC sowohl in slowakischen Bibliotheken als auch in der slowakischen Nationalbibliographie und in Verbundkatalogen. Die Anwendung der UDC hat in der Slowakei eine lange Tradition, bereits seit 1947 wird mit diesem Klassifikationssystem gearbeitet. Gegenwärtig benutzen ca. 80% der slowakischen Bibliotheken (wissenschaftliche und Öffentliche) und Informationszentren dieses Klassifikationssystem. Auf Grund der breiten Anwendung wurde der Master Reference File, die derzeitig gültige Version der UDC, in die slowakische Sprache übersetzt und als CD-ROM-Ausgabe vorbereitet. Für das geplante Projekt einer multilingualen Fassung (englisch, deutsch, slowakisch, ungarisch) des Master Reference File sucht die Slowakische Nationalbibliothek Partner aus EU-Mitgliedsstaaten. Andreas Stumm (Universitätsbibliothek Freiberg) stellte das Fachinformationssystem für Geowissenschaften Geo-Guide <http://www.Geo-Guide.de> vor. Der Geo-Guide ist ein Gateway für wissenschaftliche Internetressourcen aus den Fachgebieten Geowissenschaften, Bergbau, Geographie und thematische Karten. Die Geo-Guide Datenbank erschließt weltweit recherchierte Fachinformationen, z.B. Literaturdatenbanken, Informationsseiten von Forschungseinrichtungen u.a. Jede Ressource ist nach dem Dublin-Core-Standard erschlossen, u. a. durch mehrere Klassifikationssysteme (GOK, DDC, BK), als weitere Klassifikation wird die UDC eingearbeitet. Esther Scheven (DDB Frankfurt/Main) berichtete über den aktuellen Stand der DDC-Diskussion im deutschsprachigen Raum und stellte die Pläne der Deutschen Bibliothek über die Übersetzung der DDC, die von der Arbeitsgruppe Klassifikatorische Erschließung als geeignete Klassifikation für die Deutsche Bibliothek und die Deutsche Nationalbibliographie vorgeschlagen wurde, in die deutsche Sprache vor, die damit verbundene Adaption an deutsche Erfordernisse, Prognosen über den Aufwand für eine deutsche DDC-Ausgabe und vorgesehene Konkordanzen zu anderen Klassifikationen (Regensburger Verbundklassifikation, Niederländische Basisklassifikation, Gesamthochschulbibliothek-Systematik, Klassifikationen Öffentlicher Bibliotheken). In diesem Zusammenhang wurde von Seiten der anwesenden UDC-Anwender die Empfehlung ausgesprochen, auch die UDC, ein zur DDC gleichrangiges internationales Klassifikationssystem, in die Konkordanz einzubeziehen, damit auch auf die mit UDC erschlossenen umfangreichen Datenbestände in Verbundkatalogen über Konkordanzen zugegriffen werden kann.Die AG Dezimalklassifikationen wird dieses Anliegen ebenfalls beim UDCConsortium (Den Haag) vorbringen, falls im nationalen Rahmen die Integration der UDC nicht möglich ist. Prof. Dr. Gerhard Rahmstorf (Heidelberg) erläuterte ein Projekt für eine Konkordanz zwischen UDC und DIDC, die mit einem Bezugssystem erstellt werden könnte. Als geeignetes Programm zur Erfassung der Klassifikationsdaten schlägt er CONCEPTO vor
  13. Windrath, M.: Auf der Suche nach der richtigen Antwort : Von der Bücherrallye bis zur Web-Recherche: Neuer Schulservice der Stadtbibliothek boomt (2006) 0.12
    0.11767346 = product of:
      0.23534691 = sum of:
        0.04666748 = weight(_text_:und in 5994) [ClassicSimilarity], result of:
          0.04666748 = score(doc=5994,freq=24.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.33954507 = fieldWeight in 5994, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5994)
        0.18867944 = weight(_text_:horst in 5994) [ClassicSimilarity], result of:
          0.18867944 = score(doc=5994,freq=2.0), product of:
            0.5143602 = queryWeight, product of:
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.06196909 = queryNorm
            0.36682358 = fieldWeight in 5994, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.03125 = fieldNorm(doc=5994)
      0.5 = coord(2/4)
    
    Content
    "Die Stadtbibliothek wird von Jugendlichen gestürmt, die in Gruppen Hausaufgaben oder Referate schreiben wollen. Viele nutzen den neuen Schulservice, surfen gemeinsam im Computer, durchforsten Bücherbestände, suchen Informationen zu Goethes Faust oder die richtige Antwort auf die Frage: Frisst der Igel Obst? Dabei erhalten sie Unterstützung von Recherche-Experten der Stadtbibliothek. "Wir bestellen Tische und Stühle wie verrückt", freut sich Bibliotheksleiter Dr. Horst Neißer. Die Resonanz auf das Angebot speziell für Lehrer und Schüler ist groß. Anliegen ist es, den richtigen Umgang mit Datenbanken, Suchmaschinen und Digitaler Bibliothek sowie die systematische Suche nach Gedrucktem in den Regalen zu vermitteln. Fressen Igel Obst? Auf diese Testfrage in einem neuen Workshop finden die Schüler mit Hilfe der Medienexperten im Internet allerdings keine eindeutige Antwort. Ja und Nein. Je nach Homepage fallen die Erklärungen höchst unterschiedlich aus. "Das ist dann der erste Aha-Effekt für die Schüler, dass nicht alles wahr ist, was im Netz steht", weiß Bibliothekar Frank Daniel, der den stark erweiterten Schulservice koordiniert. Und wenn sie Erklärungen bei "hausaufgaben.de" zu Goethes Faust Glauben schenken würden, dann käme wohl ein Ungenügend als Note heraus: Da findet sich zum Beispiel die Mär, dass Faust Gretchen geheiratet hat, beide ein Kind bekamen und Gretchen es tötet. "Das gedruckte Wort hat immer weniger Bedeutung für Jugendliche. Und es gibt eine unglaubliche Informationsfülle im Netz, es muss besser vermittelt werden, wie man das Richtige findet", betont Neißer. "Mit der speziellen Aufgabe sind Schulen nicht selten überfordert." Zur Unterstützung entwickelte ein Team der Bibliothek mit Lehrern ein Konzept mit verschiedenen Workshops,das seit diesem Frühjahr besteht: Bibliotheksquiz und Medienmarathon für Grundschulen, eine Rallye durch die Bücherwelten mit Suchaufgaben für die Sekundarstufe 1 statt dröger Bibliotheksführungen, Methodentraining mit Fachrecherche in Sekundarstufe 2," Internetschulungen, Unterricht in der Bibliothek mit eigenem Klassenraum samt Büchern und PCs, Lehrerfortbildung. Fast alle Angebote sind für Kölner kostenlos. Was nicht in der Suchmaschine Google zu finden ist, das existiert für viele Jugendliche heute nicht", beklagen viele Lehrer. Bücher gelten als altmodisch. Was aus dem Netz gefischt wird, wird oft ungeprüft und kritiklos übernommen. Ein paar Absätze aus Webseiten kopiert, eine Textstelle aus Wikipedia - fertig ist das Referat. Da ist der Schulservice die bessere Alternative: "Im Netz kommt man schneller an Infos, in der Bibliothek ist das komplizierter", sagte einer der ersten Nutzer und recherchierte mit Erfolg zum Thema Patrick Süskind und Parfümherstellung. "Aber hier bekommt man mehr raus, was auch stimmt.""
  14. Keck, R.W.; Kollmann, S.; Ritzi, C.: Pictura Paedagogica Online : Konzeption und Verwirklichung (2004) 0.12
    0.11564041 = product of:
      0.23128082 = sum of:
        0.04260138 = weight(_text_:und in 4137) [ClassicSimilarity], result of:
          0.04260138 = score(doc=4137,freq=20.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.3099608 = fieldWeight in 4137, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4137)
        0.18867944 = weight(_text_:horst in 4137) [ClassicSimilarity], result of:
          0.18867944 = score(doc=4137,freq=2.0), product of:
            0.5143602 = queryWeight, product of:
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.06196909 = queryNorm
            0.36682358 = fieldWeight in 4137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.03125 = fieldNorm(doc=4137)
      0.5 = coord(2/4)
    
    Abstract
    Sammlungen von Bildern, die von einzelnen Wissenschaftlern für historische Forschungsprojekte angelegt wurden, sind keineswegs neu. Auch im Bereich der Bildungsgeschichte gab es in der Vergangenheit immer wieder einzelne Gelehrte, die sich über viele Jahre mehr oder weniger systematisch auf die Suche nach Bildmaterialien begaben. Beispiele der Ergebnisse solchen Sammlerfleisses aus der Bildungsgeschichte sind etwa der zweibändige "Bilderatlas zur Schul und Erziehungsgeschichte" von Robert Alt, der älteste "Bilderatlas zur Geschichte der Pädagogik" von Rudolf Borch, der Band "Tausend Jahre Schule" von Horst Schiffler und Rolf Wmkeler oder der erst kürzlich erschienene Bildband von Helmut Engelbrecht. In der Regel war das Ergebnis der Sammlungstätigkeit dieser Autoren jedoch kein Bestand an Originalbildern oder doch zumindestens nicht vorrangig. Vielmehr bestand deren Forschungsarbeit darin, in Museen, Bibliotheken und Archiven thematisch geeignetes Bildmaterial aufzuspüren, womöglich Reproduktionen in Form von Fotos oder Kopien anzufertigen sowie in der Katalogisierung der Bilder. Auf der Grundlage einer solchen Arbeit entstanden Bücher, die teils unter einer spezifischen Fragestellung eine Auswahl der Sammlung oder, seltener, eine umfassende Geschichte der Erziehung anhand von Bildern präsentierten. Mit der Publikation der Bilder in gedruckter Form hatte die Sammeltätigkeit der Wissenschaftler in der Regel ihr Ziel erreicht. Im Falle Robert Alts etwa befinden sich die Arbeitsunterlagen im Archiv der Bibliothek für Bildungsgeschichtliche Forschung in Berlin, die Vorarbeiten zum geplanten dritten Band sind immer noch nicht abgeschlossen und mit einer Veröffentlichung ist über 20 Jahre nach Alts Tod kaum noch zu rechnen. Bildatlanten zur Bildungsgeschichte, wie die genannten, aber auch weitere, fanden ihre Abnehmer nicht nur aufgrund ihres ästhetischen Reizes, sondern wurden und werden in Forschung und Lehre zur Veranschaulichung bildungshistorischer Kontexte benutzt. Allerdings erfolgt eine solche Nutzung nicht ohne Nachteile.
    Footnote
    Mit einer Kategorienliste der für die formale und inhaltliche Erschließung von Bilddaten verwendeten Kategorien
    Source
    Wissensorganisation und Edutainment: Wissen im Spannungsfeld von Gesellschaft, Gestaltung und Industrie. Proceedings der 7. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation, Berlin, 21.-23.3.2001. Hrsg.: C. Lehner, H.P. Ohly u. G. Rahmstorf
  15. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.11478525 = product of:
      0.2295705 = sum of:
        0.16831943 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16831943 = score(doc=5002,freq=4.0), product of:
            0.4367276 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06196909 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.06125106 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.06125106 = score(doc=5002,freq=54.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  16. Jascó, P.: Publishing textual databases on the Web : part 3 of this series examines Java applets and CGI/DLL programs (1998) 0.11
    0.11405844 = product of:
      0.45623377 = sum of:
        0.45623377 = weight(_text_:java in 6217) [ClassicSimilarity], result of:
          0.45623377 = score(doc=6217,freq=10.0), product of:
            0.4367276 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06196909 = queryNorm
            1.0446644 = fieldWeight in 6217, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=6217)
      0.25 = coord(1/4)
    
    Abstract
    A detailed description of how to use Java applets and Common Gateway Interface (CGI)/Dynamic Link Library (DLL) programs for Web publication of textual databases. The advantages of Java applets include low cost, flexible and visually appealing search interfaces, and the ability to be embedded in HTML pages, eliminating the need for Internet service provider permissions for their use. Highlights the FindIt family of Java applets from DoubleOLogic as one of the best product lines in the category. CGI programs may be written in Perl, Java, or some other language, and like DLL programs, must be installed on the server side. Notes that small-scale CGI and DLL applications cost from $150 to $8,000. Highlights Insight from Enigma Inc. as an excellent program at the high end of the cost range
  17. Gugerli, D.: Suchmaschinen : die Welt als Datenbank (2009) 0.11
    0.11339164 = product of:
      0.22678328 = sum of:
        0.038103834 = weight(_text_:und in 2160) [ClassicSimilarity], result of:
          0.038103834 = score(doc=2160,freq=16.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.2772374 = fieldWeight in 2160, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2160)
        0.18867944 = weight(_text_:horst in 2160) [ClassicSimilarity], result of:
          0.18867944 = score(doc=2160,freq=2.0), product of:
            0.5143602 = queryWeight, product of:
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.06196909 = queryNorm
            0.36682358 = fieldWeight in 2160, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.03125 = fieldNorm(doc=2160)
      0.5 = coord(2/4)
    
    Abstract
    Plötzlich diese Übersicht. Milliarden von Seiten, in Sekundenbruchteilen durchsucht, als Trefferliste sauber angezeigt, mit der größten Selbstverständlichkeit sortiert nach Rang und Namen. Google bestimmt die Routinen des Alltags und ist dennoch nicht die Suchmaschine schlechthin. Auch außerhalb des World Wide Web gibt es zahllose, technisch hochgerüstete Prozeduren des Suchens. Die gegenwärtige Selbstverständlichkeit der einen Suchmaschine läßt leicht übersehen, daß Suchmaschinen einen Interessenkonflikt induzieren zwischen jenen, die sie einsetzen wollen, und jenen, auf die sie angesetzt werden. Ihr prekärer Status im Spannungsfeld zwischen Übersicht und Überwachung wird verdrängt. Anhand von vier Fallstudien zeigt David Gugerli die Entwicklung der Suchmaschine auf, von den frühen Fernseh-Ratespielen, von Robert Lembkes Unterhaltungsshow »Was bin ich?«, über Eduard Zimmermanns Fahndungssendung »Aktenzeichen XY« und Horst Herolds »Kybernetik der Polizei« bis zu der von Ted Codd ausgehenden Entwicklung der relationalen Datenbank. Während Lembke auf die Feststellung von Normalität ausgerichtet war, suchte Zimmermann die Devianz, Herold die Muster und Codd die allgemeingültige Such- und Abfragesprache für in Form gebrachte Wissensbestände, die man seit Mitte der sechziger Jahre Datenbanken nennt. »Die Geschichte der Suchmaschine ist eine eminent politische. Mit Suchmaschinen lassen sich Hoffnungen auf Fundamentaldemokratisierung und informationelle Emanzipation ebenso verbinden wie Horrorvisionen eines Orwellschen Überwachungsstaats, der über ein technokratisches Wissensmonopol verfügt.«
  18. Pesch, K.: Bibliothek, die niemals schließt : "DigiBib" in Köln vorgestellt: Online im Katalog und in Datenbanken recherchieren (2003) 0.11
    0.10755289 = product of:
      0.21510579 = sum of:
        0.05001128 = weight(_text_:und in 2814) [ClassicSimilarity], result of:
          0.05001128 = score(doc=2814,freq=36.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.36387405 = fieldWeight in 2814, product of:
              6.0 = tf(freq=36.0), with freq of:
                36.0 = termFreq=36.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2814)
        0.16509451 = weight(_text_:horst in 2814) [ClassicSimilarity], result of:
          0.16509451 = score(doc=2814,freq=2.0), product of:
            0.5143602 = queryWeight, product of:
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.06196909 = queryNorm
            0.32097062 = fieldWeight in 2814, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.02734375 = fieldNorm(doc=2814)
      0.5 = coord(2/4)
    
    Content
    "Seit kurzem lohnt es sich ganz besonders, Mitglied der Stadtbibliothek Köln zu werden - auch dann, wenn man nicht vorhat, dort Bücher auszuleihen. Für einen Mitgliedsbeitrag von 21 Euro pro Jahr stehen via Internet Recherche-Möglichkeiten zur Verfügung, die Ihresgleichen suchen: Gestern wurde in Köln die neue Digitale Bibliothek" (DigiBib) vorgestellt. Dies ist ein Meilenstein für die öffentlichen Bibliotheken", sagte Stadtbibliothekschef Horst Neißer, und nahm damit den Mund nicht zu voll. Denn dank der Möglichkeiten des Internets und der Digitaltechnik sorgen die Bibliotheken dafür, dass auch ProfiWissen nicht nur den Begüterten dieser Gesellschaft offensteht. Jeder Bürger, so Neißer, erhalte auf Wunsch Informationen, die bisher Fachleuten oder Wissenschaftlern vorbehalten waren. Der besondere Clou: Um zu recherchieren, braucht man gar nicht persönlich in der Bibliothek vorbeizuschauen. "Der Bildschirm auf dem Dorf ist genauso groß wie der Bildschirm in der Großstadt", meinte Ulrich Moeske, Chef der Stadt- und Landesbibliothek Dortmund und Leiter des DigiBib-Prpjektes. Entwickelt würde dieses 1998 vom Hochschulbibliothekszentrum in Köln (HBZ) und der Universitätsbibliothek Bielefeld eigentlich zuerst nur für wissenschaftliche Bibliotheken und deren Nutzer. Doch Stadt- und Landesbibliothek Dortmund, Stadtbibliothek Köln und die Düsseldorfer Stadtbüchereien waren von dem Ergebnis so begeistert, dass sie das Land überzeugen konnten, 5op ooo Mark für ein Pilotprojekt bereit,zu stellen, um die Anbindung-an öffentliche Bibliotheken zu überprüfen. Gestern wurde das Projekt offiziell abgeschlossen und steht damit den Nutzern zur Verfügung. Mit der DigiBib kann jeder recherchieren. Die Metasuche erlaubt zur Zeit unter einer Oberfläche die Suche in 72 Datenbanken und Katalogen wobei das Angebot den aktuellen Bedürfnissen angepasst wird. Das Besondere: Auch Inhalte von kostenpflichtigen professionellen DatenbankAnbietern wie GBI (VolltextPressedatenbank)" Genios (Wirtschafts- und Pressedatenbanken) oder LexisNexis stehen den Mitgliedern der Bibliothek online zur Verfügung. Außerdem finden sich auf den Seiten Links zu ausgewählten Quellen im Internet, die überprüftes Qualitätswissen liefern. "Es ist eine Bibliothek, die niemals schließt", verkündet Stadtbücherei-Chef Neißer stolz. Und wie funktioniert das Ganze? Mitglieder geben ihr Passwort und eine Kennung ein und erhalten danach Zugang zum DigiBib-Angebot. Man gibt anschließend einen Titel oder ein Schlagwort ein und klickt die Quellen an, in denen gesucht werden soll. Danach erhält man eine Liste mit den Ergebnissen. Entweder gibt es Hinweise darauf, in welcher Bibliothek die Bücher zu finden sind, manchmal stehen sogar Volltexte zum Download zur Verfügung. Man kann außerdem per Verfügbarkeitsrecherche feststellen, ob ein Buch gerade ausgeliehen ist. Wer ein Werk per Fernleihe bestellen möchte, kann das ebenfalls bequem vom heimischen PC aus tun. Das Buch kann dann bei der Bibliothek abgeholt werden. Wer die DigiBib nutzen will, muss sich hierzulande einmal persönlich mit dem Personalausweis bei der Stadtbücherei 'in Köln anmelden. Doch bald werden auch andere Bibliotheken den Dienst anbieten, darunter auch kleine und mittlere Häuser, die ans System angeschlossen werden wollen. Derzeit liegen 81 Anträge, nicht nur aus NRW, soridern sogar aus Bayern, vor. Sind die Bibliotheken einmal angeschlossen, kann sich der Kunde über deren j eweili-. ge Homepage ins System einwählen. Es ist auch möglich, dass mehrere kleine Bibliotheken im Verbundsystem ins Netz gehen und den gemeinsamen Zugriff auf ihre Bestände ermöglichen."
  19. Schlosser, H.; Leppert, G.: ¬Die Kartoffel ist ein Fremdwort : Horst Schlosser lobt importierte Begriffe (2008) 0.11
    0.10600659 = product of:
      0.21201319 = sum of:
        0.02333374 = weight(_text_:und in 2418) [ClassicSimilarity], result of:
          0.02333374 = score(doc=2418,freq=6.0), product of:
            0.13744119 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06196909 = queryNorm
            0.16977254 = fieldWeight in 2418, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2418)
        0.18867944 = weight(_text_:horst in 2418) [ClassicSimilarity], result of:
          0.18867944 = score(doc=2418,freq=2.0), product of:
            0.5143602 = queryWeight, product of:
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.06196909 = queryNorm
            0.36682358 = fieldWeight in 2418, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              8.30027 = idf(docFreq=29, maxDocs=44421)
              0.03125 = fieldNorm(doc=2418)
      0.5 = coord(2/4)
    
    Content
    "Herr Schlosser, das Goethe-Institut und der Deutsche Sprachrat haben einen Wettbewerb mit dem Titel "Das beste eingewanderte Wort" ausgeschrieben. Was ist Ihr persönlicher Favorit? Es gibt mehrere Wörter, die meiner Ansicht nach diese Auszeichnung verdient hätten. Zum Beispiel: Wein oder Kartoffel. Wein? Kartoffel? Wir dachten, Sie entscheiden sich für Outsourcing oder Assimilation. Für ein richtiges Fremdwort eben. Sehen Sie, das ist genau der Punkt. Wenn von Fremdwörtern die Rede ist, denkt jeder an solche Begriffe. Viele wissen gar nicht, dass Wein vom Lateinischen Vinum und Kartoffel vom italienischen Wort Taratopoholi stammt. Die meisten Menschen denken, das seien originär deutsche Wörter. Wir benutzen also weitaus mehr Fremdwörter, als wir glauben? Allerdings. Die deutsche Sprache hat einen Wortschatz von etwa 400 000 bis 500 000 Wörtern - was im Übrigen sehr viel ist. Rund 100 000 Begriffe sind aus anderen Sprachen eingewandert. Hilft der Wettbewerb, das Bewusstsein dafür zu stärken? Sicher, ich halte diesen Wettbewerb für eine gute Sache. Es ist wichtig zu verbreiten, dass eine Sprache nicht nur von sich selbst lebt, sondern auf Importe angewiesen ist. Natürlich droht bei solchen Sprachwettbewerben immer eine gewisse Beliebigkeit, und manch einer wählt nicht das Wort, sondern die Sache, die es beschreibt. Bei einem Wettbewerb zum schönsten Wort hätte Schokolade gute Chancen. Grundsätzlich aber macht so eine Aktion deutlich, dass die Übernahme von sprachlichen Elementen aus anderen Kulturen nichts Anrüchiges ist. Mit dieser Meinung machen Sie sich bei Menschen, die die deutsche Sprache möglichst frei von Fremdwörtern halten wollen, aber keine Freunde. Ja, deren Argumente kenne ich: Wir geben unsere Kultur - das ist im Übrigen auch ein Fremdwort - auf, wenn wir unsere Sprache aufgeben. Das ist Unsinn. Die Sprache geht nicht durch den Import von Wörtern unter, sonst wäre die deutsche Sprache seit 1200 Jahren tot. Damals hielten unendlich viele lateinische Begriffe in die deutsche Sprache Einzug. Sie sind also gegen die Eindeutschung von Fremdwörtern? Diese Initiativen haben häufig etwas Albernes. Da soll man dann Klapprechner statt Laptop sagen. Das halte ich für unsinnig. Im Übrigen ist die Idee, Fremdwörter zu übersetzen, alles andere als neu. Schon die Sprachgesellschaften im 17. Jahrhundert wollten das Wort Kloster durch Jungfernzwinger ersetzen. Hat sich nicht wirklich durchgesetzt. Sind alle derartigen Versuche gescheitert? Nein, das kann man nicht sagen. Statt Adresse sagen viele Menschen Anschrift, statt Korrespondenz ist das Wort Briefwechsel geläufig. Das ist auch sehr gut so, denn auch ich bin gegen einen unnötigen Gebrauch von Fremdwörtern. Ich finde nur, man sollte nichts dramatisieren. Es gibt durchaus Bereiche, in denen sich die besonders scharf kritisierten Anglizismen so gut wie gar nicht durchgesetzt haben. Können Sie ein Beispiel nennen? Im Rechtswesen etwa spielen die englischen Wörter so gut wie keine Rolle. Bemerkenswert ist übrigens auch, dass die Bild-Zeitung weitgehend auf Anglizismen verzichtet. Zu viel Englisch würde Leser kosten."
  20. Fisher, Y.: Spinning the Web : a guide to serving information on the World Wide Web (1996) 0.10
    0.103074186 = product of:
      0.41229674 = sum of:
        0.41229674 = weight(_text_:java in 6014) [ClassicSimilarity], result of:
          0.41229674 = score(doc=6014,freq=6.0), product of:
            0.4367276 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06196909 = queryNorm
            0.94405925 = fieldWeight in 6014, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6014)
      0.25 = coord(1/4)
    
    Abstract
    Most books on the Internet describe it from the user's end. This one, however, is unique in its focus on serving information on the WWW. It presents everything from the basics to advanced techniques and will thus prove invaluable to site administrators and developers. The author - an expert developer and researcher at UCSD - covers such topics as HTML 3.0, serving documents, interfaces, WWW utilities and browsers such as Netscape. Fisher also includes an introduction to programming with JAVA and JAVA sript, as well as the complete VRML 1.0 specification
    Object
    JAVA

Authors

Languages

Types

  • a 9354
  • m 2237
  • el 1009
  • x 591
  • s 555
  • i 168
  • r 116
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 21
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications