Search (11831 results, page 9 of 592)

  • × language_ss:"d"
  1. Reichmann, G.; Schlögl, C.: Möglichkeiten zur Steuerung der Ergebnisse einer Forschungsevaluation (2021) 0.08
    0.08461964 = product of:
      0.16923928 = sum of:
        0.03519291 = weight(_text_:und in 660) [ClassicSimilarity], result of:
          0.03519291 = score(doc=660,freq=4.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.2772374 = fieldWeight in 660, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=660)
        0.13404638 = weight(_text_:html in 660) [ClassicSimilarity], result of:
          0.13404638 = score(doc=660,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.45498204 = fieldWeight in 660, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0625 = fieldNorm(doc=660)
      0.5 = coord(2/4)
    
    Abstract
    Ein Leistungsvergleich zwischen den (ehemaligen) Instituten für Informationswissenschaft der Universitäten Düsseldorf und Graz auf Basis der Forschungsleistung für einen Zeitraum von zehn Jahren zeigt, wie sehr die Ergebnisse einer Forschungsevaluation gesteuert werden können. Durch die Wahl "geeigneter" Indikatoren gelingt es - je nach Wunsch - entweder das eine oder das andere Institut an die erste Stelle zu bringen. Hält man sich dagegen an das wissenschaftliche Gebot der Unparteilichkeit, führt dies im hier gezeigten Anwendungsbeispiel zu gemischten Ergebnissen.
    Content
    DOI: https://www.degruyter.com/document/doi/10.1515/iwp-2021-2148/html.
    Source
    Information - Wissenschaft und Praxis. 72(2021) H.4, S.212-220
  2. Herb, U.; Müller, F.: Wissenschaftliches Fehlverhalten - von der Randerscheinung zum Flächenbrand (2020) 0.08
    0.08461964 = product of:
      0.16923928 = sum of:
        0.03519291 = weight(_text_:und in 726) [ClassicSimilarity], result of:
          0.03519291 = score(doc=726,freq=4.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.2772374 = fieldWeight in 726, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=726)
        0.13404638 = weight(_text_:html in 726) [ClassicSimilarity], result of:
          0.13404638 = score(doc=726,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.45498204 = fieldWeight in 726, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0625 = fieldNorm(doc=726)
      0.5 = coord(2/4)
    
    Abstract
    Wissenschaftliches Publizieren im Zeichen betriebswirtschaftlicher Massenproduktion.- Frank Müller sammelt seit Jahren fragwürdige wissenschaftliche Publikationen aus den Natur- und Materialwissenschaften. Er berichtet von Fälschungsquoten im deutlich zweistelligen Prozentbereich sowie von der Schwierigkeit, solche Publikationen zu kennzeichnen oder aus dem wissenschaftlichen Diskurs zurückzuziehen, und macht Vorschläge zu Verbesserung des Kontrollsystems.
    Source
    https://www.heise.de/tp/features/Wissenschaftliches-Fehlverhalten-von-der-Randerscheinung-zum-Flaechenbrand-4875056.html?view=print
  3. Illing, S.: Automatisiertes klinisches Codieren (2021) 0.08
    0.08461964 = product of:
      0.16923928 = sum of:
        0.03519291 = weight(_text_:und in 1420) [ClassicSimilarity], result of:
          0.03519291 = score(doc=1420,freq=4.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.2772374 = fieldWeight in 1420, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1420)
        0.13404638 = weight(_text_:html in 1420) [ClassicSimilarity], result of:
          0.13404638 = score(doc=1420,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.45498204 = fieldWeight in 1420, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0625 = fieldNorm(doc=1420)
      0.5 = coord(2/4)
    
    Abstract
    Die in diesem Artikel vorgestellte Bachelorarbeit behandelt die Ergebnisse einer Shared Task im Bereich eHealth. Es wird untersucht, ob die Klassifikationsgenauigkeit ausgewählter klinischer Codiersysteme durch den Einsatz von Ensemble-Methoden verbessert werden kann. Entscheidend dafür sind die Werte der Evaluationsmaße Mean Average Precision und F1-Maß.
    Content
    DOI: https://www.degruyter.com/document/doi/10.1515/iwp-2021-2174/html.
    Source
    Information - Wissenschaft und Praxis. 72(2021) H.5/6, S.285-290
  4. Rauch, W.: Was aus der Informationswissenschaft geworden ist (2021) 0.08
    0.08461964 = product of:
      0.16923928 = sum of:
        0.03519291 = weight(_text_:und in 1421) [ClassicSimilarity], result of:
          0.03519291 = score(doc=1421,freq=4.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.2772374 = fieldWeight in 1421, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1421)
        0.13404638 = weight(_text_:html in 1421) [ClassicSimilarity], result of:
          0.13404638 = score(doc=1421,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.45498204 = fieldWeight in 1421, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0625 = fieldNorm(doc=1421)
      0.5 = coord(2/4)
    
    Abstract
    Zur Eröffnung der ISI2021, dem 16. Internationalen Symposium für Informationswissenschaft, hat Prof. Dr. WolfRauch, Emeritus der Universität Graz, einen Festvortrag gehalten, dessen Manuskript wir hier mit seinem Einverständ-nis zum Nachlesen abdrucken. Wie freuen uns, ebenso wieder Autor, über Reaktionen in Form von Kommentaren oder Leserbriefen und auf eine lebendige fruchtbare Diskussion.
    Content
    DOI: https://www.degruyter.com/document/doi/10.1515/iwp-2021-2156/html.
    Source
    Information - Wissenschaft und Praxis. 72(2021) H.4, S.169-176
  5. Mahn, J.: Wenn Maschinen philosophieren - wo bleibt da der Mensch? (2020) 0.08
    0.08428617 = product of:
      0.16857234 = sum of:
        0.026394682 = weight(_text_:und in 1047) [ClassicSimilarity], result of:
          0.026394682 = score(doc=1047,freq=4.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.20792803 = fieldWeight in 1047, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1047)
        0.14217766 = weight(_text_:html in 1047) [ClassicSimilarity], result of:
          0.14217766 = score(doc=1047,freq=4.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.48258135 = fieldWeight in 1047, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.046875 = fieldNorm(doc=1047)
      0.5 = coord(2/4)
    
    Abstract
    Der KI-Textgenerator GPT-3 kann erstaunlich selbstreflektierte philosophische Texte verfassen. Überholt die Maschine uns Menschen in unserer Paradedisziplin? GPT-3 heißt die jüngste Entwicklung des Unternehmens OpenAI. Es ist die dritte Generation eines Textgenerators und die Ergebnisse sind teilweise so gut, dass sie von menschlichen Texten fast nicht mehr zu unterscheiden sind. Während der Testphase wurde GPT-3 schon mit allerlei Aufgaben betraut. Für großes Aufsehen sorgte der Philosoph Raphaël Millière bei Twitter. Er beauftrage GPT-3, eine Antwort auf eine philosophische Abhandlung zu verfassen, die im Philosophie-Blog Daily Nous erschienen war. GPT-3 musste sich also zu Philosophie und zu seiner eigenen Rolle äußern.
    Content
    Vgl. auch: https://openai.com/blog/openai-api/. Vgl. auch: https://www.heise.de/hintergrund/GPT-3-Schockierend-guter-Sprachgenerator-4867089.html. Vgl. auch: https://katzlberger.ai/2020/11/04/die-erste-allgemeine-kuenstliche-intelligenz/.
    Source
    https://www.heise.de/news/heiseshow-Wenn-Maschinen-philosophieren-wo-bleibt-da-der-Mensch-4974474.html?view=print
  6. Kübler, H.-D.; Debacher, U.: ¬Das virtuelle Filmmuseum (2003) 0.08
    0.08391414 = product of:
      0.16782828 = sum of:
        0.067293495 = weight(_text_:und in 3052) [ClassicSimilarity], result of:
          0.067293495 = score(doc=3052,freq=26.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.53011453 = fieldWeight in 3052, product of:
              5.0990195 = tf(freq=26.0), with freq of:
                26.0 = termFreq=26.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3052)
        0.10053478 = weight(_text_:html in 3052) [ClassicSimilarity], result of:
          0.10053478 = score(doc=3052,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.34123653 = fieldWeight in 3052, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.046875 = fieldNorm(doc=3052)
      0.5 = coord(2/4)
    
    Abstract
    Lang schon bemüht sich unser Verein, seine gesammelte Schätze, Exponate und Nachlässe einer interessierten Öffentlichkeit zu präsentieren; denn nur so lassen sich breitere Unterstützung und nachhaltiges Interesse für die Film- und Fernsehstadt Hamburg und ihre Geschichte auf Dauer gewinnen und eventuell sogar das geneigte Engagement von Sponsoren bewegen. Doch über wenige Ausstellungen und die Schaukästen im (ehemaligen) Landesmedienzentrum hinaus reichten bislang Kraft und Finanzen nicht. So reifte die Idee, es doch auf mindestens kostengeringe Weise virtuell zu probieren, zumal die Zeit dafür reif ist, Knowhow und Gerätschaften vorhanden sind oder sich allmählich anschaffen ließen und das Medium Film mit seinen visuellen Reizen dazu gerade angetan ist, es auf HTML-Seiten mit allerlei Fenstern, bewegten Szenarien und Links zu präsentieren. Ein virtuelles Museum für Film und Fernsehen, das könnte auch in heutiger Zeit mit klammen öffentlichen Kassen ein kleines Highlight sein, obendrein das erste in seiner Art, wie unsere Recherchen erwiesen haben. Denn die realen in Berlin, Potsdam, Frankfurt/M., München und Düsseldorf begnügen sich (noch?) mit wenigen, nur ankündigenden Websites; sie wollen die Besucher ja in ihr Haus locken und dürfen nicht allzu freigiebig im WWW alles offenbaren.
  7. Skulschus, M.; Wiederstein, M.: XSLT und XPath (2005) 0.08
    0.083450064 = product of:
      0.16690013 = sum of:
        0.0653235 = weight(_text_:und in 4665) [ClassicSimilarity], result of:
          0.0653235 = score(doc=4665,freq=72.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.5145956 = fieldWeight in 4665, product of:
              8.485281 = tf(freq=72.0), with freq of:
                72.0 = termFreq=72.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4665)
        0.101576634 = weight(_text_:html in 4665) [ClassicSimilarity], result of:
          0.101576634 = score(doc=4665,freq=6.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.3447728 = fieldWeight in 4665, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.02734375 = fieldNorm(doc=4665)
      0.5 = coord(2/4)
    
    Abstract
    Mit XSLT können XML-Dokumente in Formate wie HTML oder Text transformiert werden. Das Buch zeigt, wie Sie die Technik nutzen, um XML-Daten flexibel einzusetzen. Die Syntax und die praktische Arbeit mit XSLT und der Basistechnik für Transformationen, XPath, werden von den Autoren verständlich vorgestellt. Es wird gezeigt, wie Stylesheets erzeugt werden und XPath zur Adressierung benutzt wird. Dabei wird neben XPath 1.0 auch die neue Version 2.0 samt der Änderungen ausführlich beschrieben. Die Autoren gehen auf die unterschiedlichen Anforderungen ein, die bestimmte Ein- und Ausgabeformate mit sich bringen, darunter HTML, Text, CSS und XML. Das Buch wird mit einer XSLT-Referenz abgerundet, die die möglichen Elemente auflistet und ihre Funktion und Syntax kompakt erklärt. Zahlreiche Tipps, Hinweise und Beispiele lockern das Werk auf und helfen, die neu erlernten Kenntnisse schnell praktisch umzusetzen und dabei typische Einsteigerfehler zu vermeiden.
    XSLT (eXtensible Stylesheet Language forTransformations) ist eine W3C-Syntax, die speziell für die Transformation von XML-Dokumenten geschaffen wurde. In diesem Buch werden die Versionen 1.0 und 2.0 behandelt. Mit XSLT können XML-Dokumente in Formate wie HTML, Text und andere XML-Formate transformiert werden. Diese Technologie lässt sich in (fast) allen Programmiersprachen und in vielen Datenbanken für die XMLVerarbeitung nutzen und stellt die beste Möglichkeit dar, aus mehreren Anwendungen heraus die gleiche Transformation aufzurufen. Dieses Buch stellt Ihnen die Syntax vor und erläutert Ihnen umfassend die Arbeitsweise mit XSLT und XPath 1.0 und 2.0. Nach einer Einführung in die Grundkonzepte gehen die Autoren direkt detailliert auf das Arbeiten mit Vorlagen und XPath ein. Im Folgenden werden alle Techniken ausführlich behandelt, die Sie für professionelle XML-Transformationen brauchen: Kontrollstrukturen, Parameter und Variablen, Sortieren und Gruppieren und Sonderarbeiten für verschiedene Ein-und Ausgabeformate. Zahlreiche Beispiele ermöglichen es Ihnen, die vorgestellten Techniken sofort nachzuvollziehen und anhand des im Internet verfügbaren Quellcodes selber zu bearbeiten. Zusätzlich werden alle neuen Techniken in Schema-Zeichnungen umgesetzt. Neben XSLT stellt dieses Werk auch die zweite Basistechnologie für Transformationen dar: XPath in der neuen Version 2.0. Mit dieserTechnik hat man die Möglichkeit, XML-Strukturen zu lokalisieren und auszuwählen. Beide Technologien gehören eng zusammen. Aus dem Inhalt: - Definition und Aufruf von Vorlagen, Vorlagen-Typen und -Alternativen - XPath: Adressierung, Lokalisierung, Filtern - Algorithmen: Kontrollstrukturen in XSLT und XPath - Auslagerung und Wiederverwendung mit globalen Parametern und eingebetteten Dateien - Einsatz von Parametern und Variablen - Sortieren, Nummerieren und Gruppieren - Unterschiedliche Algorithmen für unterschiedliche Daten-Modellierungen
    Content
    Das Buch wird ergänzt um 2 weitere Titel: Der zweite Band stellt die Syntax von XSL-FO 1.0 bzw. XSL 1.0 mit dem Titel Extensible Stylesheet Language (XSL), Version 1.0, W3C Recommendation 15 October 2001 unter http: //www. w3.org/TR/xs1/ dar. Sie lernen in diesem Band, wie Druckerzeugnisse wie z.B. PDF-Dateien aus XML-Daten erzeugt werden. Dies erfordert einen eigenen Standard mit einer Vielzahl an unterschiedlichen Elementen, um Seitenbereiche, Seitenverläufe, Text- und Absatzformate sowie zusätzliche Dokumenteigenschaften anzugeben wie Inhaltsverzeichnisse. Der dritte Band stellt keine besondere Syntax dar, sondern kombiniert die einzelnen vorgestellten Standards mit allgemeinen Techniken, die nur die Transformation betreffen, mit Ideen, wie XSLT-Anwendungen aufgebaut werden können, und solchen Techniken wie die Verwendung einer Datenbank, um XML- und sogar XSLT Daten abzuspeichern und dynamisch für Transformationsabläufe zusammenzusetzen.
  8. Perske, J.: Trendforscher Horx : Künstliche Intelligenz wird überschätzt (2018) 0.08
    0.08298992 = product of:
      0.16597985 = sum of:
        0.04868927 = weight(_text_:und in 1219) [ClassicSimilarity], result of:
          0.04868927 = score(doc=1219,freq=10.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.38355696 = fieldWeight in 1219, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1219)
        0.11729058 = weight(_text_:html in 1219) [ClassicSimilarity], result of:
          0.11729058 = score(doc=1219,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.3981093 = fieldWeight in 1219, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1219)
      0.5 = coord(2/4)
    
    Abstract
    Der Hype um autonomes Fahren und KI schaffe gefährliche Illusionen, glaubt Horx. "Digitale Ehrlichkeit" gestehe ein, dass Computer keine realen Probleme lösten. Der Trend- und Zukunftsforscher Matthias Horx hält das Thema Künstliche Intelligenz für ziemlich überschätzt. Es sei "eine Art Fetisch geworden - ein Hype, der gefährliche Illusionen schafft", sagte der Soziologe und Leiter des Zukunftsinstituts in Frankfurt am Main in einem Interview der Deutschen Presse-Agentur. "Die meisten realen Probleme sind viel zu komplex und "lebendig", als dass sie von Datensystemen gelöst werden können." Das gelte auch fürs autonome Fahren. Es sei Zeit für eine "digitale Ehrlichkeit": "Computer und Roboter können weder die Pflege regeln, noch Armut mildern, noch den Verkehr entstauen. Dazu brauchen wir intelligentere soziale, humane Systeme."
    Source
    https://www.heise.de/newsticker/meldung/Trendforscher-Horx-Kuenstliche-Intelligenz-wird-ueberschaetzt-4260107.html?view=print
  9. Rötzer, F.: Sahra Wagenknecht über die Digitalisierung (1999) 0.08
    0.08298992 = product of:
      0.16597985 = sum of:
        0.04868927 = weight(_text_:und in 4951) [ClassicSimilarity], result of:
          0.04868927 = score(doc=4951,freq=10.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.38355696 = fieldWeight in 4951, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4951)
        0.11729058 = weight(_text_:html in 4951) [ClassicSimilarity], result of:
          0.11729058 = score(doc=4951,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.3981093 = fieldWeight in 4951, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4951)
      0.5 = coord(2/4)
    
    Abstract
    Florian Rötzer hat in einem langen Gespräch mit Sahra Wagenknecht, aus dem das Buch "Couragiert gegen den Strom. Über Goethe, die Macht und die Zukunft!" hervorgegangen ist, u.a. darüber gesprochen, wie Kultur und philosophisches Denken die politischen Vorstellungen und den politischen Stil der linken Politikerin geprägt haben. Dabei ging es auch um den Kapitalismus und dessen Abschaffung, um den Kern linker Politik, die Konkurrenz in der Wirtschaft und auch über die Digitalisierung sowie die Ideen, mit einer Maschinensteuer oder einem bedingungslosen Grundeinkommen das Schlimmste zu verhindern. Telepolis veröffentlicht einen Auszug aus dem Buch, das im Westendverlag erschienen ist.
    Source
    https://www.heise.de/tp/features/Sahra-Wagenknecht-ueber-die-Digitalisierung-3888336.html?wt_mc=nl.tp-aktuell.woechentlich
  10. Feustel, R: "Am Anfang war die Information" : Digitalisierung als Religion (2018) 0.08
    0.08298992 = product of:
      0.16597985 = sum of:
        0.04868927 = weight(_text_:und in 522) [ClassicSimilarity], result of:
          0.04868927 = score(doc=522,freq=10.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.38355696 = fieldWeight in 522, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=522)
        0.11729058 = weight(_text_:html in 522) [ClassicSimilarity], result of:
          0.11729058 = score(doc=522,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.3981093 = fieldWeight in 522, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=522)
      0.5 = coord(2/4)
    
    Abstract
    Alternative Fakten? Wie konnte es passieren, dass Gerücht, Lüge, Fakt und Wahrheit ununterscheidbar wurden? Robert Feustel untersucht die Wissensgeschichte von der Industrialisierung bis zur Digitalisierung und zeigt, wie im sogenannten Informationszeitalter ebenjene "Information" zum Heiligen Geist mutierte und den Unterschied zwischen Wahrheit und Lüge einebnet: Hauptsache sie zirkulieren möglichst reibungslos und in Echtzeit. Schließlich gerät auch das Bild des Menschen in den Sog der Digitalisierung. Was unterscheidet das menschliche Denken vom prozessierenden Computer?
    Content
    Vgl. dazu auch das Interview mit D. Irtenkauf unter: https://www.heise.de/tp/features/Am-Anfang-war-die-Information-4262218.html?wt_mc=nl.tp-aktuell.woechentlich.
  11. Engel, B.; Rötzer, F.: Oberster Datenschützer und 73 Mio. Bürger ausgetrickst (2020) 0.08
    0.08298992 = product of:
      0.16597985 = sum of:
        0.04868927 = weight(_text_:und in 954) [ClassicSimilarity], result of:
          0.04868927 = score(doc=954,freq=10.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.38355696 = fieldWeight in 954, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=954)
        0.11729058 = weight(_text_:html in 954) [ClassicSimilarity], result of:
          0.11729058 = score(doc=954,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.3981093 = fieldWeight in 954, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=954)
      0.5 = coord(2/4)
    
    Abstract
    "Datenrasterung". "Gläserner Versicherter". Jetzt äußert sich der Bundesdatenschutzbeauftragte zu dem ungeheuerlichen Vorgang. Es ist schlimmer, als bisher angenommen. Und es zeigt, welche Manöver die Bundesregierung unternommen hat, um Datenschutzrechte von 73 Millionen gesetzlich Versicherter auszuhebeln, ohne dass die betroffenen Bürger selbst davon erfahren. Aber das ist, wie sich jetzt herausstellt, noch nicht alles. Am Montag hatte Telepolis aufgedeckt, dass CDU/CSU und SPD mit Hilfe eines von der Öffentlichkeit unbemerkten Änderungsantrags zum EPA-Gesetz (Elektronische Patientenakte) das erst im November im Digitale-Versorgung-Gesetz (DVG) (Wie man Datenschutz als Versorgungsinnovation framet) festgeschriebene Einwilligungserfordernis zur individualisierten Datenauswertung durch die Krankenkassen still und leise wieder beseitigt haben (zur genauen Einordnung des aktuellen Vorgangs: EPA-Datengesetz - Sie haben den Affen übersehen).
    Source
    https://www.heise.de/tp/features/Oberster-Datenschuetzer-und-73-Mio-Buerger-ausgetrickst-4863346.html?view=print
  12. Schild, M.: Perspektiven für eine integrierte Erschließung : HTML - XML - SGML (1999) 0.08
    0.08293697 = product of:
      0.3317479 = sum of:
        0.3317479 = weight(_text_:html in 2615) [ClassicSimilarity], result of:
          0.3317479 = score(doc=2615,freq=4.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            1.1260232 = fieldWeight in 2615, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.109375 = fieldNorm(doc=2615)
      0.25 = coord(1/4)
    
    Object
    HTML
  13. Tittel, E.: WWW-Programmierung mit HTML & CGI (1996) 0.08
    0.08293697 = product of:
      0.3317479 = sum of:
        0.3317479 = weight(_text_:html in 3529) [ClassicSimilarity], result of:
          0.3317479 = score(doc=3529,freq=4.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            1.1260232 = fieldWeight in 3529, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.109375 = fieldNorm(doc=3529)
      0.25 = coord(1/4)
    
    Object
    HTML
  14. Ready, .; Warner, .: Hybrid HTML Design : Optimales Web-Design für jeden Browser (1996) 0.08
    0.08293697 = product of:
      0.3317479 = sum of:
        0.3317479 = weight(_text_:html in 6081) [ClassicSimilarity], result of:
          0.3317479 = score(doc=6081,freq=4.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            1.1260232 = fieldWeight in 6081, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.109375 = fieldNorm(doc=6081)
      0.25 = coord(1/4)
    
    Object
    HTML
  15. Seeboerger-Weichselbaum, M.: JavaScript : inkl. Version 1.3 (1999) 0.08
    0.08292893 = product of:
      0.16585787 = sum of:
        0.04977029 = weight(_text_:und in 2631) [ClassicSimilarity], result of:
          0.04977029 = score(doc=2631,freq=32.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.39207286 = fieldWeight in 2631, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2631)
        0.11608758 = weight(_text_:html in 2631) [ClassicSimilarity], result of:
          0.11608758 = score(doc=2631,freq=6.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.39402604 = fieldWeight in 2631, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.03125 = fieldNorm(doc=2631)
      0.5 = coord(2/4)
    
    Abstract
    JavaScript ist ein effektiver Programmcode, der direkt in den HTML-Code einer Internet-Seite geschrieben wird. Man benötigt einen Web-Browser, einen ASCII-Editor und dieses Buch und schon kann es losgehen. Bekannt als "abgespecktes Java" stellt JavaScript, wie auch HTML und natürlich Java selbst, eine Säule des WWW dar. Es ist jedoch weitaus einfacher zu erlernen, leichter zu analysieren und bequemer zu handhaben als seine großen Geschwister; ein modernes Tool also. Seit Anfang 2001 gibt es Netscape 6, seit Sommer 2000 den Internet Explorer 5.5. Anlass genug, das Taschenbuch zu aktualisieren und die 3. Auflage herauszubringen. Vom selben Autor u.a. unter der Marke bhv erschienen: Die Einsteigerseminare Java 2, JavaScript und XML. Der Autor ist bereits durch Bücher, die sich mit der Gestaltung von Webseiten beschäftigen, bekannt. Hier befaßt er sich mit JavaScript, einer Scriptsprache, mit der man in Webseiten z.B. sehr einfach Farben verändern und Texte ausgeben, aber auch Fenster anzeigen lassen kann, die Menüs und Dialogboxen enthalten. Eigenständige Applikationen können mit JavaScript nicht erstellt werden. JavaScripte müssen in HTML-Code eingebettet sein und laufen nur unter einem Browser. Der Autor baut auf sein Einsteigerseminar auf, das einen großen Anklang gefunden und zu zahlreichen Rückfragen und Anregungen beim Autor geführt hat. Diese Anregungen sind zum großen Teil hier aufgenommen worden. Auf Grund dieser Entstehungsgeschichte ist es nicht verwunderlich, wenn einige Textpassagen aus dem Einsteigerseminar übernommen worden sind. Dennoch ist ein (zusätzlicher) Kauf auch des vorliegenden Werkes empfehlenswert. Völlig neu hinzugekommen sind die Kapitel zur Formularauswertung mit JavaScript, der Einsatz von Arrays und eine Befehlsreferenz von JavaScript.
    Classification
    ST 250 J35 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen J / Java; JavaScript
    RVK
    ST 250 J35 Informatik / Monographien / Software und -entwicklung / Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) / Einzelne Programmiersprachen (alphabet.) / Programmiersprachen J / Java; JavaScript
  16. Schöhl, W.: ¬Ein umfassendes Datenbanksystem für Print, Radio, Fernsehen und das Internet (1996) 0.08
    0.0812179 = product of:
      0.1624358 = sum of:
        0.061901018 = weight(_text_:und in 6624) [ClassicSimilarity], result of:
          0.061901018 = score(doc=6624,freq=22.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.48763448 = fieldWeight in 6624, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=6624)
        0.10053478 = weight(_text_:html in 6624) [ClassicSimilarity], result of:
          0.10053478 = score(doc=6624,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.34123653 = fieldWeight in 6624, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.046875 = fieldNorm(doc=6624)
      0.5 = coord(2/4)
    
    Abstract
    Es wird ein Datenbanksystem vorgestellt, mit dem die Arbeit in Presse- sowie Informations- und Dokumentationsabteilungen (IuD-Abteilungen) von Unternehmen und Regierungsstellen im Sinne des Workgrouping so gut koordiniert werden kann, daß Doppelarbeit weitgehend vermieden wird und beide Abteilungen einen Zusatznutzen haben. Das gesamte Datenbanksystem (genannt 'Multimedia-Pressesystem') besteht aus bis zu 20 miteinander verbundenen Datenbanken, die möglichst viele Archivierungsaufgaben und sonstige Arbeitsgänge von IuD- und Presseabteilungen erleichtern sollen. Zentrum dieses Pressesystems ist eine umfassende Mediendatenbank, in der alle verschiedene Dokumenttypen verwaltet und gemeinsam durchsucht werden können. Audio- und Videodateien von Radio- und Fernsehberichten können in der Datenbank selbst im Original abgehört oder betrachtet werden. Internetseiten können in der Datenbank im Volltext indexiert und aus der Datenbank heraus können auch alle Textdokumente im HTML-Format automatisch erzeugt werden. Der Beitrag zeigt, wie die Mediendatenbank all die Dokumente aufnimmt und indexiert, die bei der elektronischen Zusammenstellung eines Pressespiegels mit OCR entstehen
  17. Thielicke, R.; Helmstaedter, M.: ¬"Ein völlig neues Kapitel der Künstlichen Intelligenz" : Interview mit Moritz Helmstaedter (2018) 0.08
    0.080420755 = product of:
      0.16084151 = sum of:
        0.018663857 = weight(_text_:und in 497) [ClassicSimilarity], result of:
          0.018663857 = score(doc=497,freq=2.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.14702731 = fieldWeight in 497, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=497)
        0.14217766 = weight(_text_:html in 497) [ClassicSimilarity], result of:
          0.14217766 = score(doc=497,freq=4.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.48258135 = fieldWeight in 497, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.046875 = fieldNorm(doc=497)
      0.5 = coord(2/4)
    
    Abstract
    Moritz Helmstaedter erforscht den Schaltplan des menschlichen Gehirns. Künftig, so die Vorhersage des Managing Directors am Max-Planck-Institut für Hirnforschung, lassen sich wirkliche Gehirn-Computer bauen. Wie geht es weiter mit Deep Learning? Welche Ansätze in der Entwicklung künstlicher Intelligenzen sind vielversprechend, welche Architekturen führen in eine Sackgasse? Moritz Helmstaedter spricht Ende November auf dem Innovators Summit AI in München darüber, welche Erkenntnisse aus der aktuellen Hirnforschung hilfreich sind. Im Gespräch mit Technology Review gibt er einen Einblick. "Frage: Wenn wir es tatsächlich schaffen, Hirn-Computer zu bauen: Kann es passieren, dass sie nicht besser sind als die menschlichen? Antwort: Das ist natürlich Spekulation. Aber es kann durchaus sein, dass wir mit künstlichen Gehirnen an die gleichen Grenzen stoßen wie die Natur. Ein Einzelnes von ihnen wäre dann tatsächlich nicht besser. Aber dafür kann man sehr viele zusammenschalten, also skalieren. Und ein Problem fällt ohnehin weg: Die künstlichen Hirne müssen in keinen Schädel passen."
    Content
    Vgl.: http://www.heise.de/-4188415. Vgl. auch: https://www.heise.de/newsticker/meldung/KI-Forscher-Deep-Learning-wird-abgeloest-4188577.html.
    Source
    https://www.heise.de/tr/artikel/Ein-voellig-neues-Kapitel-der-Kuenstlichen-Intelligenz-4188415.html?view=print
  18. Koch, T.; Seiffert, F.; Wätjen, H.-J.: Informationen im Web anbieten und wiederfinden (1998) 0.08
    0.08041979 = product of:
      0.16083959 = sum of:
        0.043549 = weight(_text_:und in 2840) [ClassicSimilarity], result of:
          0.043549 = score(doc=2840,freq=8.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.34306374 = fieldWeight in 2840, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2840)
        0.11729058 = weight(_text_:html in 2840) [ClassicSimilarity], result of:
          0.11729058 = score(doc=2840,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.3981093 = fieldWeight in 2840, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2840)
      0.5 = coord(2/4)
    
    Content
    Enthält die einzelnen Beiträge: KOCH, T.: Übersicht über die verschiedenen Typen von Suchdiensten; SEIFFERT, F.: Hilfsmittel zur Wahl passender Suchdienste für bestimmte Zwecke; KOCH, T.: Konzeptsuche / Erweiterung der Suchanfrage; KOCH, T.: Kontrolliertes Vokabular; SEIFFERT, F.: Ranking; WÄTJEN, H.-J.: Integration von Searching und Browsing; KOCH, T.: Metadaten und Suchdienste
    Object
    HTML
    Source
    Weiter auf dem Weg zur virtuellen Bibliothek! Kundenservice zwischen Quantität und Qualität. 3. INETBIB-Tagung vom 4.-6. März 1998 in Köln. 2., erw. Aufl. Hrsg.: B. Jedwabski u. J. Nowak
  19. Wätjen, H.-J.: GERHARD : Automatisches Sammeln, Klassifizieren und Indexieren von wissenschaftlich relevanten Informationsressourcen im deutschen World Wide Web (1998) 0.08
    0.08041979 = product of:
      0.16083959 = sum of:
        0.043549 = weight(_text_:und in 4064) [ClassicSimilarity], result of:
          0.043549 = score(doc=4064,freq=8.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.34306374 = fieldWeight in 4064, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4064)
        0.11729058 = weight(_text_:html in 4064) [ClassicSimilarity], result of:
          0.11729058 = score(doc=4064,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.3981093 = fieldWeight in 4064, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=4064)
      0.5 = coord(2/4)
    
    Abstract
    Die intellektuelle Erschließung des Internet befindet sich in einer Krise. Yahoo und andere Dienste können mit dem Wachstum des Web nicht mithalten. GERHARD ist derzeit weltweit der einzige Such- und Navigationsdienst, der die mit einem Roboter gesammelten Internetressourcen mit computerlinguistischen und statistischen Verfahren auch automatisch vollständig klassifiziert. Weit über eine Million HTML-Dokumente von wissenschaftlich relevanten Servern in Deutschland können wie bei anderen Suchmaschinen in der Datenbank gesucht, aber auch über die Navigation in der dreisprachigen Universalen Dezimalklassifikation (ETH-Bibliothek Zürich) recherchiert werden
  20. Weltgipfel zur Informationsgesellschaft : Kommentar zu den Folgerungen für Bibliotheken (2004) 0.08
    0.08041979 = product of:
      0.16083959 = sum of:
        0.043549 = weight(_text_:und in 499) [ClassicSimilarity], result of:
          0.043549 = score(doc=499,freq=8.0), product of:
            0.12694143 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057234988 = queryNorm
            0.34306374 = fieldWeight in 499, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=499)
        0.11729058 = weight(_text_:html in 499) [ClassicSimilarity], result of:
          0.11729058 = score(doc=499,freq=2.0), product of:
            0.29461905 = queryWeight, product of:
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.057234988 = queryNorm
            0.3981093 = fieldWeight in 499, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              5.1475344 = idf(docFreq=701, maxDocs=44421)
              0.0546875 = fieldNorm(doc=499)
      0.5 = coord(2/4)
    
    Abstract
    Im Dezember 2003 hat in Genf der erste Teil des Weltgipfels zur Informationsgesellschaft stattgefunden. Staats- und Regierungschefs aus aller WeIt haben dort eine Abschlusserklärung (Declaration of Principles) und einen Aktionsplan verabschiedet. Der Weg zum zweiten Teil des Gipfels, der vom 16.-18. November 2005 in Tunis stattfinden wird, wird in den Jahren 2004 und 2005 wieder von einer Reihe von Vorbereitungskonferenzen geebnet werden. IFLA war und ist in allen Phasen intensiv an dem Prozess beteiligt. IFLA hat nun einen Kommentar über die Folgerungen der Abschlusserklärung für den Bibliotheksund Informationssektor verfasst.
    Footnote
    Kommentar der IFLA zu den WSIS Declaration of Principles (auch als pdf-Dokument): http://www.ifla.org/III/wsis070604.html. Antwort der IFLA auf die WSIS Declaration of Principles: http://www.ifla.org/III/wsis060604.htmi IFLA Aktivitäten zum WSIS: http://www.ifla.org/III/wsis.html.

Authors

Languages

  • e 32
  • m 3

Types

  • a 8525
  • m 1872
  • el 940
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications