-
Kretschmer, B.; Hackl, Y.; Knapp, M.: ¬Das große Buch Java : mit Top-Index - Nachschlagen für alle Fälle ; heisse Themen, Tips & Tricks: mehr als 100 Programmbeispiele, mit vollständiger Praxisreferenz, verständliche Einführung in die objektorientierte Programmierung (1997)
0.17
0.17413265 = product of:
0.6965306 = sum of:
0.6965306 = weight(_text_:java in 5709) [ClassicSimilarity], result of:
0.6965306 = score(doc=5709,freq=14.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
1.6480849 = fieldWeight in 5709, product of:
3.7416575 = tf(freq=14.0), with freq of:
14.0 = termFreq=14.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=5709)
0.25 = coord(1/4)
- Abstract
- Von der starren Webseite zum animierten Multimedia-Ereignis - Java macht's möglich. Das große Buch Java führt ausführlich uns schrittweise in die Programmierung mit Java ein
- Object
- Java
- RSWK
- Java <Programmiersprache>
- Subject
- Java <Programmiersprache>
-
Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004)
0.17
0.17241476 = product of:
0.34482953 = sum of:
0.2943379 = weight(_text_:java in 225) [ClassicSimilarity], result of:
0.2943379 = score(doc=225,freq=10.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.69644296 = fieldWeight in 225, product of:
3.1622777 = tf(freq=10.0), with freq of:
10.0 = termFreq=10.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=225)
0.05049162 = weight(_text_:und in 225) [ClassicSimilarity], result of:
0.05049162 = score(doc=225,freq=30.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.37962294 = fieldWeight in 225, product of:
5.477226 = tf(freq=30.0), with freq of:
30.0 = termFreq=30.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=225)
0.5 = coord(2/4)
- Abstract
- Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
- Classification
- ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
- Object
- Java
- RSWK
- Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
- RVK
- ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
- Subject
- Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
-
Loviscach, J.: Formen mit Normen (2000)
0.15
0.15006885 = product of:
0.3001377 = sum of:
0.26326382 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
0.26326382 = score(doc=6100,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.62291753 = fieldWeight in 6100, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.036873866 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
0.036873866 = score(doc=6100,freq=4.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.2772374 = fieldWeight in 6100, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0625 = fieldNorm(doc=6100)
0.5 = coord(2/4)
- Abstract
- Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
- Object
- Java
-
Pöppe, C.: Blitzkarriere im World Wide Web : die Programmiersprache Java (1996)
0.14
0.13961671 = product of:
0.55846685 = sum of:
0.55846685 = weight(_text_:java in 4404) [ClassicSimilarity], result of:
0.55846685 = score(doc=4404,freq=4.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
1.3214076 = fieldWeight in 4404, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=4404)
0.25 = coord(1/4)
- Object
- Java
-
Precht, R.D.: Künstliche Intelligenz und der Sinn des Lebens (2020)
0.14
0.13908876 = product of:
0.27817753 = sum of:
0.048779536 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.048779536 = score(doc=977,freq=28.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.36675057 = fieldWeight in 977, product of:
5.2915025 = tf(freq=28.0), with freq of:
28.0 = termFreq=28.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=977)
0.22939798 = weight(_text_:hierin in 977) [ClassicSimilarity], result of:
0.22939798 = score(doc=977,freq=2.0), product of:
0.55792373 = queryWeight, product of:
9.303573 = idf(docFreq=10, maxDocs=44421)
0.059968762 = queryNorm
0.4111637 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.303573 = idf(docFreq=10, maxDocs=44421)
0.03125 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Während die drohende Klimakatastrophe und der Ressourcenverbrauch die Lebensgrundlagen unseres Planeten zerstören, machen sich Informatiker und Geschäftsleute daran, die Entwicklung einer Künstlichen Intelligenz voranzutreiben. Ihr Ziel ist eine "Superintelligenz", die alles das können soll, was Menschen auch können, nur um vielfaches »optimierter«. Ausgehend von einem völlig unzureichenden Menschenbild wollen sie ihren Maschinen eine Moral einprogrammieren. Richard David Precht macht in seinem eindringlichen Essay deutlich, dass dies niemals gelingen kann - allein schon weil Moral grundsätzlich nicht programmierbar ist! Sie ist Ausdruck einer emotionalen Weltbeziehung, abhängig von irrationalen Wertungen und somit unberechenbar. Und wo die Anwälte der Künstlichen Intelligenz ihre Maschinen nach dem Kriterium des vermeintlich größten Glücks entscheiden lassen wollen, zeigt uns Precht, dass es im wirklichen Leben viel weniger um das Glück geht, als die Informatiker annehmen. Der wichtigste Wert menschlichen Lebens ist nicht Glück, sondern Sinn - und der ist weit mehr als die Summe von Glücksmomenten. Precht plädiert deshalb für ein Verbot jeder so genannten »ethischen Programmierung« von Computern und Robotern und zeigt auf, welche Beziehung zur Welt uns Menschen ein Gefühl von Sinn gibt und welche nicht. Denn genau hierin liegt der Ausgangspunkt für ein gelingendes Leben und Zusammenleben im 21. Jahrhundert; einem Jahrhundert, in dem wir uns nicht den Maschinen angleichen, sondern erkennen, dass wir unser Schicksal mit Pflanzen und Tieren teilen - als Gegenpol zur Künstlichen Intelligenz!
- Content
- "Während die drohende Klimakatastrophe und der enorme Ressourcenverbrauch der Menschheit den Planeten zerstört, machen sich Informatiker und Ingenieure daran, die Entwicklung einer Künstlichen Intelligenz voranzutreiben, die alles das können soll, was wir Menschen auch können - nur vielfach »optimierter«. Ausgehend von völlig falschen Annahmen soll den Maschinen sogar eine menschenähnliche Moral einprogrammiert werden. Richard David Precht macht uns eindringlich klar, dass das nicht möglich ist. Denn unser Leben besteht nicht aus der Abfolge vorausberechneter Schritte. Wir sind viel mehr als das. "Der Philosoph Precht formuliert bisweilen zwar sehr salopp, aber er verfügt über eine Reihe von unbestreitbaren Vorzügen. Vor allem: Er löst, auch durch seine durchaus in einem anregenden Sinn ganz eigene Zugangsweise, Diskussionen aus und vermag denkend zu provozieren. Darum verdient dieses populärphilosophische Buch weder euphorische Zustimmung noch empörte Abweisung, sondern eine substanziell fundierte, kontroverse Diskussion - vielleicht mit Bezug auf die Frage, die Platon in der Politeia als wesentlich benannt hat: In der Philosophie gelte es nämlich darüber nachzudenken, auf welche Weise wir leben wollen." (literaturkritik.de)
-
Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002)
0.13
0.12567002 = product of:
0.25134003 = sum of:
0.18615562 = weight(_text_:java in 217) [ClassicSimilarity], result of:
0.18615562 = score(doc=217,freq=4.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.4404692 = fieldWeight in 217, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.0651844 = weight(_text_:und in 217) [ClassicSimilarity], result of:
0.0651844 = score(doc=217,freq=50.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.4900911 = fieldWeight in 217, product of:
7.071068 = tf(freq=50.0), with freq of:
50.0 = termFreq=50.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=217)
0.5 = coord(2/4)
- Classification
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
- Footnote
- Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
- RVK
- ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
-
Petry, A.: Wissen auf schnellen Scheiben (2004)
0.12
0.12456009 = product of:
0.24912018 = sum of:
0.048396945 = weight(_text_:und in 4043) [ClassicSimilarity], result of:
0.048396945 = score(doc=4043,freq=36.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.36387405 = fieldWeight in 4043, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=4043)
0.20072323 = weight(_text_:hierin in 4043) [ClassicSimilarity], result of:
0.20072323 = score(doc=4043,freq=2.0), product of:
0.55792373 = queryWeight, product of:
9.303573 = idf(docFreq=10, maxDocs=44421)
0.059968762 = queryNorm
0.3597682 = fieldWeight in 4043, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.303573 = idf(docFreq=10, maxDocs=44421)
0.02734375 = fieldNorm(doc=4043)
0.5 = coord(2/4)
- Abstract
- Die Verlage setzen auf aufwändige CD-Roms und DVD-Editionen
- Content
- "Mit dem imponierenden Anblick in Leder gebundener Lexikonrücken können sie nicht mithatten. Sie bieten auch nicht das Vergnügen, das das Stöbern in den schweren Wälzern bereiten kann. Wenn es aber darum geht; gezielt nach Begriffen zu suchen und komplexe Zusammenhänge mit Texten, Tönen oder Filmen darzustellen, sind CD-Roms und DVDs klassischen Lexika überlegen. Seit kurzem auf dem Markt ist die neueste Ausgabe jenes Lexikons, dessen Name im deutschen Sprachraum synonym für die gesamte Gattung ist: der Brockhaus. Zu den wichtigsten Neuheiten des Brockhaus multimedial 2005 gehören nach Auskunft der Brockhaus Duden Neue Medien GmbH mit Sitz in Mannheim ein Länderpuzzle, Statistikfunktionen und Tipps zum Schreiben von Hausarbeiten in der Schule und im Studium. Beim Länderpuzzle kann der Nutzer sein Geographiewissen testen, indem er, zum Beispiel die Staaten eines Kontinents der Wirklichkeit entsprechend anordnet. Den Blick auf die Erde, den Mond und - zum ersten Mal - auch den Mars ermöglicht ein dreidimensionaler Atlas. Das Lexikon umfasst neben interaktiven Animationen und Videos insgesamt 240 000 Artikel und 315 000 Stichwörter. Hinzu kommen mehr als 19 500 Abbildungen und der Online-Zugriff auf zwei Millionen Bilder der Deutschen Presse-Agentur. Das Multimedialexikon für Windows wird in zwei Versionen angeboten: Der Brockhaus multimedial 2005 premium auf sechs CDs oder einer DVD kostet rund 90 Euro, die Standardversion rund 40 Euro. Eine neue Version des Fischer Weltalmanach (rund 20 Euro) hat United Soft Media (USM) mit Sitz in München in den Handel gebracht. Mit Hilfe einer neuen, interaktiven Weltkarte kann der Nutzer dabei aktualisierte Daten zur Weltpolitik abrufen. Die Datenbank enthält Informationen zu 194 Staaten der Welt sowie zu Organisationen, Personen und zu den Themen Wirtschaft, Umwelt und Kultur. Zur genauen Orientierung können Karten und Grafiken aufgerufen werden. Die Daten aus verschiedenen Ländern können miteinander verglichen und als Tabellen in der Weltkarte dargestellt werden. Ergänzt wird der Weltalmanach durch die Integration der kompletten Daten aus dem Fischer Länderlexikon, so dass zum Beispiel auch Informationen zur Geschichte, Geographie und zum Klima abgerufen werden können. Der Fischer Weltalmanach 2005 wird ausschließlich auf CD-Rom für das Betriebssystem Windows ausgeliefert.
Die Geschichte der Menschheit von den Anfängen bis in die achtziger Jahre des 20. Jahrhunderts hat Directmedia aus Berlin mit dem Standardwerk Fischer Weltgeschichte von 1982 erneut in den Handel gebracht. Der Inhalt füllt dieses Mal aber nicht die 25 000 Seiten der 36 Buchbände, sondern als Ausgabe 119 aus der Reihe Dfgitale Bibliothek lediglich eine CDRom. In digitaler Form soll die Fischer Weltgeschichte 45 Euro kosten. Historisch interessant ist auch der Inhalt von Pierers Universal-Lexikon und dem Lexikon der gesamten Technik: Beide Werke sind ebenfalls Teil der Digitalen Bibliothek von Directmedia. Pierers Universal-Lexikon, hierin der vierten Auflage von 1865, gilt als der Brockhaus des 19. Jahrhunderts und als ein Meilenstein der Lexikographie. Auf einer DVD präsentieren die 180 000 Seiten das Wissen der damaligen Zeit. Das Werk kostet 240 Euro, bis März 2005 ist es zum Subskriptionspreis für 180 Euro zu haben. Auf einer DVD legt das Lexikon der gesamten Technik Zeugnis ab von der Fortschrittsgläubigkeit zu Anfang des 20. Jahrhunderts. Der Inhalt zeigt die 30 000 Seiten der zweiten Auflage aus dem Jahr 1904. Das historische Techniklexikon ist für 90 Euro zu haben. Auf der Höhe der Zeit ist hingegen Das neue Filmlexikon von USM. Wer zum Beispiel wissen will, in welchen Filmen Brad Pitt vor der Kamera stand oder wer für Steven Spielberg einst dem Weißen Plastikhai Leben einhauchte, kann hier fündig werden. 75 000 Filmbeschreibungen, 30 000 Kritiken sowie Poster, Szenenbilder und Trailer machen das auf DVD und CD-Rom erhältliche Filmlexikon zu einer Fundgrube für Cineasten. Die DVD-Version kostet 49,90 Euro, die CD-Rom mit reduziertem Inhalt 24,90 Euro."
-
Bexte, P.; Künzel, W.: Allwissen und Absturz : der Ursprung des Computers (1993)
0.12
0.12456009 = product of:
0.24912018 = sum of:
0.048396945 = weight(_text_:und in 1722) [ClassicSimilarity], result of:
0.048396945 = score(doc=1722,freq=36.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.36387405 = fieldWeight in 1722, product of:
6.0 = tf(freq=36.0), with freq of:
36.0 = termFreq=36.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1722)
0.20072323 = weight(_text_:hierin in 1722) [ClassicSimilarity], result of:
0.20072323 = score(doc=1722,freq=2.0), product of:
0.55792373 = queryWeight, product of:
9.303573 = idf(docFreq=10, maxDocs=44421)
0.059968762 = queryNorm
0.3597682 = fieldWeight in 1722, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.303573 = idf(docFreq=10, maxDocs=44421)
0.02734375 = fieldNorm(doc=1722)
0.5 = coord(2/4)
- Abstract
- Kaum eine Wissenschaft der Neuzeit dürfte so geschichtslos angetreten sein wie die Computertheorie. Die simulierte Gleichzeitigkeit alles je Geschriebenen, die der Bildschirm erzeugt, scheint die Beschäftigung mit der Historie abzuschaffen. Das System schluckt die Geschichte und läßt so vergessen, daß es seinerseits eine solche hat. Uns aber hat sie nicht mehr losgelassen, seit wir vor Jahren an an die Schriften des mittelalterlichen Theologikers Raimundus Lullus gerieten. Seine logischen Modelle haben wir in die Computersprachen Cobol sowie Assembler übertragen und sie in einen Berliner Großrechner eingegeben. So entstand aus einer bloßen Übersetzung das ablauffähige Programm "Ars Magna. Author: Raimundus Lullus, um 1300". Dieser älteste Systementwurf war uns der Tigersprung in das Vergangene, der das Kontinuum der Geschichtslosigkeit aufsprengt. Im Kurzschluß von Jetztzeit und Vergangenheit glühen Verbindungen auf, die scheinbar Bekanntes in neuem Licht erscheinen lassen. Daß die Elektronenhirne einen solch direkten Draht zu mittelalterlichen Gottesbeweisen haben, verlangt nach einer Spurensicherung neuer Art, nach einer besonderen Archäologie des Immateriellen. Die Spur führt auf ein ungesichertes Terrain, auf verschüttete Pfade durch zerbrochene Buchstäblichkeiten, die keine Kabbala mehr zusammenhält. Vertraute Oppositionsbegriffe, die den Dingen eine neuzeitliche Ordnung geben würden, wie Wissenschaft/Kunst, Subjekt/Objekt, Religion/Technik, greifen hier nicht mehr. Hier bedarf es einer anderen Lektüre. Und in solcher Überschreitung zeigen uns die alten Texte plötzlich die Spuren des Neuen. Die von Raimundus Lullus ab 1275 entwickelte Logik ist Gestalt geworden Kosmologie. Sie verkörpert Offenbarungswissen, demonstriert die Logik des Universums. In ihrem kombinatorischen Verfahren sind Gottesbeweis und Maschinenbau identisch, sie fallen zusammen, bilden keine Gegensätze. Mit ihr wird ein Feld eröffnet, das sich nicht durch Widersprüche strukturiert, sondern durch hemmungslose Kommunikation von anderweitig Getrenntem. Alles folgt hier ein und derselben Logik, einer Ars Combinatoria, die durch alle Bereiche geht. Sie durchmißt die gesamte Stufenleiter des Seins, von den Steinen, Pflanzen, Tieren, über Menschen, Himmel, Engel bis hinauf zu Gott und wieder hinab. So verbindet diese Logik Himmel und Erde, Asien und Europa, medizinischen und juristischen Körper, Musik und die Quadratur des Kreises etc. Diese Kombinatorik leistet also, was der Mythos älteren Kulturen bot: die Verknüpfung von allem mit allem. So entstehen Netzwerke, als deren ältester Programmierer sich Raimundus Lullus erweist. Seine Ars Magna liefert uns die Basis-Algorithmen, seine Tafeln geben uns den Code des Universums. Hierin berührt er sich mit einer Theorie des Universums als "big computer", wie kein Geringerer als Konrad Zuse sie in unseren Tagen vorgekegt hat. Lullus war der erste Hacker in den himmlischen Datenbanken.
- Classification
- ER 640 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachphilosophie (Primärliteratur der Sprachphilosophie; Sekundärliteratur s.o. bei Geschichte der Sprachwissenschaft) / Sonstiges
- RVK
- ER 640 Allgemeine und vergleichende Sprach- und Literaturwissenschaft. Indogermanistik. Außereuropäische Sprachen und Literaturen / Allgemeine Sprachwissenschaft / Sprachphilosophie (Primärliteratur der Sprachphilosophie; Sekundärliteratur s.o. bei Geschichte der Sprachwissenschaft) / Sonstiges
-
Kettner, M.: Im argumentativen Diskurs : Feuereifer des Denkens: Zum 80. Geburtstag des Philosophen Karl-Otto Apel (2002)
0.12
0.12317616 = product of:
0.24635231 = sum of:
0.045629077 = weight(_text_:und in 1311) [ClassicSimilarity], result of:
0.045629077 = score(doc=1311,freq=32.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.34306374 = fieldWeight in 1311, product of:
5.656854 = tf(freq=32.0), with freq of:
32.0 = termFreq=32.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=1311)
0.20072323 = weight(_text_:hierin in 1311) [ClassicSimilarity], result of:
0.20072323 = score(doc=1311,freq=2.0), product of:
0.55792373 = queryWeight, product of:
9.303573 = idf(docFreq=10, maxDocs=44421)
0.059968762 = queryNorm
0.3597682 = fieldWeight in 1311, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.303573 = idf(docFreq=10, maxDocs=44421)
0.02734375 = fieldNorm(doc=1311)
0.5 = coord(2/4)
- Content
- Der Begründer der "Diskursethik", Karl-Otto Apel, wird heute 80 Jahre alt. Seinen Geburtstag feiert er auf einem ihm zu Ehren veranstalteten Symposion zum Menschenrechtsethos zwischen "erster" und ,;dritter" Welt in Mexiko, wo er - wie in vielen lateinamerikanischen Ländern - hohes Ansehen genießt. Seine philosophische Position bat Apel "Transzendentalpragmatik" genannt. Kant bezeichnete jene Untersuchungen als transzendental, die die strukturelle Verfassung unseres erkennenden Zugangs zu Gegenständen aller Art aufklären wol-len. Freilich glaubte Kant noch, dass sich solche Strukturen, die die Möglichkeit der Gültigkeit unserer Erkenntnisakte verbürgen, ohne Bezug auf Sprache und Kommunikation charakterisieren lassen. Und Kants Erkenntnisbegriff erlaubt keine adäquate Thematisierung derjenigen Wissenschaften, die, wie zum Beispiel die Soziologie, Geschichts-, Kunst- oder Rechtswissenschaften, nicht von natürlichen Phänomenen, sondern von kulturellen Gestaltungen handeln. Über beide irreführenden Beschränkungen führt Apel den kantischen Ansatz hinaus, indem er Kants Frage nach den Strukturen der Gegenstandskonstitution sprachphilosophisch transformiert: Sie geht, über in die Aufklärung von Voraussetzungen, an die wir uns halten müssen, wenn wir mit der vernünftigen Rede von Autoren und Adressaten, das heißt: im "argumentativen Diskurs", Geltungsansprüche verbinden, die allgemeinverbindlich gemeint sind: wie die Wahrheit unserer Aussagen, die Richtigkeit unserer Moralurteile, die Sinnhaftigkeit überhaupt unseres Handelns in und außerhalb der Sprache.
Als erster Philosoph in Deutschland hat Apel bereits in den. sechziger Jahren Heideggers Welterschließungsphilosophie, die philosophische Hermeneutik von Dilthey bis Gadamer und die Sprachspiel-Analysen von Wittgenstein in eine kritische Zusammenschau gebracht. Der Ertrag erschien 1973 in den zwei Bänden seiner inzwischen "klassischen" Aufsatzsammlung Transformation der Philosophie im Suhrkamp Verlag: Hier findet sich auch der Gründungstext der Diskursethik. Die Diskursethik, also jene berühmte inhaltlich minimale Moral, die für alle möglichen zur Argumentation fähigen und willigen Wesen gilt, hat Apel ideell geboren in einem Essay der späten sechziger Jahre über das Apriori der , Kommunikationsgemeinschaft. Die Variante, zu der Jürgen Habermas sie weiterentwickelt hat, wird inzwischen auch in amerikanischen Philosophy Departments diskutiert; merkwürdigerweise halten dort viele Habermas für den Begründer der Diskursethik. Eine zweite bedeutende Aufsatzsammlung Apels, Diskurs und Verantwortung, erschien 1988 (ebenfalls bei Suhrkamp). Hierin entwickelt Apel Konsequenzen seiner Position für die praktische Philosophie. Mit Postmodernisten und Dekonstruktivisten, mit Gianni Vattimo, Richard Rorty, Jacques Derrida, Jean Francois Lyotard, aber auch mit seinem Freund und Kollegen Jürgen Habermas, dem er eine "Verklärung der Lebenswelt" vorwirft, geht er darin hart ins Gericht: Er begreift all diese Theorieansätze als Spielarten einer Vernunftkritik, die die, Macht der Vernunft unnötig schwächer ersch einen lässt, als' sie ist. Der springende Punkt in jener Philosophie der vernünftigen Geltungsansprüche, als die man die Transzendentalpragmatik auch charakterisieren könnte, ist eine innige Verbindung, die besteht zwischen dem Willen zum Sichrechtfertigenkönnen und einem Sichöffnen für die kritischen Einsprüche anderer, sus welchem Kontext, welcher Kultur und welcher besonderen Lebenswelt `diese Einsprüche auch kommen mögen. Hier offenbart Apel die lebensgeschichtlichen Wurzeln des eigenen Engagements für ein Ethos der Diskursivität: Jahrgang 1922, erlebte er als Soldat im Zweiten Weltkrieg den deutschen "Nazi-Kommunitarismus" als grauenhaften Zerfall auch der moralischen Logik der Zwischenmenschlichkeit. Das Beharren auf abgegrenzten Gemeinschaftsidentitäten ist für ihn der erste Schritt zum Ausschluss des Anderen, Relativismus in der Moral die schiefe Bahn zur Barbarei.
Apel hat seit 1961 in Mainz, Kiel, Saarbrücken und bis zu seiner Emeritierung 1987 an der Frankfurter Johann Wolfgang Goethe-Universität gelehrt. Viele Haupt- und Nebenfachstudenten haben in seinen Vorlesungen und Seminaren mit leibhaftiger Intensität 'erfahren, was Feuereifel des philosophischen Denkens und unermüdliche Anstrengung des Begriffs sein können: Philosophie nicht als Trost über die Zerrissenheit der modernen Welt, sondern als andauernde Provokation, angetrieben durch die hilosophische Grundfrage, was an einer sche denn wirklich Vernünftiges dran sei.
-
Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006)
0.12
0.122674204 = product of:
0.24534841 = sum of:
0.19744785 = weight(_text_:java in 977) [ClassicSimilarity], result of:
0.19744785 = score(doc=977,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.46718815 = fieldWeight in 977, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.047900558 = weight(_text_:und in 977) [ClassicSimilarity], result of:
0.047900558 = score(doc=977,freq=12.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.36014193 = fieldWeight in 977, product of:
3.4641016 = tf(freq=12.0), with freq of:
12.0 = termFreq=12.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=977)
0.5 = coord(2/4)
- Abstract
- Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
- Source
- Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
-
Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006)
0.12
0.11778647 = product of:
0.23557293 = sum of:
0.16453989 = weight(_text_:java in 50) [ClassicSimilarity], result of:
0.16453989 = score(doc=50,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.38932347 = fieldWeight in 50, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.07103305 = weight(_text_:und in 50) [ClassicSimilarity], result of:
0.07103305 = score(doc=50,freq=38.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.53406435 = fieldWeight in 50, product of:
6.164414 = tf(freq=38.0), with freq of:
38.0 = termFreq=38.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=50)
0.5 = coord(2/4)
- Abstract
- Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
- Source
- Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
-
Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011)
0.12
0.115659334 = product of:
0.23131867 = sum of:
0.19744785 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
0.19744785 = score(doc=1181,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.46718815 = fieldWeight in 1181, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.033870813 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
0.033870813 = score(doc=1181,freq=6.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.25465882 = fieldWeight in 1181, product of:
2.4494898 = tf(freq=6.0), with freq of:
6.0 = termFreq=6.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.046875 = fieldNorm(doc=1181)
0.5 = coord(2/4)
- Abstract
- Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
-
Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007)
0.12
0.11565835 = product of:
0.2313167 = sum of:
0.18615562 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
0.18615562 = score(doc=1761,freq=4.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.4404692 = fieldWeight in 1761, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.04516108 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
0.04516108 = score(doc=1761,freq=24.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.33954507 = fieldWeight in 1761, product of:
4.8989797 = tf(freq=24.0), with freq of:
24.0 = termFreq=24.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.03125 = fieldNorm(doc=1761)
0.5 = coord(2/4)
- Abstract
- Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
-
Heidenreich, S.: FlipFlop : digitale Datenströme und die Kultur des 21. Jahrhunderts (2004)
0.11
0.11453077 = product of:
0.22906154 = sum of:
0.05701307 = weight(_text_:und in 208) [ClassicSimilarity], result of:
0.05701307 = score(doc=208,freq=68.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.42865464 = fieldWeight in 208, product of:
8.246211 = tf(freq=68.0), with freq of:
68.0 = termFreq=68.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=208)
0.17204848 = weight(_text_:hierin in 208) [ClassicSimilarity], result of:
0.17204848 = score(doc=208,freq=2.0), product of:
0.55792373 = queryWeight, product of:
9.303573 = idf(docFreq=10, maxDocs=44421)
0.059968762 = queryNorm
0.30837277 = fieldWeight in 208, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.303573 = idf(docFreq=10, maxDocs=44421)
0.0234375 = fieldNorm(doc=208)
0.5 = coord(2/4)
- Classification
- MS 7960 [Soziologie # Spezielle Soziologien # Soziologie der Massenkommunikation und öffentlichen Meinung # Radio, Fernsehen und Film]
- Footnote
- Rez. in: Information - Wissenschaft und Praxis 57(2006) H.8, S.444 (W. Schweibenz): "Im Rahmen seiner Mitarbeit im DFG-Projekt Geschichte und Systematik der digitalen Medien (2001 bis 2004) am Seminar für Ästhetik des Fachbereichs Kulturwissenschaft der Humboldt-Universität Berlin hat sich Stefan Heidenreich intensiv mit dem technischem Fortschritt und seinen kulturellen Folgen befasst. Daraus resultiert sein Buch "Flip Flop", das seinen Titel einer Schaltung beim ersten amerikanischen Digitalrechner ENIAC verdankt, der nach den Erfindern "Eccles-Jordan-Trigger" oder kurz "Flipflop" genannt wurde. Die Wahl des Titels ist wegweisend, denn die Bezeichnung Flipflop benenne, so Heidenreich, den Wechsel zwischen zwei Zuständen, wobei das Bemerkenswerte an dieser Schaltung gerade darin liege, dass dieser Wechsel nicht in einem festen Rhythmus wie bei Oszillatoren oder Taktgebern vollzogen werde, sondern nur dann, wenn ein Impuls eintrete und zu einer Veränderung führe - dies gelte, so Heidenreich, auch für das Verhältnis von Medien und Kultur. So zieht sich das Thema des Impulses wie ein roter Faden durch das Buch. In seiner zentralen These behauptet Heidenreich, dass jede neue Technologie am Anfang leer sei und damit auch das Nutzungspotenzial völlig offen sei und sich häufig in krassem Gegensatz zu den Vorstellungen der Erfinder oder frühen Nutzer entwickle, wenn ein entsprechender Impuls eintrete. Diese These belegt Heidenreich unterhaltsam mit kurios anmutenden Geschichten über historische Fehleinschätzungen der Verwendung des Computers in Unternehmen und im privaten Bereich bis hin zur New Economy. Am Beispiel der frühen Fonografie und Fotografie führt er aus, was passiert, wenn Technologie und Kommunikation aufeinander treffen, das heißt, wenn eine Technologie das Labor verlässt, sich im Alltag bewähren muss und nach einer Phase der Standardisierung eine kritische Masse von Inhalten entwickelt, die das Medium attraktiv machen und zur Herausbildung einer eigenen Medienkultur führt, die wiederum den Ablauf der weiteren technologischen Entwicklung beeinflusst. Nach Ausflügen in die Vergangenheit der Medien widmet sich Heidenreich dem zentralen Anliegen seines Buches, das den Zusammenhängen zwischen Datenströmen und der Kultur gilt.
Heidenreich hält die Trennung von Technik und Inhalt bei der Betrachtung von Datenübertragung in Computernetzwerken für nicht hilfreich bezüglich des Verständnisses derjenigen Prozesse, die die Nutzung eines Mediums erklären. Weit interessanter findet er das Modell der Attraktion, das davon ausgeht, dass die anfänglich leeren Technologien der Kommunikation sich allmählich für Informationen als attraktiv erweisen, ähnlich wie eine neue Straße den Verkehr anzieht. Für Heidenreich sind auch die großen kulturellen Datenströme Resultat solcher Prozesse der Attraktion, wie er am Beispiel des World Wide Web beschreibt. Aus diesen Datenströmen und ihrer Attraktivität ergeben sich wiederum kulturelle und ökonomische Konsequenzen, weil Computernetzwerke ein universelles Medium darstellen, das nicht wie andere Techniken für ganz bestimmte Medientypen entworfen wurde, wie etwa Film und Photographie für Bilder oder Schallplatten für Töne. Hierin liege, so Heidenreich das besondere Potenzial der Computernetzwerke, wenn man bedenkt, dass Geräte, die für einen bestimmten Zweck entworfen worden seien, sich später aber für ganz andere Informationen als attraktiv erwiesen hätten. Die Konsequenzen der Datenströme werden interessant, wenn es um das Zusammenspiel von Technik, Ökonomie und Kultur geht. Bei den kulturellen Datenströmen geht Heidenreich von einem Primat der Bindung über die Bedeutung aus, die durch Technisierung, Vernetzung und Konsum entsteht. Er verdeutlicht dies am Beispiel der Suchmaschine Google, die die Bedeutung einer Web-Adresse aus der Zahl der darauf verweisenden Links ermittelt. In vergleichbarer Form könnten sich eine Bindungswirkung und damit eine Bewertung der Bedeutung zwischen kulturellen Inhalten ergeben. Durch so genannte Ich-Formate, die den Benutzern Möglichkeiten einer Interaktion und einer Identität im digitalen Raum des Internets geben, wird auch der Benutzer in diese Bindungen einbezogen und Teil der Datenströme und damit der digitalen Ökonomie, was Heidenreich kritisch bewertet. Dabei bezieht er sich stark auf die Thesen von Jeremy Rifkin und dessen Buch "Access - Das Verschwinden des Eigentums" (Fischer-Taschenbuch, 2002, ISBN 3-596-15620-3). In seinem Buch gelingt es Heidenreich, überzeugend und anschaulich seine Hauptthese zu belegen, dass aus der gegenwärtigen Anwendung einer Technologie nicht auf ihre zukünftige Einsatzmöglichkeiten geschlossen werden könne, weil diese sich erst im Umgang mit ihr entwickle. Auch wenn man die einzelnen Unterthesen und Schlussfolgerungen von Heidenreich nicht in allen Punkten befürworten oder teilen mag, bietet das Buch doch in unterhaltsamer Form Anregungen zum Nachdenken und zur eigenen Auseinandersetzung mit den Datenströmen und der Kultur des 21. Jahrhunderts, an der wir alle teilhaben und die wir mitgestalten."
- RVK
- MS 7960 [Soziologie # Spezielle Soziologien # Soziologie der Massenkommunikation und öffentlichen Meinung # Radio, Fernsehen und Film]
-
Reischer, J.: Zeichen - Information - Kommunikation : Analyse und Synthese des Zeichen- und Informationsbegriffs
0.11
0.111427344 = product of:
0.22285469 = sum of:
0.05080621 = weight(_text_:und in 2591) [ClassicSimilarity], result of:
0.05080621 = score(doc=2591,freq=54.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.38198817 = fieldWeight in 2591, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2591)
0.17204848 = weight(_text_:hierin in 2591) [ClassicSimilarity], result of:
0.17204848 = score(doc=2591,freq=2.0), product of:
0.55792373 = queryWeight, product of:
9.303573 = idf(docFreq=10, maxDocs=44421)
0.059968762 = queryNorm
0.30837277 = fieldWeight in 2591, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.303573 = idf(docFreq=10, maxDocs=44421)
0.0234375 = fieldNorm(doc=2591)
0.5 = coord(2/4)
- Abstract
- Wer über Information redet oder schreibt, sticht in ein Hornissennest und setzt sich anschließend darauf. Die Konfrontation mit dem heiligen Gral der Wissenschaften beschwört nicht selten ein vielfaches Echo herauf, dessen Resonanz ein dickes Trommelfell erfordert. Das allpräsente Informationskonzept tönt aus fast allen wissenschaftlichen Disziplinen wie ein Reviergesang, mit dem die alleinige Dominanz über die Domäne der Information beansprucht wird. Der Reiz des Themas pervertiert dabei zum Reizthema, in dessen Gefilde die Wissenschaftler verschiedenster Fachrichtungen dem Reizklima interdisziplinäre Verspannungen und Missverständnisse ausgesetzt sind. Das Zauber- und Modewort des alten wie neuen Jahrtausends war nach und nach in nahezu alle Kultur- und Naturwissenschaften vorgedrungen und hatte dort begonnen, auf dem jeweiligen Nährboden ein Eigenleben zu entfalten. So erstaunt es nicht, wenn der Informationsbegriff heute ein Konglomerat unterschiedlicher Verständnisse aus einzelnen Disziplinen und Fachsprachen darstellt, gepaart mit den Verwendungsweisen der Alltagssprache. Der Informationsbegriff ist dadurch zu einem babylonischen Konzept geworden, das nurmehr Sprachverwirrung stiftet. Es scheint die Sisyphosaufgabe unserer Zeit, das Knäuel zu durchschlagen.
Es ist schon eine merkwürdige Ironie, dass wir (angeblich) im Informationszeitalter leben, das uns die Informationsgesellschaft gebracht hat, in der wir die Informationstechnik verwenden, nur um in der Informationsflut zu versinken - und ohne genau bestimmen zu können, was für eine Art Treibstoff Information tatsächlich ist, mit dem wir unsere Informationsmaschine Gehirn betreiben. Dabei scheitern wir nicht nur an der Frage, wo Information herkommt, was sie ist und wie sie wirkt; unser mentaler Motor gerät auch dann ins Stocken, wenn wir uns mit zu wenig oder zu viel Information abplagen müssen. Die Fluten des Internets mit seinem schwer konsumier- und verdaubaren Treibgut an World Wide Waste lassen uns auf einer Datenmüllhalde surfen, anstatt die Informationsnuggets zu schürfen. Der Unbedarfte wird diesen Unterschied freilich kaum bemerken, zumal die fast vollständige Durchdringung des alltäglichen Lebens mit Information und seinen nächsten Verwandten einen differenzierten und distanzierten Blick verstellt. Wenn wir von Information reden, konzentrieren wir hierin nichts weniger als das gesamte Spektrum menschlichen Selbstverständnisses: Zeichen, Sprache, Kommunikation, Handlung, Lektion, Kognition, Repräsentation, Erkenntnis. Information bestimmt (über) den Menschen wie kein anderes Element, sie ist Grundstoff und treibende Kraft unseres informationellen Metabolismus, der uns am (Er-)Leben hält.
Die Begründung einer Zeichentypologie durch die beiden entscheidenden semiotischen Merkmale der Arbitrarität vs. Natürlichkeit und Konstanz vs. Varianz im Verhältnis von Notation und Denotation ermöglicht es uns, Zeichen nach ihrem Informationsgehalt in der Sprache auch außerhalb einer Sprechsituation zu hinterfragen und die allgemein durch ein Zeichen vermittelbare semantisch-begriffliche Information unter Absehung von einem bestimmten Sprecher und seinen Intentionen zu betrachten [vgl. hierzu auch Reischer 2006]. Konstant-arbiträre Zeichen wie sprachliche Symbole besitzen Denotation aufgrund ihrer konventionalen Bindung eines Inhalts bzw. einer Funktion an eine Notation, die von allen Sprechern einer Sprache geteilt wird. Dieses geteilte Sprach- und Bedeutungswissen erst ermöglicht überhaupt geregelte Kommunikation und die gezielte Vermittlung von Information dergestalt, dass ein sprachlicher Ausdruck - vom einzelnen Wort bis zum ganzen Text - eine oder mehrere festgelegte Bedeutungen hat, die durch Kontext und Sprecher nurmehr variiert werden (durch Selektion oder Spezifikation seiner Bedeutung); d.h. es besteht in der Sprechergemeinschaft unausgesprochene Einigkeit darüber, welche Inhalte im Normalfall und allgemein mit einem Ausdruck vermittelt werden können. Jeder extern realisierte, medial(isiert)e Text ist als Manifestation eines lexikalischen und grammatikalischen Ausschnitts einer Sprache zu betrachten; als solcher stellt er mediale Information dar, der potenziell semantischen Informationsgehalt im Sinne der im Hörer erzielbaren Kenntnis und Erkenntnis aufweist. Die Stellung eines lexikalischen Ausdrucks innerhalb eines Sprach- bzw. Begriffssystems bestimmt mit, welche und wie viel semantische Information durch ihn vermittelt werden kann.
- Content
- Inhalt: 1 Einleitung 2 Drei Zeichentheorien 2.1 Saussures Zeichenkonzeption 2.2 Morris' Zeichenkonzeption 2.3 Kellers Zeichenkonzeption 3 Vier Informationstheorien 3.1 Nauta 3.2 Fox 3.3 Janich 3.4 Kuhlen 4 Informationsbegriffe in den Sprachen 5 Informationsverständnisse im Detail 5.1 Vermeintlich einheitliche Informationsbegriffe 5.2 Eine semiotische Informationskonzeption 5.3 Semiotische Konzeptionen und Terminologien 5.4 Eine einheitliche Informationsterminologie 6 Das Informationspotenzial von Zeichen
-
Vonhoegen, H.: Einstieg in XML (2002)
0.11
0.11108004 = product of:
0.22216009 = sum of:
0.16288617 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
0.16288617 = score(doc=5002,freq=4.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.38541055 = fieldWeight in 5002, product of:
2.0 = tf(freq=4.0), with freq of:
4.0 = termFreq=4.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.05927391 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
0.05927391 = score(doc=5002,freq=54.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.44565287 = fieldWeight in 5002, product of:
7.3484693 = tf(freq=54.0), with freq of:
54.0 = termFreq=54.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.02734375 = fieldNorm(doc=5002)
0.5 = coord(2/4)
- Abstract
- Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
- Footnote
- Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
-
Kolodziejczyk, M.: Sehen Sie ruhig nach : Immer mehr Magazin- und Zeitungsarchive sind offen und kostenlos (2008)
0.11
0.1061814 = product of:
0.2123628 = sum of:
0.040314324 = weight(_text_:und in 2309) [ClassicSimilarity], result of:
0.040314324 = score(doc=2309,freq=34.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.30310458 = fieldWeight in 2309, product of:
5.8309517 = tf(freq=34.0), with freq of:
34.0 = termFreq=34.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0234375 = fieldNorm(doc=2309)
0.17204848 = weight(_text_:hierin in 2309) [ClassicSimilarity], result of:
0.17204848 = score(doc=2309,freq=2.0), product of:
0.55792373 = queryWeight, product of:
9.303573 = idf(docFreq=10, maxDocs=44421)
0.059968762 = queryNorm
0.30837277 = fieldWeight in 2309, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
9.303573 = idf(docFreq=10, maxDocs=44421)
0.0234375 = fieldNorm(doc=2309)
0.5 = coord(2/4)
- Content
- "Ob Hippies oder RAF, ob Mauerfall oder 11. September - wer derlei Phänomenen und Ereignissen in der zeitaktuellen Presse nachspüren will, muss meist einiges an Aufwand und Kosten auf sich nehmen. Recherche in Printmedien heißt entweder in stickigen Bibliotheken stöbern und zahllose Zeitungen zerfleddern oder eben: im Internet Artikel ordern und dafür etliche Euro berappen. Am 14. Januar verkündete nun der Focus, er stelle als "erstes Nachrichtenmagazin Deutschlands" sein Print-Archiv kostenfrei online. Sämtliche Themen können seither über eine Suchmaske recherchiert, alle Artikel und Hefte aus 15 Jahrgängen per Mausklick abgerufen werden. Laut Focus-Herausgeber Helmut Markwort ist dieses Novum eine Art Geschenk an die Leser, pünktlich zum 15. Geburtstag der Zeitschrift. "Focus dankt seinen Lesern. Wir beschenken sie daher mit dem Kostbarsten, was wir besitzen: Alle unsere kompetent recherchierten Artikel", hieß es in der Presseerklärung. Offenbar wird das Präsent gern angenommen, wie Focus-Sprecher Uwe Barfknecht der FR mitteilt: "Die Zugriffszahlen übertreffen unsere Erwartungen um Größenordnungen." Nun hoffe man, dass weitere Verlage nachziehen, je mehr, "desto spannender wird das freie Internet für umfassende historische Recherchen". Die Spannung steigt zwar nicht rasant, aber stetig. Blogger und Online-Foren bejubeln mit zunehmender Frequenz, dass wieder ein Presse-Archiv "geknackt" sei. Es könnte sich zu einem Trend entwickeln. So bietet die New York Times seit vergangenen September auf nytimes.com ihr Material aus neun Dekaden kostenlos an: vom Gründungsjahr 1851 bis 1922 sowie von 1986 bis heute. Auch andere haben ihre Print-Archive entsperrt, komplett oder zumindest teilweise: The Economist zum Beispiel oder die spanischen Tageszeitungen El Mundo und El País.
In Deutschland war es allerdings de facto nicht der Focus, der in Sachen Öffnung einsam vorangeprescht ist. Bereits seit Juni 2007 stehen sämtliche Beiträge der Zeit von 1995 an im Netz. Die Meldung der Wochenzeitung, im Dezember das vollständige Archiv von 1946 bis heute frei zu schalten, ging etwas unter. Wohl auch, weil zeit.de kein großes Buhei darum machte, sondern die Freigabe der Archive schlicht für "eine Konsequenz bestehender Verhältnisse" hält. Schließlich, so sagt der stellvertretende Chefredakteur Steffen Richter, hätten sich Recherche-Kultur und Medienrezeption grundlegend gewandelt. Der Spiegel geht bald noch einen Schritt weiter: In einem Joint Venture mit der Bertelsmann-Tochter Wissen Media Group werkeln die Mitarbeiter seit vergangenem Herbst an einem umfangreichen Recherche- und Informations-Portal, in dem nicht nur sämtliche bislang kostenpflichtigen Archiv-Inhalte seit Gründung des Blattes 1947 frei zugänglich sein werden. Wer bei Spiegel Wissen ein Suchwort eingibt, bekommt neben den entsprechenden Spiegel-Artikeln zusätzlich Texte aus Bertelsmann-Lexika und -Wörterbüchern serviert. Hinzu kommen Einträge aus der freien Enzyklopädie Wikipedia. Die Plattform soll im Frühjahr online gehen. Der genaue Termin stehe noch nicht fest, nach Einschätzung von Hauke Janssen, Geschäftsführer von Spiegel Wissen, könnte es jedoch eher klappen, als geplant. Bleibt die Frage, was denn eigentlich die Printmedien davon haben, ihre kostbaren Texte nun kostenlos ins Netz zu stellen. "Diese Frage ist so alt wie der Online-Journalismus", sagt Janssen. Spiegel-Online habe selbst lange mit "paid content" (etwa: kostenpflichtiger Inhalt) experimentiert und dann auf ein werbefinanziertes Portal gesetzt. "Die Archiv-Inhalte haben wir allerdings bepreist gelassen."
Bislang. Doch der Umsatz aus dem paid content stagniere und sei ohnehin kaum relevant. Statt abzusperren, sei es daher "klüger für die Marke Spiegel", den Nutzer im Internet mit Printartikeln zu versorgen und das Angebot über Werbung zu finanzieren. Lediglich das aktuelle Heft soll im Netz weiterhin kostenpflichtig sein. Janssen spricht von "Chancengleichheit" und davon, dass der "gesellschaftliche Mehrwert" wachse. "Jeder, der etwas wissen möchte, hat Zugriff auf die notwendigen Informationsquellen." Ähnlich sieht es der Deutsche Journalisten Verband (DJV). "Aus unserer Sicht ist die Öffnung der Archive generell zu begrüßen, da dem Bürger journalistische Inhalte einfacher zugänglich sind", sagt DJV-Sprecherin Nicole von Stockert. Auch Frank Thomsen, Chefredakteur von stern.de, ist von diesem "spannenden Ansatz" sehr angetan. "Dass wir ihn derzeit nicht verfolgen, hat einen einfachen Grund: Wir haben im Moment andere Prioritäten." Wenn es um Neuerungen im Online-Journalismus geht, dauert es meist nicht lange, bis sich Kritiker erheben, die um den Verkauf der Druckauflage und die Zukunft der Presse überhaupt bangen. Doch die Freigabe der Archive - hierin sind sich die Medienhäuser ebenso einig wie in ihrem Entzücken für die Sache - stellt wohl keine Gefahr dar."
-
Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999)
0.10
0.098723926 = product of:
0.3948957 = sum of:
0.3948957 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
0.3948957 = score(doc=1743,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.9343763 = fieldWeight in 1743, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=1743)
0.25 = coord(1/4)
- Abstract
- Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
-
Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996)
0.10
0.098723926 = product of:
0.3948957 = sum of:
0.3948957 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
0.3948957 = score(doc=2137,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.9343763 = fieldWeight in 2137, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.09375 = fieldNorm(doc=2137)
0.25 = coord(1/4)
-
Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004)
0.10
0.09856604 = product of:
0.19713208 = sum of:
0.16453989 = weight(_text_:java in 729) [ClassicSimilarity], result of:
0.16453989 = score(doc=729,freq=2.0), product of:
0.42263028 = queryWeight, product of:
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.059968762 = queryNorm
0.38932347 = fieldWeight in 729, product of:
1.4142135 = tf(freq=2.0), with freq of:
2.0 = termFreq=2.0
7.0475073 = idf(docFreq=104, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.0325922 = weight(_text_:und in 729) [ClassicSimilarity], result of:
0.0325922 = score(doc=729,freq=8.0), product of:
0.13300467 = queryWeight, product of:
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.059968762 = queryNorm
0.24504554 = fieldWeight in 729, product of:
2.828427 = tf(freq=8.0), with freq of:
8.0 = termFreq=8.0
2.217899 = idf(docFreq=13141, maxDocs=44421)
0.0390625 = fieldNorm(doc=729)
0.5 = coord(2/4)
- Abstract
- Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.