Search (4766 results, page 1 of 239)

  • × year_i:[2000 TO 2010}
  1. Funk, V.: Wirbel um Sperrung von Wikipedia : Linken-Politiker Heilmann geht gegen Online-Lexikon vor - und gibt dann doch klein bei (2008) 0.42
    0.41743532 = product of:
      0.83487064 = sum of:
        0.02855943 = weight(_text_:und in 2976) [ClassicSimilarity], result of:
          0.02855943 = score(doc=2976,freq=10.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.2191754 = fieldWeight in 2976, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2976)
        0.8063112 = weight(_text_:heilmann in 2976) [ClassicSimilarity], result of:
          0.8063112 = score(doc=2976,freq=20.0), product of:
            0.5822062 = queryWeight, product of:
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.05875109 = queryNorm
            1.3849238 = fieldWeight in 2976, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.03125 = fieldNorm(doc=2976)
      0.5 = coord(2/4)
    
    Content
    "Erst ließ er tagelang die deutsche Startseite des Online-Lexikons Wikipedia sperren, dann zog er sich kleinlaut zurück: Lutz Heilmann, Bundestagsabgeordneter der Linken. Mit der weltweiten Community der Wiki-Fans und Autoren angelegt hatte er sich wegen vier angeblicher Falschbehauptungen über ihn in der Internet-Enzyklopädie. Heilmann erwirkte am vergangenen Donnerstag gerichtlich eine Einstellung der Weiterleitung von wikipedia.de zu de.wikipedia.org. Wer am Wochenende dort schnell mal etwas nachschlagen wollte, stieß auf eine Wand: "Mit einstweiliger Verfügung des Landgerichts Lübeck (...), erwirkt durch Lutz Heilmann, MdB (Die Linke), wird es dem Wikimedia Deutschland e.V. untersagt, 'die Internetadresse wikipedia.de auf die Internetadresse de.wikipedia.org weiterzuleiten'". Nur über Umwege gelangte man zu den Inhalten. Am Sonntag erklärte Heilmann dann überraschend seinen juristischen Clinch mit dem Verein Wikimedia Deutschland für beendet. Die "falschen" Inhalte seien weitgehend aus dem entsprechenden Wikipedia-Artikel entfernt worden. Heilmann hatte sich schon mehrfach über den Artikel zu seiner Person auf Wikipedia geärgert. Diesmal ging es um vier Punkte, erklärte der Anwalt von Wikimedia Deutschland, Thorsten Feldmann, der FR, ohne weitere Details nennen zu wollen. Ein möglicher Streitpunkt: die Stasi-Vergangenheit des 42-jährigen Juristen Heilmann. Er hatte, nach Angaben auf seiner Bundestags-Website, im Personenschutz der Stasi von 1985 bis 1990 gedient - unklar bleibt, von wann bis wann genau. Bei der Nominierung zur Kandidatur für die Bundestagswahl 2005 hatte er dies nicht erzählt, ein "Fehler", sagte er später, nachdem Medien ihn darauf ansprachen.
    Medienhype zwingt vermutlich zum Rückzug Der Sperre per einstweiliger Verfügung ging eine Abmahnung durch Heilmanns Anwälte voraus. "Unsere Erklärung zu den einzelnen Punkten der Abmahnung ist dem Gericht beim Antrag auf die einstweilige Verfügung vorenthalten worden", kritisiert Feldmann. Die Streitpunkte rechtfertigten eine Sperrung der Seite auf gar keinen Fall. Vermutlich war es nicht das Argument des Wiki-Anwaltes, das Heilmann Sonntagfrüh eines besseren belehrte, sondern der Medienhype, den er mit seiner Attacke auslöste. Heilmann zog gesenkten Hauptes vor die Online-Community und schrieb in einer Pressemitteilung: "Ich bedaure außerordentlich, dass durch die von mir beantragte einstweilige Verfügung des Landgerichts Lübeck die deutschen Wikipedia-Userinnen und -User in den letzten 24 Stunden keinen direkten Zugriff mehr auf die Wikipedia-Inhalte hatten." Am Samstag hatte sich die Nachricht über die Sperre schnell in diversen Online-Publikationen verbreitet. Doch wirklich weh tun wird Heilmann in Zukunft etwas anderes: Seine Aktion ist bereits unter anderem auf der englischen, polnischen und dänischen Seite von Wikipedia dokumentiert. So wird sein juristischer Schnellschuss auch in Zukunft ein Abschnitt in seiner Wiki-Biographie bleiben."
  2. dpa/EB: "Wir sind nicht verantwortlich" : wikipedia.de wieder frei zugänglich - Spendenaufkommen verfünffacht (2008) 0.37
    0.36952463 = product of:
      0.73904926 = sum of:
        0.03352693 = weight(_text_:und in 3459) [ClassicSimilarity], result of:
          0.03352693 = score(doc=3459,freq=18.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.2572978 = fieldWeight in 3459, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3459)
        0.7055223 = weight(_text_:heilmann in 3459) [ClassicSimilarity], result of:
          0.7055223 = score(doc=3459,freq=20.0), product of:
            0.5822062 = queryWeight, product of:
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.05875109 = queryNorm
            1.2118083 = fieldWeight in 3459, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3459)
      0.5 = coord(2/4)
    
    Abstract
    Der zuvor sehr unbekannte Linke-Politiker und ehemalige Stasi-Mann Lutz Heilmann hatte per Einstweiliger Verfügung die Seite www.wikipedia.de vorübergehend sperren lassen.
    Content
    "Die Sperrung der Website wikipedia.de auf Veranlassung eines Linke-Politikers ist vom Landgericht Lübeck wieder aufgehoben worden. Der zuvor weitgehend unbekannte Linken-Bundestagsabgeordnete Lutz Heilmann zog gestern seinen Sperrantrag zurück. Damit verliere auch die Einstweilige Verfügung ihre Gültigkeit, sagte Richterin Gesine Brunkow. Wikimedia Deutschland e.V. dürfe auf seiner Seite wikipedia.de wieder auf die deutschsprachige Wikipedia (de.wikipedia.org) verlinken, sagte die Gerichtssprecherin. Der Verein stellte daraufhin seine Website wieder auf das Wikipedia-Angebot um. Heilmann hatte am Donnerstag die Sperrung der Weiterleitung von wikipedia.de auf das in den USA beheimatete Angebot von Wikipedia beantragt. Seiner Ansicht nach enthielt der Wikipedia-Artikel unwahre Behauptungen über ihn. Der 42-Jährige kam 2005 über die Landesliste der Linkspartei Schleswig-Holstein in den Bundestag. In den Jahren 1985 bis 1990 war er als Personen- und Objektschützer bei der Stasi beschäftigt. Heilmann sagt, er bedauere sein Vorgehen inzwischen. "Ich habe zu kurz gedacht und die Folgen nicht überschaut", sagte er der "taz". Auch in der Zeit der Sperre war das deutschsprachige Internet-Lexikon Wikipedia erreichbar über die Adresse http://de.wikipedia. org. In den vergangenen Tagen soll der Artikel über Heilmann mehr als eine halbe Million Mal angeklickt worden sein - in der Zeit vor dem Sperrantrag nur ein paar hundert Mal. Sebastian Moleski, Geschäftsführer von Wikimedia Deutschland, sagte, Heilmann sei schlecht beraten gewesen, überhaupt vor Gericht gegen den Verein vorzugehen. ,Wir sind für die Inhalte der deutschsprachigen. Wikipedia nicht verantwortlich." Wenn Personen mit Inhalten der Wikipedia über sich selbst nicht einverstanden seien, gebe es andere Wege, um zum Ziel zu kommen. Die überwiegende Mehrzahl von Problemen werde einvernehmlich intern gelöst, ohne dass Gerichte bemüht werden müssten.
    Die Heilmann-Affäre hat zu einer merkbaren Unterstützung der Wikipedia-Bewegung in Deutschland geführt, so Moleski. "Die Anzahl von Solidaritätsbekundungen, E-Mails und nicht zuletzt Spenden war enorm." Am Wochenende haben man fünf Mal so viele Spenden eingenommen wie an normalen Tagen. Und die Welle hielt an: Zwischen 8 und 20 Uhr vermeldete Wikimedia gestern im Internet den Eingang von 287 Online-Spenden. Im gleichen Zeitraum am Montag zuvor waren es 76 gewesen. Heilmann erklärte derweil auf seiner Website, der juristische Weg habe sich für diese Auseinandersetzung "insoweit als problematisch erwiesen, als durch die Struktur von Wikipedia die anderen Userinnen und User in Mitleidenschaft gezogen werden". Das sei nicht seine Absicht gewesen. Und er "bedaure es außerordentlich". dass durch die von ihm beantragte Einstweilige Verfügung "die deutschen Wikipedia-Userinnen und -User keinen direkten Zugriff mehr auf die Inhalte hatten"."
    Footnote
    Am 15.11.2008 war die deutsche Ausgabe der Wikipedia unter der Adresse "http://www.wikipedia.de/" vorübergehend nicht erreichbar; unter der Adresse "http://de.wikipedia.org/wiki/Wikipedia:Hauptseite" schon. "Mit einstweiliger Verfügung des Landgerichts Lübeck vom 13. November 2008, erwirkt durch Lutz Heilmann, MdB (Die Linke), wird es dem Wikimedia Deutschland e.V. untersagt, "die Internetadresse wikipedia.de auf die Internetadresse de.wikipedia.org weiterzuleiten", solange "unter der Internet-Adresse de.wikipedia.org" bestimmte Äußerungen über Lutz Heilmann vorgehalten werden. Bis auf Weiteres muss das Angebot auf wikipedia.de in seiner bisherigen Form daher eingestellt werden. Der Wikimedia Deutschland e.V. wird gegen den Beschluss Widerspruch einlegen. "
  3. Burd, B.: Java und XML für Dummies (2003) 0.32
    0.31889534 = product of:
      0.6377907 = sum of:
        0.58031595 = weight(_text_:java in 2694) [ClassicSimilarity], result of:
          0.58031595 = score(doc=2694,freq=18.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            1.4015644 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
        0.05747474 = weight(_text_:und in 2694) [ClassicSimilarity], result of:
          0.05747474 = score(doc=2694,freq=18.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.44108194 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
      0.5 = coord(2/4)
    
    Abstract
    Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
    Object
    Java
  4. Bleich, H.; Stieler, W.; Heilmann, T.; Müller-Maguhn, A.: 'Rechtsradikale Propaganda ist nützlich' : Ein Streitgespräch zwischen Thomas Heilmann und Andy Müller-Maguhn (2000) 0.24
    0.24133603 = product of:
      0.48267207 = sum of:
        0.031930413 = weight(_text_:und in 6341) [ClassicSimilarity], result of:
          0.031930413 = score(doc=6341,freq=8.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.24504554 = fieldWeight in 6341, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6341)
        0.45074165 = weight(_text_:heilmann in 6341) [ClassicSimilarity], result of:
          0.45074165 = score(doc=6341,freq=4.0), product of:
            0.5822062 = queryWeight, product of:
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.05875109 = queryNorm
            0.7741959 = fieldWeight in 6341, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.0390625 = fieldNorm(doc=6341)
      0.5 = coord(2/4)
    
    Abstract
    Die jüngst hitzig geführte Debatte um den Umgang mit rechtsradikalen Inhalten im Netz hat einmal mehr die grundsätzliche Frage aufgeworfen, wie es denn nun mit der Meinungsfreiheit im Internet bestellt sein sollte. Wann wird eine Meinungsäußerung zur Gewaltverherrlichung? Was können und müssen Staat und Gesellschaft tolerieren? Ist Repression als Abschreckungsmaßnahme die beste Antwort?
    Content
    "Müller-Maguhn: Das Internet ist ein globaler Kulturraum, in dem viele Auffassungen zusammenkommen. Amerikaner definieren das Recht auf Meinungsfreiheit anders als etwa Asiaten. Und dann unterscheiden sich nationale Empfindlichkeiten von globalen. Bei Kinderpornografie herrscht weltweit Einigkeit darüber, dass der Urheber der Bilder verantwortlich ist. Geht es aber um rechtsradikales Gedankengut, klaffen die Auffassungen wieder weit auseinander. Wir wissen, dass Rechtsradikale sich auf skandinavischen oder amerikanischen Servern verbreiten, wenn ihnen hier eine Strafe droht. Eine Kontrolle kann also nicht funktionieren, die Inhalte werden immer abrufbar sein. Daher bin ich der Auffassung, dass eine Immunität gegen Rechts nur durch Medienkompetenz entstehen kann. Ohnehin gibt es meiner Meinung nach gar keine schädlichen Informationen. Auch rechtsradikale Propaganda ist als Information nützlich. Sie verweist auf gesellschaftliche Probleme, mit denen wir uns auseinandersetzen müssen. So etwas kann man nicht ausblenden oder filtern. Daher plädiere ich dafür, die Informationsfreiheit aufrechtzuerhalten statt wie in der CDU-Aktion 'Netz gegen Gewalt' mit Zensurmaßnahmen gegen sie vorzugehen. Man muss die Medienkompetenz fördern, statt zur Zensur zu greifen."
  5. Popper, A.: Daten eingewickelt : Dynamische Webseiten mit XML und SQL (2001) 0.18
    0.1771641 = product of:
      0.3543282 = sum of:
        0.32239777 = weight(_text_:java in 6804) [ClassicSimilarity], result of:
          0.32239777 = score(doc=6804,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.77864695 = fieldWeight in 6804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=6804)
        0.031930413 = weight(_text_:und in 6804) [ClassicSimilarity], result of:
          0.031930413 = score(doc=6804,freq=2.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.24504554 = fieldWeight in 6804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=6804)
      0.5 = coord(2/4)
    
    Abstract
    Wer dynamische Webseiten mit XML erzeugt, wird über kurz oder lang auch Datenbanken anzapfen wollen. Das Apache-Projekt Cocoon liefert eine komfortable Java/Servlet-Produktionsumgebung dafür
  6. Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004) 0.17
    0.16891384 = product of:
      0.33782768 = sum of:
        0.2883613 = weight(_text_:java in 225) [ClassicSimilarity], result of:
          0.2883613 = score(doc=225,freq=10.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.69644296 = fieldWeight in 225, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
        0.049466386 = weight(_text_:und in 225) [ClassicSimilarity], result of:
          0.049466386 = score(doc=225,freq=30.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.37962294 = fieldWeight in 225, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
    Classification
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Object
    Java
    RSWK
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
    RVK
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Subject
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
  7. Loviscach, J.: Formen mit Normen (2000) 0.15
    0.14702168 = product of:
      0.29404336 = sum of:
        0.2579182 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.2579182 = score(doc=6100,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.03612514 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.03612514 = score(doc=6100,freq=4.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.5 = coord(2/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    Java
  8. Kölle, R.; Langemeier, G.; Womser-Hacker, C.: Kollaboratives Lernen in virtuellen Teams am Beispiel der Java-Programmierung (2008) 0.14
    0.1424072 = product of:
      0.2848144 = sum of:
        0.22567843 = weight(_text_:java in 2393) [ClassicSimilarity], result of:
          0.22567843 = score(doc=2393,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.5450528 = fieldWeight in 2393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2393)
        0.05913595 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
          0.05913595 = score(doc=2393,freq=14.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.4538307 = fieldWeight in 2393, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2393)
      0.5 = coord(2/4)
    
    Abstract
    Komplexe Aufgaben und Probleme werden heute üblicherweise im Team bearbeitet und gelöst. Das gilt insbesondere für Softwareprojekte, denn die Entwicklung komplexer Softwaresysteme findet heutzutage meistens arbeitsteilig in - zunehmend räumlich verteilten - Teams statt. Vor diesem Hintergrund wird zum einen ein rollenbasiertes Konzept vorgestellt, das virtuellen Lernteams bei der Zusammenarbeit einen virtuellen Tutor zur Seite stellt, der dem Team im Rahmen von Rollendefiziten adaptierte Hilfestellung bietet und so die Lerneffektivität unterstützt. Zum anderen wird gezeigt, wie das Zusammenspiel zweier spezialisierter Systeme (VitaminL und K3) im Kontext des Blended Learning echte Mehrwerte in E-Learning-Szenarien bringen kann. Die in Benutzertests und einer Lehrveranstaltung ermittelten Evaluierungsergebnisse lassen auf die Tragfähigkeit des rollenbasierten, tutoriellen Konzepts schließen und decken gleichzeitig großes Weiterentwicklungpotenzial auf.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.1, S.37-40
  9. Hickey, T.B.: ¬A Java Z39.50 Client for Browsing Large Databases (2001) 0.14
    0.13678178 = product of:
      0.5471271 = sum of:
        0.5471271 = weight(_text_:java in 2051) [ClassicSimilarity], result of:
          0.5471271 = score(doc=2051,freq=4.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            1.3214076 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2051)
      0.25 = coord(1/4)
    
    Object
    Java
  10. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.12
    0.12311827 = product of:
      0.24623653 = sum of:
        0.18237571 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.18237571 = score(doc=217,freq=4.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.063860826 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.063860826 = score(doc=217,freq=50.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  11. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.12
    0.1201833 = product of:
      0.2403666 = sum of:
        0.19343866 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.19343866 = score(doc=977,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.046927933 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.046927933 = score(doc=977,freq=12.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  12. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.1153948 = product of:
      0.2307896 = sum of:
        0.16119888 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.16119888 = score(doc=50,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.06959072 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.06959072 = score(doc=50,freq=38.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  13. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.11
    0.1133099 = product of:
      0.2266198 = sum of:
        0.18237571 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.18237571 = score(doc=1761,freq=4.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.044244077 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.044244077 = score(doc=1761,freq=24.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  14. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.10882455 = product of:
      0.2176491 = sum of:
        0.15957876 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.15957876 = score(doc=5002,freq=4.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.05807035 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.05807035 = score(doc=5002,freq=54.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  15. Grotjahn, H.: Qualitätsmessungen an der Wikipedia : Konstruktion von Qualität - eine Metaanalyse (2007) 0.10
    0.09963713 = product of:
      0.19927426 = sum of:
        0.039913017 = weight(_text_:und in 3771) [ClassicSimilarity], result of:
          0.039913017 = score(doc=3771,freq=50.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.30630693 = fieldWeight in 3771, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3771)
        0.15936124 = weight(_text_:heilmann in 3771) [ClassicSimilarity], result of:
          0.15936124 = score(doc=3771,freq=2.0), product of:
            0.5822062 = queryWeight, product of:
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.05875109 = queryNorm
            0.2737196 = fieldWeight in 3771, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.909708 = idf(docFreq=5, maxDocs=44421)
              0.01953125 = fieldNorm(doc=3771)
      0.5 = coord(2/4)
    
    Abstract
    Wikipedia ist ein internationales, internetbasiertes Projekt zur kollaborativen Erstellung einer freien Enzyklopädie. Die Beiträge werden beinahe ausschließlich von Freiwilligen verfasst. In den letzten Jahren hat Wikipedia einen beträchtlichen Umfang und eine hohe öffentliche Aufmerksamkeit erreicht. Durch ihr offenes Editiermodell hat sie jedoch auch viele Kritiker auf den Plan gerufen, die die Qualität des Erreichten bemängeln. Das vorliegende Werk verfolgt das Ziel, dieser oft unstrukturiert anmutenden Debatte einen übersichtlichen Rahmen zu geben. Dazu wird in einem ersten Teil das Projekt in den Kontext seiner verschiedenen Wurzeln gestellt, was zu einem besseren Verständnis dieses gänzlich neuen Phänomens beitragen soll. Im zweiten Teil wird darauf aufbauend die Qualitätsdebatte so vollumfänglich wie möglich aufgearbeitet. Der Wunsch des Verfassers ist es, zur Diskussion der Qualitätsbeurteilung freier Online-Medien, speziell der Wikipedia, einen notwendigen und hoffentlich strukturgebenden Beitrag zu leisten. Das Buch richtet sich an alle Leser, die sowohl allgemein an Enzyklopädien und Wissensproduktion, wie auch speziell an der Wikipedia interessiert sind.
    Footnote
    Rez. in: IWP 60(2009) H.2, S.104 (U. Spree): "Immer wieder kommt die 'freie Enzyklopädie' Wikipedia wegen ihres Editiermodells in die Schlagzeilen. Beispielsweise erwirkte Lutz Heilmann MdB (Die Linke) im November 2008 eine einstweilige Verfügung, die es dem Wikimedia Deutschland e. V. untersagte, die Internetadresse wikipedia.de auf die Internetadresse wikipedia.org umzuleiten, solange die nach Einschätzung des Politikers rufschädigenden und persönlichkeitsverletzenden Einträge zu seiner Person in der Enzyklopädie fortbestünden. Die Wikipedia war unter der Adresse wikipedia.de für einige Stunden nicht erreichbar. Der Eintrag wurde von Wikipediaredakteuren anschließend stark bearbeitet und daraufhin die Adressumleitung wieder frei geschaltet. Gleichzeitig kündigte Wikipedia an, dass sie gegen die Entscheidung des Landgerichts Lübeck vorgehen werde. Fälle wie diese belegen das große öffentliche Interesse an Aspekten der Qualität, respektive Objektivität der Wikipedia. Gerade weil Diskussionen um die Qualiät und Verlässlichkeit der Wikipedia in den Medien in der Regel eher polemisch geführt werden, ist es zu begrüßen, wenn sich auch aus fachwissenschaftlicher Perspektive Publikationen kritisch mit dieser Fragestellung auseinandersetzen. Henrik Grotjahn widmet sich in seiner Magisterarbeit "Konstruktion von Qualität", angenommen am Institut für Kommunikationswissenschaft Münster 2007 (Original recherchierbar über den Katalog der Universitätsbibliothek Münster), die vom VDM Verlag Dr. Müller unter dem Titel "Qualitätsmessungen an der Wikipedia" publiziert wurde, der Frage, ob es der Wikipedia auf dem Wege der kollaborativen Erarbeitung gelungen ist, ein enzyklopädisches Nachschlagewerk zu schaffen, das in seiner Qualität mit traditionellen Verlagsprodukten mithalten oder diese sogar qualitativ übertreffen kann.
    Einleitend gewährt Grotjahn kursorische Einblicke in die Geschichte der Enzyklopädien Enzyklopädien, wobei zentrale Themen wie Gemeinsamkeiten und Unterschiede zwischen Enzyklopädien und Universalwörterbüchern und die starken historischen Wandlungen unterworfenen Anforderungen an die Wissenschaftlichkeit von Allgemeinenzyklopädien nur angerissen werden. Zentrale (technische) Voraussetzungen der kollaborativen Wissenserstellung wie das Open-Source-Prinzip und die Wikitechnologie werden kurz vorgestellt. Gängige Kriterien zur Beurteilung von Medienqualität werden erwähnt, die anregende Idee, journalistische Qualitätskriterien auf die Wikipedia anzuwenden angerissen, jedoch nicht argumentativ zu Ende geführt. Grotjahn fasst seine Lektüreergebnisse zur Qualitätsbeurteilung von Enzyklopädien in der Erkenntnis zusammen, dass "die objektive Beurteilung von Qualität Schwierigkeiten bereitet" (S. 43). Er macht aus dieser Not eine Tugend und versucht auf indirektem Wege, nämlich durch die Sekundäranalyse - so lautete auch noch der Untertitel seiner Magisterarbeit - von Qualitätsuntersuchungen der Wikipedia, dem Phänomen der Qualitätsbeurteilung und der implizit angewandten Qualitätskriterien auf die Spur zu kommen. Im Mittelpunkt der Arbeit steht die als "Empirie" betitelte Übersicht ausgewählter bis zum Erscheinungstermin der Arbeit vorliegende Qualitätsuntersuchungen zur Wikipedia. Nach der Methode des propositionalen Inventars werden Studien, in denen es zumindest teilweise um Qualitätsmessung geht, in Hinblick auf Ansatz, Untersuchung, Ergebnisse und Einzelbewertung verglichen. Die Vergleichskriterien erschließen sich erst nach genauerem Lesen, so ist mit Ansatz die Fragestellung der jeweiligen Studie gemeint und Untersuchung meint das Forschungsdesign und die Untersuchungsmethodik. Ausgesprochenes Ziel ist es "Gemeinsamkeiten zu finden, gute Ansätze von schlechten zu trennen" (S.7). Grotjahn erhebt den Anspruch, Vorschläge für Qualitätsmaßstäbe zu entwickeln, die den Besonderheiten der Wikipedia gerecht werden. Er hat 17 mehr oder weniger umfangreiche Untersuchungen zusammengestellt, darunter auch die aufsehenerregende Untersuchung von Jim Giles (2005) für die Zeitschrift Nature, in der die Wikipedia mit der Britannica verglichen wurde und die erstmals zu dem Ergebnis kommt, dass zwischen den beiden Werken kein nennenswerter Qualitätsunterschied zu verzeichnen sei. Die Auswahl der analysierten Arbeiten erscheint eher zufällig, seine Recherchestrategie und die zugrunde gelegten Quellen legt Grotjahn nicht offen.
    In der Auswahl befinden sich fachwissenschaftliche Artikel (in der Regel Webquellen) neben Testberichten aus der Computerzeitschrift c't ebenso wie essayistische Annäherungen an das Thema aus Telepolis sowie studentische Abschlussarbeiten. Studie für Studie reiht Grotjahn die Ergebnisse seiner Analysen additiv aneinander. Unter Berücksichtigung des breiten Spektrums der ausgewählten Studien sowohl in Hinblick auf die Herangehensweise von journalistisch bis fachwissenschaftlich als auch des großen inhaltlichen Spektrums von naturwissenschaftlichen Themen bis hin zu historischen Fragestellungen erstaunt Grotjahns Beobachtung wenig, dass die einzelnen Studien kaum aufeinander aufbauen und ein starkes Auseinanderfallen zwischen sehr positiven und sehr negativen Einschätzungen zu verzeichnen ist. Die methodische Anregung bei der Analyse lexikographischer Qualität stärker die Nutzerwartungen mit einzubeziehen ist nahe liegend und sinnvoll und ganz im Mainstream der fachlexikographischen Forschung, die die Einbeziehung der Nutzererwartungen unter dem Begriff der Nutzerstruktur diskutiert. Eine Diskussion, die Grotjahn nicht rezipiert. Insgesamt handelt es sich bei dem Text um eine typische Abschlussarbeit, was soweit geht, dass typische stilistische Schwächen, die aus dem Bemühen die passivische Darstellungsweise konsequent im Text durchzuhalten, nicht vom Lektorat korrigiert wurden. "Dem von den Verfassern angeregten Wunsch, dies oder ähnliche Untersuchungsreihen an anderen Sprachversionen durchzuführen, kann sich dennoch angeschlossen werden." (S. 72). Trotz der genannten Schwächen liefert Grotjahn insgesamt einen nützlichen Überblick über die bisherigen Untersuchungen zur Qualität in der Wikipedia, der den Anforderungen an eine Magisterarbeit angemessen ist. Grotjahn leistet durch die systematische Lektüre wichtige Vorarbeiten für weitere Qualitätsmessungen an der Wikipedia und beleuchtet das weite thematische Spektrum. Seine Ausflüge in die journalistische Theoriebildung und die Medientheorie geben interessante Anregungen für zukünftige Studien. Die Arbeit hat es verdient, dass sie, z. B. über einen Hochschulschriftenserver wie Opus oder die originelle und gut zugängliche private Website des Autors (www.hoenn.net/), einer breiteren Öffentlichkeit jenseits der engen Hochschulöffentlichkeit zur Verfügung gestellt wird. In Hinblick auf die genannten Schwächen der Studie stellt sich allerdings für die Rezensentin wieder einmal die Frage, ob jede Diplom-, Bachelor-, Master-, oder Magisterarbeit tatsächlich als Buch erscheinen und für - in diesem Falle als Books-on-demand-Publikation - 49,- Euro verkauft werden muss, wo andere preisgünstigere Publikationsformen wohl eher geeignet wären, dem Text eine größere Verbreitung, gerade auch bei einer studentischen Zielgruppe, zu verschaffen."
  16. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.09772164 = product of:
      0.39088655 = sum of:
        0.39088655 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.39088655 = score(doc=6896,freq=6.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  17. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.09671933 = product of:
      0.38687733 = sum of:
        0.38687733 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.38687733 = score(doc=2035,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  18. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.09671933 = product of:
      0.38687733 = sum of:
        0.38687733 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.38687733 = score(doc=2050,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  19. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.09656465 = product of:
      0.1931293 = sum of:
        0.16119888 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.16119888 = score(doc=729,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.031930413 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.031930413 = score(doc=729,freq=8.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.
  20. Botana Varela, J.: Unscharfe Wissensrepräsentationen bei der Implementation des Semantic Web (2004) 0.09
    0.088374086 = product of:
      0.17674817 = sum of:
        0.1289591 = weight(_text_:java in 346) [ClassicSimilarity], result of:
          0.1289591 = score(doc=346,freq=2.0), product of:
            0.41404873 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.05875109 = queryNorm
            0.31145877 = fieldWeight in 346, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
        0.047789063 = weight(_text_:und in 346) [ClassicSimilarity], result of:
          0.047789063 = score(doc=346,freq=28.0), product of:
            0.130304 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.05875109 = queryNorm
            0.36675057 = fieldWeight in 346, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=346)
      0.5 = coord(2/4)
    
    Abstract
    In der vorliegenden Arbeit soll einen Ansatz zur Implementation einer Wissensrepräsentation mit den in Abschnitt 1.1. skizzierten Eigenschaften und dem Semantic Web als Anwendungsbereich vorgestellt werden. Die Arbeit ist im Wesentlichen in zwei Bereiche gegliedert: dem Untersuchungsbereich (Kapitel 2-5), in dem ich die in Abschnitt 1.1. eingeführte Terminologie definiert und ein umfassender Überblick über die zugrundeliegenden Konzepte gegeben werden soll, und dem Implementationsbereich (Kapitel 6), in dem aufbauend auf dem im Untersuchungsbereich erarbeiteten Wissen einen semantischen Suchdienst entwickeln werden soll. In Kapitel 2 soll zunächst das Konzept der semantischen Interpretation erläutert und in diesem Kontext hauptsächlich zwischen Daten, Information und Wissen unterschieden werden. In Kapitel 3 soll Wissensrepräsentation aus einer kognitiven Perspektive betrachtet und in diesem Zusammenhang das Konzept der Unschärfe beschrieben werden. In Kapitel 4 sollen sowohl aus historischer als auch aktueller Sicht die Ansätze zur Wissensrepräsentation und -auffindung beschrieben und in diesem Zusammenhang das Konzept der Unschärfe diskutiert werden. In Kapitel 5 sollen die aktuell im WWW eingesetzten Modelle und deren Einschränkungen erläutert werden. Anschließend sollen im Kontext der Entscheidungsfindung die Anforderungen beschrieben werden, die das WWW an eine adäquate Wissensrepräsentation stellt, und anhand der Technologien des Semantic Web die Repräsentationsparadigmen erläutert werden, die diese Anforderungen erfüllen. Schließlich soll das Topic Map-Paradigma erläutert werden. In Kapitel 6 soll aufbauend auf die im Untersuchtungsbereich gewonnenen Erkenntnisse ein Prototyp entwickelt werden. Dieser besteht im Wesentlichen aus Softwarewerkzeugen, die das automatisierte und computergestützte Extrahieren von Informationen, das unscharfe Modellieren, sowie das Auffinden von Wissen unterstützen. Die Implementation der Werkzeuge erfolgt in der Programmiersprache Java, und zur unscharfen Wissensrepräsentation werden Topic Maps eingesetzt. Die Implementation wird dabei schrittweise vorgestellt. Schließlich soll der Prototyp evaluiert und ein Ausblick auf zukünftige Erweiterungsmöglichkeiten gegeben werden. Und schließlich soll in Kapitel 7 eine Synthese formuliert werden.

Languages

  • d 4222
  • e 502
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3549
  • m 805
  • el 224
  • x 210
  • s 185
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications