Search (4766 results, page 1 of 239)

  • × year_i:[2000 TO 2010}
  1. Burd, B.: Java und XML für Dummies (2003) 0.33
    0.32732287 = product of:
      0.65464574 = sum of:
        0.5956521 = weight(_text_:java in 2694) [ClassicSimilarity], result of:
          0.5956521 = score(doc=2694,freq=18.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            1.4015644 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
        0.058993634 = weight(_text_:und in 2694) [ClassicSimilarity], result of:
          0.058993634 = score(doc=2694,freq=18.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.44108194 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
      0.5 = coord(2/4)
    
    Abstract
    Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
    Object
    Java
  2. Götz, M.; Strohmenger, K.: Themen in Welten - ohne Systematik : Die benutzerorientierte Bestandspräsentation am Beispiel der Stadtbibliothek in Bad Homburg von der Höhe (2003) 0.24
    0.24100947 = product of:
      0.48201895 = sum of:
        0.037079826 = weight(_text_:und in 2332) [ClassicSimilarity], result of:
          0.037079826 = score(doc=2332,freq=4.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.2772374 = fieldWeight in 2332, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2332)
        0.44493914 = weight(_text_:handelte in 2332) [ClassicSimilarity], result of:
          0.44493914 = score(doc=2332,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.80756176 = fieldWeight in 2332, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.0625 = fieldNorm(doc=2332)
      0.5 = coord(2/4)
    
    Abstract
    Die Dreigeteilte Bibliothek wurde vielfach zur Fraktalen Bibliothek weiterentwickelt. Zum Konzept dieser Variante gehört maßgeblich die Bildung von thematischen »Inseln«, die aus unterschiedlichsten Gruppen des ansonsten systematisch erschlossenen Bestandes bestückt werden. Nur wenige Öffentliche Bibliotheken wagten den kompletten Bruch mit der klassischen Systematik, und dabei handelte es sich regelmäßig um kleine Bibliotheken. Zumindest bisher...
    Content
    Mit einer Übesicht der 'Welten' und ihrer Inhalte
  3. Sühl-Strohmenger, W.: Informationskompetenz und Studierfähigkeit : Angebote der Universitätsbibliothek Freiburg für gymnasiale Seminarkurse (2004) 0.21
    0.2145292 = product of:
      0.4290584 = sum of:
        0.039736662 = weight(_text_:und in 3159) [ClassicSimilarity], result of:
          0.039736662 = score(doc=3159,freq=6.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.29710194 = fieldWeight in 3159, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3159)
        0.38932174 = weight(_text_:handelte in 3159) [ClassicSimilarity], result of:
          0.38932174 = score(doc=3159,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.7066165 = fieldWeight in 3159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3159)
      0.5 = coord(2/4)
    
    Abstract
    Hochschulbibliotheken in Deutschland öffnen sich zunehmend außeruniversitären Zielgruppen, so auch Schülerinnen und Schülern der gymnasialen Oberstufe.' Im Zusammenhang mit den Befunden der PISA-Studie können sie damit einen Beitrag zur Entwicklung von Informationskompetenz und zu verbesserter Studierfähigkeit leisten. Darüber hinaus unterstreichen sie in der Öffentlichkeit ihre (noch nicht ausgeschöpfte) Bedeutung für das Bildungssystem insgesamt, über ihre Zentralfunktion für die Hochschulausbildung hinaus. Bibliotheksführungen für Schulklassen sind zwar auch in früheren Jahren von vielen Hochschulbibliotheken angeboten worden, jedoch handelte es sich dabei im wesentlichen meist um einen Rundgang durch das Gebäude, weniger um eine gezielte Erstunterweisung im Hinblick auf die systematische Literatursuche.
  4. Popper, A.: Daten eingewickelt : Dynamische Webseiten mit XML und SQL (2001) 0.18
    0.18184607 = product of:
      0.36369213 = sum of:
        0.3309179 = weight(_text_:java in 6804) [ClassicSimilarity], result of:
          0.3309179 = score(doc=6804,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.77864695 = fieldWeight in 6804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=6804)
        0.032774244 = weight(_text_:und in 6804) [ClassicSimilarity], result of:
          0.032774244 = score(doc=6804,freq=2.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.24504554 = fieldWeight in 6804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=6804)
      0.5 = coord(2/4)
    
    Abstract
    Wer dynamische Webseiten mit XML erzeugt, wird über kurz oder lang auch Datenbanken anzapfen wollen. Das Apache-Projekt Cocoon liefert eine komfortable Java/Servlet-Produktionsumgebung dafür
  5. Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004) 0.17
    0.1733778 = product of:
      0.3467556 = sum of:
        0.29598194 = weight(_text_:java in 225) [ClassicSimilarity], result of:
          0.29598194 = score(doc=225,freq=10.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.69644296 = fieldWeight in 225, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
        0.050773643 = weight(_text_:und in 225) [ClassicSimilarity], result of:
          0.050773643 = score(doc=225,freq=30.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.37962294 = fieldWeight in 225, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
    Classification
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Object
    Java
    RSWK
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
    RVK
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Subject
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
  6. Payome, T.; Ackermann-Stommel, K.: Berufen zum Teletutor? : Interview mit Kerstin Ackermann-Stommel (2005) 0.17
    0.16621844 = product of:
      0.3324369 = sum of:
        0.05434994 = weight(_text_:und in 4520) [ClassicSimilarity], result of:
          0.05434994 = score(doc=4520,freq=22.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.4063621 = fieldWeight in 4520, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4520)
        0.27808696 = weight(_text_:handelte in 4520) [ClassicSimilarity], result of:
          0.27808696 = score(doc=4520,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.5047261 = fieldWeight in 4520, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4520)
      0.5 = coord(2/4)
    
    Abstract
    Die Erfahrungen im E-Learning zeigen, dass die persönliche Betreuung von Lernenden entscheidend für medienvermitteltes Training ist. In den 70er Jahren erhofften sich Weiterbildungsexperten, das Lernen durch die Entwicklung von »Lehrmaschinen« effizienter gestalten zu können. Viel Geld und Aufwand wurde deshalb in Computer-Based-Trainings (CBT) investiert. Dabei handelte es sich zumeist um Selbstlernprogramme ohne Kontakt zu Mitlernenden oder einem Tutor. Doch die Zahl potenzieller Autodidakten lag schon immer im einstelligen Prozentbereich. Die Mehrheit der Lernenden dagegen erfährt die Wissenserweiterung in erster Linie als sozialen und kommunikativen Prozess. Dementsprechend bietet das Online-Lernen mit vernetzten Computern große Vorteile: in der Kommunikation und der gemeinsamen Arbeit an Projekten und bei der Lösung von Aufgaben und Problemen. Die heutigen Lernszenarien setzen auf einen Mix aus Flexibilität und Selbstbestimmung, aber sie strukturieren auch, leiten an und unterstützen. Dabei kommt den Tutoren die entscheidende Funktion bei der Umsetzung didaktischer Konzepte zu. Keineswegs werden Trainer durch E-Learning - wie anfangs vermutet - überflüssig. Ganz im Gegenteil: Online- oder ETutoren gewährleisten die angemessene Betreuung und Begleitung von Online-Lernenden. Dazu müssen E-Trainer nicht nur bestens mit den neuen Informations- und Kommunikationstechnologien vertraut sein, sondern sie müssen auch die vielfältigen didaktischen Besonderheiten und Möglichkeiten des virtuellen Lernraums nutzen und zum Vorteil der Lernenden einzusetzen wissen.
  7. Loviscach, J.: Formen mit Normen (2000) 0.15
    0.15090707 = product of:
      0.30181414 = sum of:
        0.2647343 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.2647343 = score(doc=6100,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.037079826 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.037079826 = score(doc=6100,freq=4.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.5 = coord(2/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    Java
  8. Kölle, R.; Langemeier, G.; Womser-Hacker, C.: Kollaboratives Lernen in virtuellen Teams am Beispiel der Java-Programmierung (2008) 0.15
    0.14617062 = product of:
      0.29234123 = sum of:
        0.2316425 = weight(_text_:java in 2393) [ClassicSimilarity], result of:
          0.2316425 = score(doc=2393,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.5450528 = fieldWeight in 2393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2393)
        0.060698748 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
          0.060698748 = score(doc=2393,freq=14.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.4538307 = fieldWeight in 2393, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2393)
      0.5 = coord(2/4)
    
    Abstract
    Komplexe Aufgaben und Probleme werden heute üblicherweise im Team bearbeitet und gelöst. Das gilt insbesondere für Softwareprojekte, denn die Entwicklung komplexer Softwaresysteme findet heutzutage meistens arbeitsteilig in - zunehmend räumlich verteilten - Teams statt. Vor diesem Hintergrund wird zum einen ein rollenbasiertes Konzept vorgestellt, das virtuellen Lernteams bei der Zusammenarbeit einen virtuellen Tutor zur Seite stellt, der dem Team im Rahmen von Rollendefiziten adaptierte Hilfestellung bietet und so die Lerneffektivität unterstützt. Zum anderen wird gezeigt, wie das Zusammenspiel zweier spezialisierter Systeme (VitaminL und K3) im Kontext des Blended Learning echte Mehrwerte in E-Learning-Szenarien bringen kann. Die in Benutzertests und einer Lehrveranstaltung ermittelten Evaluierungsergebnisse lassen auf die Tragfähigkeit des rollenbasierten, tutoriellen Konzepts schließen und decken gleichzeitig großes Weiterentwicklungpotenzial auf.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.1, S.37-40
  9. Hickey, T.B.: ¬A Java Z39.50 Client for Browsing Large Databases (2001) 0.14
    0.14039655 = product of:
      0.5615862 = sum of:
        0.5615862 = weight(_text_:java in 2051) [ClassicSimilarity], result of:
          0.5615862 = score(doc=2051,freq=4.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            1.3214076 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2051)
      0.25 = coord(1/4)
    
    Object
    Java
  10. ap: ¬Das gründliche Linux : Seit zehn Jahren entwickeln Fans "Debian" - langsamer als professionelle Vertreiber, dafür aber mit weniger Fehlern (2003) 0.14
    0.13576078 = product of:
      0.27152157 = sum of:
        0.049051996 = weight(_text_:und in 2750) [ClassicSimilarity], result of:
          0.049051996 = score(doc=2750,freq=28.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.36675057 = fieldWeight in 2750, product of:
              5.2915025 = tf(freq=28.0), with freq of:
                28.0 = termFreq=28.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2750)
        0.22246957 = weight(_text_:handelte in 2750) [ClassicSimilarity], result of:
          0.22246957 = score(doc=2750,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.40378088 = fieldWeight in 2750, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.03125 = fieldNorm(doc=2750)
      0.5 = coord(2/4)
    
    Content
    "Am Anfang war der Ärger. Über falsche Versprechungen von Linux-Vertreibern, Fehler in den Programmen und die ungenügende Trennung zwischen freier und lizenzpflichtiger Software. Am 16. August 1993 rief Ian Murdock in einer Newsgroup eine Initiative für ein freies Betriebssystem ins Leben. Aus seinem Vornamen und dem seiner Frau Debra entstand der Name für das Projekt: Debian. Die größte nicht kommerzielle Linux-Distribution feiert ihren zehnten Geburtstag. Debian ist zwar keine kommerzielle Distribution, aber ihr Ziel war es von Anfang an, sich mit kommerziellen Distributionen messen zu können - vor allem in puncto Qualität. Debian-Programme wurden und werden deshalb immer und immer wieder getestet. Eine Software, die zu viele Fehler aufweist, fliegt raus. Das führt dann auch dazu, dass eine neue, als fertig bezeichnete Version schon mal deutlich länger als ein Jahr braucht. Debian hat zwar den Ruf, nicht unbedingt die benutzerfreundliebste Linux-Ausgabe bei der Installation zu sein, dafür wurden schon immer Stabilität und Schnelligkeit gelobt. Was mit der Idee eines Einzelnen begann, findet eine weiter stetig wachsende Zahl von aktiven Mitarbeitern auf der ganzen Welt. Erst waren es eine Hand voll, dann einige hundert, inzwischen gibt es mehr als 1100 registrierte Entwickler und einige hundert Anwärter. Denn um die Qualität garantieren zu können, werden nicht nur die Programme, sondern auch die Mitarbeiter getestet. Erst wer bewiesen hat, dass er Programmieren und Software pflegen kann, darf offiziell an Debian mitarbeiten. Und bei offiziell 8710 Softwarepaketen gibt es viel Arbeit. Die Paketverwaltung dpkg sorgt dafür, dass Installationen gelingen und das System stabil bleibt. Selbst umfangreiche Programme, die auf viele andere zurückgreifen, lassen sich damit einfach auf den Rechner bringen. Debian läuft heute auf so ziemlich allem, was einem Computer ähnelt. Die Liste der so genannten Portierungen reicht von normalen PC-Prozessoren über Rechner mit Spare- und MotorolaChips (Sun und Apple) bis zu PA-RISCComputern von Hewlett Packard und 64-Bit-Prozessoren von Intel. Ursprünglich handelte es sich bei Debian um eine Programmsammlung rund um das Betriebssystem Linux. Der Anspruch ging aber immer schon darüber hinaus. Inzwischen wird an der Verwendung anderer Betriebssystemkerne wie GNU/Hurd, NetBSD und FreeBSD gearbeitet. Selbst über Windows wird diskutiert."
  11. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.13
    0.12637195 = product of:
      0.2527439 = sum of:
        0.18719542 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.18719542 = score(doc=217,freq=4.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.06554849 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.06554849 = score(doc=217,freq=50.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  12. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.12
    0.12335941 = product of:
      0.24671882 = sum of:
        0.19855072 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.19855072 = score(doc=977,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.048168104 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.048168104 = score(doc=977,freq=12.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  13. Samulowitz, H.: ¬Der steinige Weg in die Informationsgesellschaft : 13. Jahrestagung des Wolfenbütteler Arbeitskreises (2004) 0.12
    0.12233087 = product of:
      0.24466173 = sum of:
        0.05000086 = weight(_text_:und in 3516) [ClassicSimilarity], result of:
          0.05000086 = score(doc=3516,freq=38.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.37384504 = fieldWeight in 3516, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3516)
        0.19466087 = weight(_text_:handelte in 3516) [ClassicSimilarity], result of:
          0.19466087 = score(doc=3516,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.35330826 = fieldWeight in 3516, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.02734375 = fieldNorm(doc=3516)
      0.5 = coord(2/4)
    
    Content
    "Der Weg in die Informations- und Wissensgesellschaft mit seinen Unübersichtlichkeiten und Verwerfungen rückt mehr und mehr ins Visier der Wissenschaftsund Zeithistoriker. Das gilt auch für das Bibliotheks- und Informationswesen. Nachdem der Wolfenbütteler Arbeitskreis für Bibliotheks-, Buch und Mediengeschichte die Zeitgeschichtsforschung 1988 mit dem Nationalsozialismus und 1990 mit dem Zeitabschnitt 1945 bis 1965 begonnen hat, standen auf der 13. Jahrestagung vom 10. bis 12. Mai in der Herzog August Bibliothek in Wolfenbüttel die 70er und 80er Jahre in der Bundesrepublik zur Debatte: das Bibliothekswesen auf dem Weg in die Informationsgesellschaft. Der thematische Bogen war entsprechend weit gespannt, er reichte von der (etwas einseitigen) Diskussion über den Einfluss der "68er Generation" im Bibliothekswesen über diverse Ausbildungsfragen u.a. bis zur Gründung der Bundesvereinigung Deutscher Bibliotheksverbände. Dazwischen Ausflüge in die Problematik der Regional, Fachhochschul- und Universitätsbibliotheken. Ein aufmüpfiger Beitrag von Uwe Jochum (Konstanz) über die neu gegründeten Universitätsbibliotheken, die der Autor keineswegs als Erfolgsmodell einstufte, wurde leider kaum diskutiert, da der Autor nicht anwesend war. Gerade bei diesem Thema hätte man sich eine ausführliche Diskussion mit dem Autor gewünscht. Einen breiten Raum nahmen die Vorträge über Planungsvorhaben im Bibliothekswesen ein. Konrad Umlauf (Berlin) behandelte die Bibliothekspläne von 1969 bis 1973, Elmar Mittler (Göttingen) nahm sich den Bibliotheksplan für Baden-Württemberg (1973) vor, ein Gesamtplan für das wissenschaftliche Bibliothekswesen; Günter Beyersdorf (Berlin) beschrieb das Zustandekommen des KGSt-Gutachtens von 1973 über die Öffentlichen Bibliotheken (nur verlesen). Allen diesen Vorhaben gemeinsam ist sicher ihre ernsthafte Planung, aber genauso ihre praktische Wirkungslosigkeit, wenn man von Teilerfolgen absieht. Das liegt vermutlich nicht zum wenigsten daran, dass es den Bibliothekaren nicht gelang, diese Vorhaben in Bundes- oder Ländergesetze einzubringen, weil die gesellschaftliche Wirklichkeit offenbar meist nur unzureichend erkannt wurde. Auffallend ist, dass z.B. die Begriffe Dokumentation und Information kaum vorkommen. Umlauf bemerkte dazu, dass seit den 80er Jahren allerdings ein gewandeltes Planungsverständnis festzustellen sei.
    Als Kontrastprogramm erscheint dagegen das Informations- und Dokumentationsprogramm von 1974 bis 1977, das so genannte IuD-Programm der Bundesregierung, das etwa zeitgleich zu den oben erwähnten Planungsvorhaben des Bibliothekswesens in Gang gesetzt wurde und über das Hans-Christoph Hobohm (Potsdam) anschaulich berichtete. Es wurde von Anfang an als Programm von Bund und Ländern, als Gesetz konzipiert und mehr oder weniger konsequent zu Ende geführt, allerdings mit wechselndem Erfolg und Bedeutung. Warum es überhaupt zu diesem von Beginn an umstrittenen Programm kam, scheint darin zu liegen, dass es sich nicht nur um ein von Bund und Ländern gemeinsam beschlossenes Regierungsvorhaben handelte, sondern es entsprach in vieler Hinsicht dem Zeitgeist jener Jahre. Das war vermutlich der entscheidende Unterschied zu den o.g. Bibliotheksvorhaben. Der Zeitgenosse von heute fragt sich etwas ratlos, warum seinerzeit Bibliothekswesen und Dokumentation nicht eine Art joint venture eingegangen sind. Hat es nur an einem unzureichenden Planungsverständnis gelegen? Ein auf gegenseitige Unterstützung abgeschlossener Pakt hätte doch, so steht zu vermuten, beiden Kontrahenten Vorteile gebracht. Die jetzt nach und nach frei werdenden Akten aus den Jahren von 1970 bis 1980 werden auf diese Frage vielleicht eine differenziertere Antwort geben. Auf den Tagungsband mit den detaillierten Referaten und Diskussionsbeiträgen wird man allerdings noch etwas warten müssen; sein Erscheinen ist für Ende 2005/Anfang 2006 vorgesehen."
    Source
    Information - Wissenschaft und Praxis. 55(2004) H.5, S.283-287
  14. Schneider, G; Nestler, F.: Einführung in die Bibliographie (2005) 0.12
    0.12050474 = product of:
      0.24100947 = sum of:
        0.018539913 = weight(_text_:und in 5371) [ClassicSimilarity], result of:
          0.018539913 = score(doc=5371,freq=4.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.1386187 = fieldWeight in 5371, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=5371)
        0.22246957 = weight(_text_:handelte in 5371) [ClassicSimilarity], result of:
          0.22246957 = score(doc=5371,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.40378088 = fieldWeight in 5371, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.03125 = fieldNorm(doc=5371)
      0.5 = coord(2/4)
    
    Footnote
    Rez. in: BuB 58(2006) H.1, S.82-84 (H. Wiesenmüller): "Im Jahr 1999 legte Friedrich Nestler, der frühere Direktor des Instituts für Bibliothekswissenschaft an der Humboldt-Universität, eine viel beachtete Neubearbeitung von Georg Schneiders »Handbuch der Bibliographie« (1. Auflage 1923) vor. Konsequenterweise hat er nun auch Schneiders »Einführung in die Bibliographie« (1936) bearbeitet. Bei diesem Text handelte es sich ursprünglich um den theoretischen Teil des »Handbuchs«, der bei den Rezensenten auf wenig Anklang gestoßen war. Für die 4. Auflage (1930) wurde er gestrichen, erschien jedoch sechs Jahre später in umgearbeiteter Form als eigenständige Publikation. In Schneider sieht Nestler einen direkten Vorgänger für seine - nicht zuletzt durch die Forschung in der DDR geprägte - Sichtweise der Bibliographie als ein »soziales Phänomen« (Seite IX), das sich »aus der kommunikativen Funktion der verzeichneten Texte ergibt« (Seite 28). Theoretische Modelle der Bibliographie machen denn auch den größten Teil des ersten Hauptkapitels aus. Dieses trägt zwar noch dieselbe Überschrift (»Begriff der Bibliographie«) wie bei Schneider, ist aber von 5 auf über 60 Seiten angewachsen und beinhaltet nun weit mehr als nur die Wortgeschichte. In einem Abschnitt zur bibliothekarischen Ausbildung kritisiert Nestler - ganz zu Recht - die traditionelle Vermittlung des Themas Bibliographie als bloße Abfolge einer langen Reihe bibliographischer Hilfsmittel, deren Charakteristika Stück für Stück zu erlernen sind. Dass das Aufkommen der elektronischen Medien hier zu einem »Wechsel der Optik« (Seite 16) geführt habe und seitdem mehr Wert auf eine theoretische Grundlage gelegt werde, kann die Rezensentin aus ihrer eigenen Erfahrung allerdings nicht bestätigen. ... Insgesamt gesehen bleibt die Neubearbeitung an vielen Stellen unbefriedigend. Dennoch ist es zu begrüßen, dass sie überhaupt erschienen ist: Gerade weil man sich an manchem reiben kann, könnte Nestlers Arbeit Anlass sein, sich von neuem mit dem Thema Bibliographie zu beschäftigen."
  15. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.118444376 = product of:
      0.23688875 = sum of:
        0.16545895 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.16545895 = score(doc=50,freq=2.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.071429804 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.071429804 = score(doc=50,freq=38.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  16. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.116304375 = product of:
      0.23260875 = sum of:
        0.18719542 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.18719542 = score(doc=1761,freq=4.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.045413326 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.045413326 = score(doc=1761,freq=24.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  17. Beuth, P.; Funk, V.: ¬Ein Artikel, der nie fertig wird : Der Einfluss von Twitter auf den Journalismus hat sich gewandelt - und soll es wieder tun (2009) 0.12
    0.11546765 = product of:
      0.2309353 = sum of:
        0.03627444 = weight(_text_:und in 188) [ClassicSimilarity], result of:
          0.03627444 = score(doc=188,freq=20.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.2712157 = fieldWeight in 188, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=188)
        0.19466087 = weight(_text_:handelte in 188) [ClassicSimilarity], result of:
          0.19466087 = score(doc=188,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.35330826 = fieldWeight in 188, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.02734375 = fieldNorm(doc=188)
      0.5 = coord(2/4)
    
    Content
    "Das Flugzeug auf dem Hudson-River, die Anschläge in Bombay, die Proteste in Iran: Jedesmal, wenn die Öffentlichkeit bedeutende Ereignisse zuerst über Twitter erfährt, entfacht sich eine neue Debatte um die Glaubwürdigkeit der Quellen. Schließlich schreiben meist keine professionellen Journalisten, was sie beobachteten. Sie wägen nicht ab, sie überprüfen nicht, sie gleichen die Informationen nicht ab. Doch auch wenn unter den Twitternutzern viele sind, die unkritisch alles weiterleiten, was sie für interessant halten, so gibt es mindestens ebenso viele, die ein gesundes Misstrauen mitbringen. Glaubwürdigkeit und Vertrauen in die 140-Zeichen-Neuigkeit äußern sich deshalb anders. Wer viele Follower, also Abonennten bei Twitter hat, gilt als vertrauenswürdiger als ein unbekannter Twitterer. Wer enge Freunde in seinem Netzwerk hat, vertraut deren Informationsauswahl oft sogar mehr als der Auswahl, die klassische Medien treffen. Das jedenfalls schreiben die Harvard-Professor Urs Gasser und John Palfrey in ihrem Buch "Generation Internet". Und wer seine Behauptungen mit Links untermauern kann, wird eher ernst genommen als jemand, der ohne Quellenangaben loszwitschert. Der Journalist als Moderator - Ähnlich wie bei Wikipedia gibt es zudem eine Kontrolle durch die Masse: Weil die Kurznachricht auf Twitter meist von vielen Nutzern gelesen wird, sind diese zugleich in der Lage, sofort auf eine falsche Nachricht zu reagieren. So verbreiteten am Mittwoch mehrere Twitterer die Nachricht, der Sänger Kanye West sei bei einem Unfall ums Leben gekommen. Dessen Freundin war es schließlich, die bei Twitter klarstellte, dass es sich um einen schlechten Scherz handelte - was dann wiederum so schnell weitergeleitet wurde, dass eine Twittersuche nach Kanye West als erstes Meldungen über die Falschmeldung ergab.
    Spannend für Medienmacher ist an Twitter, dass seine Nutzer oft über Themen schreiben, die den Medien sonst entgehen würden. So wie die einst belächelten Blogs längst zu einer wichtigen Quelle geworden sind, entwickelt sich auch Twitter langsam zu einer Hilfe bei der Suche nach Themen und Protagonisten. Dass nun auch Suchmaschinen wie Bing Twitter durchsuchen, werde aktuelle Nachrichtenströme deutlich beschleunigen, sagt Professor Christoph Neuberger, der am Institut für Kommunikationswissenhaft der Uni Münster den Einfluss des Internet auf den Journalismus untersucht. Dank Echtzeitsuche sei es zwar möglich zu sehen, welches Thema die Netz-Community beschäftig. "Es wäre aber fatal, wenn Journalisten allein daraus Trends für Themen ableiten." Schließlich twittern in Deutschland nur einige Zehntausend Menschen, die nicht repräsentativ für die Bevölkerung oder auch nur die Stammleserschaft einer Zeitung sein können. Der Forscher sieht in dem Dienst aber auch noch ganz andere Chancen: Journalisten müssten im digitalen Zeitalter stärker die Rolle der Moderatoren einnehmen, sagt er. "Ein Artikel ist nicht mit dem letzten Punkt fertig. Die Geschichte entwickelt sich weiter, wenn Journalisten darüber mit Lesern diskutieren, Ideen aufnehmen oder Belege im Netz suchen." Zeitmangel größtes Hindernis - Das kann über Twitter sehr gut funktionieren: Wird ein Artikel eifrig kommentiert und per Link weitergereicht, kann sich der Autor in die Diskussion einschalten und die Reaktionen einarbeiten - etwa wenn Nutzer einen Fehler entdeckt haben oder weitere Informationen und Links anbieten. Dafür müssten sich die Journalisten aber erstens vom Sockel der Allwissenheit bewegen und akzeptieren, dass es immer jemanden gibt, der mehr über ein Thema weiß als sie selbst. Und zweitens müssen sie die Zeit haben, einen Artikel notfalls mehrfach zu aktualisieren."
  18. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.11170048 = product of:
      0.22340097 = sum of:
        0.16379598 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16379598 = score(doc=5002,freq=4.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.059604984 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.059604984 = score(doc=5002,freq=54.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  19. Medien-Informationsmanagement : Archivarische, dokumentarische, betriebswirtschaftliche, rechtliche und Berufsbild-Aspekte ; [Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar und Folgetagung 2001 in Köln] (2003) 0.11
    0.11123595 = product of:
      0.2224719 = sum of:
        0.055619735 = weight(_text_:und in 2833) [ClassicSimilarity], result of:
          0.055619735 = score(doc=2833,freq=64.0), product of:
            0.13374756 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06030372 = queryNorm
            0.41585606 = fieldWeight in 2833, product of:
              8.0 = tf(freq=64.0), with freq of:
                64.0 = termFreq=64.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2833)
        0.16685216 = weight(_text_:handelte in 2833) [ClassicSimilarity], result of:
          0.16685216 = score(doc=2833,freq=2.0), product of:
            0.5509661 = queryWeight, product of:
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.06030372 = queryNorm
            0.30283564 = fieldWeight in 2833, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.1365185 = idf(docFreq=12, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2833)
      0.5 = coord(2/4)
    
    Abstract
    Als in den siebziger Jahren des vergangenen Jahrhunderts immer häufiger die Bezeichnung Informationsmanager für Leute propagiert wurde, die bis dahin als Dokumentare firmierten, wurde dies in den etablierten Kreisen der Archivare und Bibliothekare gelegentlich belächelt und als Zeichen einer Identitätskrise oder jedenfalls einer Verunsicherung des damit überschriebenen Berufsbilds gewertet. Für den Berufsstand der Medienarchivare/Mediendokumentare, die sich seit 1960 in der Fachgruppe 7 des Vereins, später Verbands deutscher Archivare (VdA) organisieren, gehörte diese Verortung im Zeichen neuer inhaltlicher Herausforderungen (Informationsflut) und Technologien (EDV) allerdings schon früh zu den Selbstverständlichkeiten des Berufsalltags. "Halt, ohne uns geht es nicht!" lautete die Überschrift eines Artikels im Verbandsorgan "Info 7", der sich mit der Einrichtung von immer mächtigeren Leitungsnetzen und immer schnelleren Datenautobahnen beschäftigte. Information, Informationsgesellschaft: diese Begriffe wurden damals fast nur im technischen Sinne verstanden. Die informatisierte, nicht die informierte Gesellschaft stand im Vordergrund - was wiederum Kritiker auf den Plan rief, von Joseph Weizenbaum in den USA bis hin zu den Informations-Ökologen in Bremen. Bei den nationalen, manchmal auch nur regionalen Projekten und Modellversuchen mit Datenautobahnen - auch beim frühen Btx - war nie so recht deutlich geworden, welche Inhalte in welcher Gestalt durch diese Netze und Straßen gejagt werden sollten und wer diese Inhalte eigentlich selektieren, portionieren, positionieren, kurz: managen sollte. Spätestens mit dem World Wide Web sind diese Projekte denn auch obsolet geworden, jedenfalls was die Hardware und Software anging. Geblieben ist das Thema Inhalte (neudeutsch: Content). Und - immer drängender im nicht nur technischen Verständnis - das Thema Informationsmanagement. MedienInformationsManagement war die Frühjahrstagung der Fachgruppe 7 im Jahr 2000 in Weimar überschrieben, und auch die Folgetagung 2001 in Köln, die der multimedialen Produktion einen dokumentarischen Pragmatismus gegenüber stellte, handelte vom Geschäftsfeld Content und von Content-Management-Systemen. Die in diesem 6. Band der Reihe Beiträge zur Mediendokumentation versammelten Vorträge und Diskussionsbeiträge auf diesen beiden Tagungen beleuchten das Titel-Thema aus den verschiedensten Blickwinkeln: archivarischen, dokumentarischen, kaufmännischen, berufsständischen und juristischen. Deutlich wird dabei, daß die Berufsbezeichnung Medienarchivarln/Mediendokumentarln ziemlich genau für all das steht, was heute mit sog. alten wie neuen Medien im organisatorischen, d.h. ordnenden und vermittelnden Sinne geschieht. Im besonderen Maße trifft dies auf das Internet und die aus ihm geborenen Intranets zu. Beide bedürfen genauso der ordnenden Hand, die sich an den alten Medien, an Buch, Zeitung, Tonträger, Film etc. geschult hat, denn sie leben zu großen Teilen davon. Daß das Internet gleichwohl ein Medium sui generis ist und die alten Informationsberufe vor ganz neue Herausforderungen stellt - auch das durchzieht die Beiträge von Weimar und Köln.
    Vorliegender Band umgreift den gegenwärtigen Stand der Diskussion um das Handling von Informationen in und mit Hilfe von neuen und alten Medien und liefert außerdem dem Verein Fortbildung für Medienarchivare/ Mediendokumentare (VFM), der seit dem 5. Band die Reihe herausgibt, eine weitere Handreichung für die zusammen mit dem Deutschen Institut, für publizistische Bildungsarbeit in Hagen veranstalteten Seminare. Im Anhang sind außer den vollständigen Programmen der beiden Frühjahrstagungen die Namen und institutionellen Anbindungen der Referenten nachzulesen. Allen Autoren des Bandes sei für ihre Bereitschaft, an dieser Publikation mitzuwirken, gedankt, insbesondere denen, die sich auch noch der Mühe unterziehen mußten, das Transkript ihres in freier Rede gehaltenen Vortrags in eine lesbare Fassung zu bringen. Manche Eigentümlichkeiten des Stils sind dieser freien Rede geschuldet - oder vielleicht auch gedankt, denn sie geben damit umso lebendiger die Atmosphäre jener Frühlingstage in Weimar und Köln wieder.
    Classification
    AP 11500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Bibliographien und Sammelschriften / Tagungs- und Kongreßberichte (CSN)
    Content
    Enthält u.a. die Beiträge (Dokumentarische Aspekte): Günter Perers/Volker Gaese: Das DocCat-System in der Textdokumentation von Gr+J (Weimar 2000) Thomas Gerick: Finden statt suchen. Knowledge Retrieval in Wissensbanken. Mit organisiertem Wissen zu mehr Erfolg (Weimar 2000) Winfried Gödert: Aufbereitung und Rezeption von Information (Weimar 2000) Elisabeth Damen: Klassifikation als Ordnungssystem im elektronischen Pressearchiv (Köln 2001) Clemens Schlenkrich: Aspekte neuer Regelwerksarbeit - Multimediales Datenmodell für ARD und ZDF (Köln 2001) Josef Wandeler: Comprenez-vous only Bahnhof'? - Mehrsprachigkeit in der Mediendokumentation (Köln 200 1)
    RVK
    AP 11500 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Bibliographien und Sammelschriften / Tagungs- und Kongreßberichte (CSN)
  20. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.10030416 = product of:
      0.40121663 = sum of:
        0.40121663 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.40121663 = score(doc=6896,freq=6.0), product of:
            0.42499092 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06030372 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web

Languages

  • d 4222
  • e 502
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3549
  • m 805
  • el 224
  • x 210
  • s 185
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications