Search (4767 results, page 1 of 239)

  • × year_i:[2000 TO 2010}
  1. Burd, B.: Java und XML für Dummies (2003) 0.33
    0.32645205 = product of:
      0.6529041 = sum of:
        0.5940674 = weight(_text_:java in 2694) [ClassicSimilarity], result of:
          0.5940674 = score(doc=2694,freq=18.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            1.4015644 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
        0.058836687 = weight(_text_:und in 2694) [ClassicSimilarity], result of:
          0.058836687 = score(doc=2694,freq=18.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.44108194 = fieldWeight in 2694, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2694)
      0.5 = coord(2/4)
    
    Abstract
    Barry Budd erklärt, wie XML in Verbindung mit Java optimal funktionieren und Daten zwischen Anwendungen transferieren kann. Das Buch ist nicht nur für Anfänger interessant. Insbesondere Javabewanderte Web-Entwickler finden hier einen geradlinigen und lockeren Einstieg in die Zusammenarbeit von Java und XML. Die ersten 30 Seiten widmen sich der Programmiertheorie, der Installation von Java und den zusätzlich nötigen XMLrelevanten Klassen. Im zweiten Teil erfährt der Leser alles über die lineare Untersuchung von XML-Dateien und die Programmierung mit SAX. Es folgt der holistische Ansatz mit DOM und dessen Java-optimierter, eleganterer Alternative JDOM. XSL, die Anzeige von XML-Daten im Web und Java API for XML-Binding (JAXB) mit der man aus XML-Dokumenten maßgeschneiderte Java-Klassen dateien erstellen kann. Teil drei zeigt Spezialwerkzeuge für Webservices Soap, UDDI, WSDL, Java API for XML Messaging (JAXM) und die Arbeit mit XML-Registraren. Zu den Techniken erfährt der Leser sinnvolle Einsatzszenarien. Der Autor verdeutlicht die Theorie mit Code-Beispielen, die in Teilen für eigene Projekte verwendbar sind.
    Object
    Java
  2. Speck, H.; Thiele, F.P.: Playing the search engines or hacking the box : Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google (2007) 0.23
    0.22666797 = product of:
      0.45333594 = sum of:
        0.054205343 = weight(_text_:und in 1386) [ClassicSimilarity], result of:
          0.054205343 = score(doc=1386,freq=22.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.4063621 = fieldWeight in 1386, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1386)
        0.3991306 = weight(_text_:hacking in 1386) [ClassicSimilarity], result of:
          0.3991306 = score(doc=1386,freq=4.0), product of:
            0.5543143 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06014329 = queryNorm
            0.72004384 = fieldWeight in 1386, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1386)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Kapitel beschreibt ein quantitatives Verfahren, bei dem Suchmaschinen als exploratives Werkzeug für die Erhebung forschungsrelevanter Daten benutzt werden. Suchmaschinen bilden dabei die Grundlage für einen systemtheoretischen Ansatz, der die gewonnenen Informationen für die Abbildung der makro-soziologischen Eigenschaften einzelner Webseiten und kompletter Netzwerke nutzt. Die technischen Fortschritte des Information Retrieval ermöglichen 15 Jahre nach der Evolution des Internets zum Massenmedium Zugang zu Informationen und informationsverfahren, die ohne den Wandel des Verhältnisses von Öffentlichkeit und Privatsphäre, von Internetnutzern zu Inhalte-Produzenten und von Sendern zu Empfängern im Sinne des mathematischen Modells der Kommunikation nicht vorstellbar sind. Diese Entwicklung erlaubt die Nutzung innovativer Explorationsverfahren, die durch den direkten Zugriff auf Milliarden von Daten auch Einblicke in die Transaktionsprozesse der daran beteiligten Suchmaschinen und Märkte bieten. Im Folgenden werden die Transformationen des Öffentlichen Raumes und der Privatsphäre beleuchtet. Besonderes Augenmerk gilt dabei dem Zugang und der Verfügbarkeit von Informationen in Information-Retrieval-Systemen, die relevante Informationen für eine umfassende Exploration und Analyse der Zielobjekte geben. Beschrieben wird insbesondere, wie eine Nutzung von Suchmaschinen zur Datenerhebung verbunden mit einer Betrachtung als geregelte Prozesse innerhalb eines kybernetischen Modells Nutzungsmöglichkeiten und Optionen für die quantitative Analyse von Nutzerverhalten, Strukturen und Marktzahlen bietet.
  3. Long, J.: Google hacking (2005) 0.20
    0.1995653 = product of:
      0.7982612 = sum of:
        0.7982612 = weight(_text_:hacking in 5551) [ClassicSimilarity], result of:
          0.7982612 = score(doc=5551,freq=4.0), product of:
            0.5543143 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06014329 = queryNorm
            1.4400877 = fieldWeight in 5551, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.078125 = fieldNorm(doc=5551)
      0.25 = coord(1/4)
    
    Footnote
    Originaltitel: Google hacking for penetration testers
  4. Popper, A.: Daten eingewickelt : Dynamische Webseiten mit XML und SQL (2001) 0.18
    0.18136227 = product of:
      0.36272454 = sum of:
        0.3300375 = weight(_text_:java in 6804) [ClassicSimilarity], result of:
          0.3300375 = score(doc=6804,freq=2.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.77864695 = fieldWeight in 6804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.078125 = fieldNorm(doc=6804)
        0.03268705 = weight(_text_:und in 6804) [ClassicSimilarity], result of:
          0.03268705 = score(doc=6804,freq=2.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.24504554 = fieldWeight in 6804, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=6804)
      0.5 = coord(2/4)
    
    Abstract
    Wer dynamische Webseiten mit XML erzeugt, wird über kurz oder lang auch Datenbanken anzapfen wollen. Das Apache-Projekt Cocoon liefert eine komfortable Java/Servlet-Produktionsumgebung dafür
  5. Long, J.: Google hacking (2008) 0.18
    0.18133439 = product of:
      0.36266878 = sum of:
        0.043364275 = weight(_text_:und in 3925) [ClassicSimilarity], result of:
          0.043364275 = score(doc=3925,freq=22.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.32508966 = fieldWeight in 3925, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3925)
        0.3193045 = weight(_text_:hacking in 3925) [ClassicSimilarity], result of:
          0.3193045 = score(doc=3925,freq=4.0), product of:
            0.5543143 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06014329 = queryNorm
            0.5760351 = fieldWeight in 3925, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.03125 = fieldNorm(doc=3925)
      0.5 = coord(2/4)
    
    Abstract
    Johnny Long zeigt mit vielen Beispielabfragen, dass Google zigtausende brisante Dokumente indexiert hat. Der Grund hierfür liegt oft in der Unwissenheit der Anwender, in Fehlkonfigurationen oder schlicht in der Faulheit des Administrators (...) Administratoren lernen in dem Buch viel übder die Kreativität von Angreifern und können anhand der unzähligen Beispiele abchecken, ob ihre Server nicht vielleicht doch zu viele Informationen preisgeben. Aber auch Otto Normalanwender kann von dem Buch profitieren, denn Long beschreibt sehr detailliert die Funktionsweise der Google-Operatoren, welche Operatoren sich wie kombinieren lassen und von welchen man zur Sicherheit am besten die Finger lässt.
    Content
    Originaltitel: Google hacking for penetration testers
    Footnote
    Rez. in: Mitt VÖB 62(2009) H.1 (M. Buzinkay): "Normalerweise schreibe ich in einer Buchrezension zunächst über den Inhalt, die Relevanz und erst am Schluss eine persönliche Empfehlung. Nun mache ich es mal umgekehrt: Jeder Informationsspezialist sollte sich dieses Buch besorgen und daraus seine Schlüsse ziehen! Nach dieser ordentlichen Portion "Wachrütteln" komme ich zum vorliegenden Werk. Die mehr als 500 Seiten sind dicht gepackte Information und Wissen pur zu Google und was mar alles aus dieser Suchmaschine herausholen kann. Das sind teilweise Dinge, die man nicht glauben würde: Zutritt zu Firmenwebcams, Passwortdateien, Contentmanagementsystemen und Personendaten. Das Buch ist also keine Einführung in das 1 x 1 von Google, und trotzdem lassen sich mit den Grundfunktionen dieser Suchmaschine die verrücktesten Dinge anstellen und herausfinden. Wenn Sie das nächste Mal jemanden fragen sollten, ob er Google denn kenne und damit umgehen könne, dann können Sie das sicherlich gefallene "Ja" getrost in den digitalen Eimer schmeißen. Das, was Sie in diesem Buch lesen, haben sie zu 90% noch nicht gekannt. Und Sie sind Informationsexperte/in. Einige Auszüge aus dem Inhaltsverzeichnis geben Ihnen eine Ahnung, um was es in diesem Buch geht: Newsgroups durchsuchen, Verzeichnislisten aufspüren, Datenbanken erforschen, Daten von der Quelle abholen, fremde Angriffscodes entdecken, Sicherheitsabfragen formulieren, ... Das Schöne: man bekommt allerhand Beispiele geliefert, die man auch selbst (legal) ausprobieren kann. In Summe: sehr empfehlenswert!"
  6. Zeppenfeld, K.; Waning, S.M. (Mitarb.); Wenczek, M. (Mitarb.); Wolters, R. (Mitarb.): Objektorientierte Programmiersprachen : Einführung und Vergleich von Java, C++, C#, Ruby ; mit CD-ROM (2004) 0.17
    0.17291652 = product of:
      0.34583303 = sum of:
        0.29519448 = weight(_text_:java in 225) [ClassicSimilarity], result of:
          0.29519448 = score(doc=225,freq=10.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.69644296 = fieldWeight in 225, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
        0.050638564 = weight(_text_:und in 225) [ClassicSimilarity], result of:
          0.050638564 = score(doc=225,freq=30.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.37962294 = fieldWeight in 225, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=225)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch ist das ideale Hilfsmittel für all diejenigen, die in mehr als einer objektorientierten Sprache programmieren. Dieses Die Zahl der Softwareprojekte, die mit objektorientierten Programmiersprachen realisiert wurden, nimmt ständig zu. Richtig verstanden und eingesetzt bieten objektorientierte Techniken nicht nur enorme zeitliche Vorteile bei der Erstellung von Software. Häufig werden aber Begriffe wie z. B. Wiederverwendung, Polymorphismus oder Entwurfsmuster nur wie modische Phrasen verwendet, da die grundlegenden Konzepte der Objektorientierung nicht verstanden oder nicht konsequent angewendet worden sind. Dieses Buch vermittelt anschaulich die Denkweisen der Objektorientierung, um anschließend deren Umsetzung in den vier Programmiersprachen Java, C++, C# und Ruby genauer zu beschreiben. Ausgehend von der Annahme, dass bei richtigem Verständnis für die Grundlagen jede objektorientierte Programmiersprache leicht zu erlernen und anzuwenden ist, werden in kurzer und kompakter Weise die Umsetzung der objektorientierten Konzepte innerhalb der vier Sprachen vorgestellt und anschließend miteinander verglichen. Der Autor hat eine langjährige Erfahrung im Bereich der objektorientierten Programmiersprachen, insbesondere auch aus seiner Lehrtätigkeit in der Industrie. Das Konzept dieses Fachbuchs ist deshalb so ausgearbeitet, dass sich das Buch gleichermaßen an Einsteiger ohne Programmiererfahrung, an Umsteiger, die bereits eine funktionale Programmiersprache kennen und an Softwareentwickler mit Projekterfahrung in einer objektorientierten Programmiersprache wendet. Es eignet sich aber auch sehr gut für Studierende, die sich einen umfassenden Überblick über die gängigen objektorientierten Programmiersprachen und deren Möglichkeiten verschaffen wollen. Auf der beiliegen CD-ROM befinden sich u. a. zahlreiche Beispielprogramme, Musterlösungen zu den Aufgaben und eine multimediale Lehr-/Lernumgebung.
    Classification
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Object
    Java
    RSWK
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
    RVK
    ST 231 [Informatik # Monographien # Software und -entwicklung # Objektorientierung]
    ST 240 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen)]
    Subject
    Objektorientierte Programmiersprache / Java / C ++ / C sharp / Ruby <Programmiersprache> (ÖVK)
  7. Loviscach, J.: Formen mit Normen (2000) 0.15
    0.15050557 = product of:
      0.30101115 = sum of:
        0.26402998 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.26402998 = score(doc=6100,freq=2.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.036981177 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.036981177 = score(doc=6100,freq=4.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.5 = coord(2/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    Java
  8. ¬Die Macht der Suchmaschinen (2007) 0.15
    0.14659435 = product of:
      0.2931887 = sum of:
        0.05371031 = weight(_text_:und in 2813) [ClassicSimilarity], result of:
          0.05371031 = score(doc=2813,freq=60.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.40265095 = fieldWeight in 2813, product of:
              7.745967 = tf(freq=60.0), with freq of:
                60.0 = termFreq=60.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2813)
        0.23947838 = weight(_text_:hacking in 2813) [ClassicSimilarity], result of:
          0.23947838 = score(doc=2813,freq=4.0), product of:
            0.5543143 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06014329 = queryNorm
            0.43202633 = fieldWeight in 2813, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.0234375 = fieldNorm(doc=2813)
      0.5 = coord(2/4)
    
    Abstract
    Suchmaschinen sind der wichtigste Zugangsweg zum Auffinden neuer Netzinhalte. Insgesamt verwendeten nach einer repräsentativen Studie im dritten Quartal 2005 fast 85 Prozent der deutschen Internetnutzer Suchmaschinen. Diese sind inzwischen auch ein Big Business: Gemessen am Börsenwert ist die Suchmaschine Google mit einem Gesamtwert von 80 Mrd. Dollar das wertvollste Medienunternehmen der Welt. Der Konzerngewinn stieg von 2004 auf 2005 um 367 Prozent auf 1,5 Mrd. Dollar. Als Gatekeeper im Internet stellen die Suchmaschinen eine zentrale Herausforderung für Wissenschaft und Forschung dar - letztlich geht es um die Frage der "digitalen Informationsmacht". Mit diesem Band liegt erstmals eine Publikation vor, die die Rolle von Suchmaschinen in der Informationsgesellschaft in den wichtigsten Dimensionen aus verschiedenen Perspektiven wissenschaftlich beleuchtet und dabei hilft, die künftige Suchmaschinenforschung zu systematisieren.
    BK
    05.20 Kommunikation und Gesellschaft
    Classification
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
    05.20 Kommunikation und Gesellschaft
    Content
    Der Band geht auf die internationale Tagung Die wachsende Macht von Suchmaschinen im Internet: Auswirkungen auf User, Medienpolitik und Medienbusiness bestehend aus einem interdisziplinären wissenschaftlichen Workshop am 26. Juni 2006 und einer Publikumskonferenz am 27. Juni 2006 in Berlin zurück, die vom Lehrstuhl für Journalistik II der Universität Leitung und dem Lehrstuhl für Internationalen Journalismus der UniversitSt Dortmund in Kooperation mit der Friedrich-Ebert-Stiftung, Bereich Medien und Politik, veranstaltet worden ist. In drei Kapiteln werden die zentralen Forschungsfelder aufgegriffen: Das erste Kapitel behandelt die wichtigsten Aspekte im Bereich der Suchmaschinenregulierung und -ökonomie. Es werden Herausforderungen transparent gemacht, die sich gegenwärtig in der Entwicklung befindlichen Regulierungsstrukturen analysiert und Lösungswege erarbeitet. Das zweite Kapitel beschäftigt sich, zum ersten Mal in Form einer Publikation, mit dem Verhältnis von Suchmaschinen und Journalismus. Dabei ist die Frage, inwieweit Suchmaschinen einerseits journalistische Funktionen übernehmen und andererseits Journalisten als Rechercheinstrument dienen und wie sich hierdurch das Gefüge des bisherigen Massenkommunikationssystems verändert, von entscheidender Bedeutung.
    Im dritten Kapitel werden die Qualität von Suchmaschinen und das Nutzerverhalten näher beleuchtet. Erkenntnisse über die Güte von Suchmaschinen sind von großer Relevanz, um deren Rolle bei der Informationsvermittlung in einer Gesellschaft angemessen beurteilen zu können. Der Band liefert hier neue Ansätze und Vorschläge, da die Frage nach der Qualität von Suchmaschinen noch nicht ausreichend beantwortet worden ist. Zum anderen ist die Analyse des Nutzerverhaltens grundlegend, um Schlussfolgerungen für die Medienkompetenz als zentrale Schlüsselqualifikation im Informationszeitalter ziehen zu können. Unter den Autoren sind viele der international führende Experten auf dem Gebiet Suchmaschinen, darunter Wissenschaftler der Universitäten Harvard, Yale und Columbia sowie der London School of Economics und der Pariser Sorbonne. Darüber hinaus wurden auch Beiträge von Praktikern, allesamt leitende Redakteure oder Verantwortliche in Medienunternehmen aufgenommen, um deren Erkenntnisse für die Thematik fruchtbar zu machen. Der Band richtet sich neben der Wissenschaft auch an die Praxis, vor allem die Medienaufsicht und -ökonomie sowie an den Journalismus. Er bietet aber auch der allgemein interessierten Öffentlichkeit einen fundierten Einblick in die bisher wenig erforschte Welt der Suchmaschinen.
    MARCEL MACHILL / MARKUS BEILER / MARTIN ZENKER: Suchmaschinenforschung. Überblick und Systematisierung eines interdisziplinären Forschungsfeldes TEIL 1: SUCHMASCHINENREGULIERUNG UND -ÖKONOMIE URS GASSER / JAMES THURMAN: Themen und Herausforderungen der Regulierung von Suchmaschinen NORBERT SCHNEIDER: Die Notwendigkeit der Suchmaschinenregulierung aus Sicht eines Regulierers WOLFGANG SCHULZ / THORSTEN HELD: Der Index auf dem Index? Selbstzensur und Zensur bei Suchmaschinen BORIS ROTENBERG: Towards Personalised Search: EU Data Protection Law and its Implications for Media Pluralism ELIZABETH VAN COUVERING: The Economy of Navigation: Search Engines, Search Optimisation and Search Results THEO RÖHLE: Machtkonzepte in der Suchmaschinenforschung TEIL 2: SUCHMASCHINEN UND JOURNALISMUS VINZENZ WYSS / GUIDO KEEL: Google als Trojanisches Pferd? Konsequenzen der Internet-Recherche von Journalisten für die journalistische Qualität NIC NEWMAN: Search Strategies and Activities of BBC News Interactive JÖRG SADROZINSKI: Suchmaschinen und öffentlich-rechtlicher Onlinejournalismus am Beispiel tagesschau.de HELMUT MARTIN-JUNG: Suchmaschinen und Qualitätsjournalismus PHILIP GRAF DÖNHOFF / CHRISTIAN BARTELS: Online-Recherche bei NETZEITUNG.DE SUSAN KEITH: Searching for News Headlines: Connections between Unresolved Hyperlinking Issues and a New Battle over Copyright Online AXEL BUNDENTHAL: Suchmaschinen als Herausforderung für Archive und Dokumentationsbereiche am Beispiel des ZDF BENJAMIN PETERS: The Search Engine Democracy: Metaphors and Muhammad
    TEIL 3: QUALITÄT VON SUCHMASCHINEN UND NUTZERVERHALTEN] DIRK LEWANDOWSKI: Mit welchen Kennzahlen lässt sich die Qualität von Suchmaschinen messen? BENJAMIN EDELMAN: Assessing and Improving the Safety of Internet Search Engines HENDRIK SPECK / FREDERIC PHILIPP THIELE: Playing the Search Engines or Hacking the Box: Möglichkeiten und Gefahren von Suchmaschinen-Hacking am Beispiel von Google NATALIE KINK / THOMAS HESS: Suchmaschinen als Substitut traditioneller Medien? Erste Ergebnisse einer Studie zum Wandel der Informationsbeschaffung durch Suchmaschinen DIVINA FRAU-MEIGS: Minding the Gatekeepers: Search Engines for Young People, and the Regulatory Riddle of Harmful Content an Environmental Cognition Perspective MARCEL MACHILL / MARKUS BEILER / ULRIKE NEUMANN: Leistungsfähigkeit von wissenschaftlichen Suchmaschinen. Ein Experiment am Beispiel von Google Scholar
    RVK
    AP 18420 Allgemeines / Medien- und Kommunikationswissenschaften, Kommunikationsdesign / Arten des Nachrichtenwesens, Medientechnik / Internet
  9. Kölle, R.; Langemeier, G.; Womser-Hacker, C.: Kollaboratives Lernen in virtuellen Teams am Beispiel der Java-Programmierung (2008) 0.15
    0.14578176 = product of:
      0.2915635 = sum of:
        0.23102623 = weight(_text_:java in 2393) [ClassicSimilarity], result of:
          0.23102623 = score(doc=2393,freq=2.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.5450528 = fieldWeight in 2393, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2393)
        0.060537264 = weight(_text_:und in 2393) [ClassicSimilarity], result of:
          0.060537264 = score(doc=2393,freq=14.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.4538307 = fieldWeight in 2393, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2393)
      0.5 = coord(2/4)
    
    Abstract
    Komplexe Aufgaben und Probleme werden heute üblicherweise im Team bearbeitet und gelöst. Das gilt insbesondere für Softwareprojekte, denn die Entwicklung komplexer Softwaresysteme findet heutzutage meistens arbeitsteilig in - zunehmend räumlich verteilten - Teams statt. Vor diesem Hintergrund wird zum einen ein rollenbasiertes Konzept vorgestellt, das virtuellen Lernteams bei der Zusammenarbeit einen virtuellen Tutor zur Seite stellt, der dem Team im Rahmen von Rollendefiziten adaptierte Hilfestellung bietet und so die Lerneffektivität unterstützt. Zum anderen wird gezeigt, wie das Zusammenspiel zweier spezialisierter Systeme (VitaminL und K3) im Kontext des Blended Learning echte Mehrwerte in E-Learning-Szenarien bringen kann. Die in Benutzertests und einer Lehrveranstaltung ermittelten Evaluierungsergebnisse lassen auf die Tragfähigkeit des rollenbasierten, tutoriellen Konzepts schließen und decken gleichzeitig großes Weiterentwicklungpotenzial auf.
    Source
    Information - Wissenschaft und Praxis. 59(2008) H.1, S.37-40
  10. Hickey, T.B.: ¬A Java Z39.50 Client for Browsing Large Databases (2001) 0.14
    0.14002304 = product of:
      0.56009215 = sum of:
        0.56009215 = weight(_text_:java in 2051) [ClassicSimilarity], result of:
          0.56009215 = score(doc=2051,freq=4.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            1.3214076 = fieldWeight in 2051, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2051)
      0.25 = coord(1/4)
    
    Object
    Java
  11. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.13
    0.12603575 = product of:
      0.2520715 = sum of:
        0.1866974 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.1866974 = score(doc=217,freq=4.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.0653741 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.0653741 = score(doc=217,freq=50.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  12. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.12
    0.12303122 = product of:
      0.24606244 = sum of:
        0.19802248 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.19802248 = score(doc=977,freq=2.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.048039958 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.048039958 = score(doc=977,freq=12.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  13. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.11812926 = product of:
      0.23625852 = sum of:
        0.16501875 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.16501875 = score(doc=50,freq=2.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.07123977 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.07123977 = score(doc=50,freq=38.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  14. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.11599495 = product of:
      0.2319899 = sum of:
        0.1866974 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.1866974 = score(doc=1761,freq=4.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.045292508 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.045292508 = score(doc=1761,freq=24.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  15. Birkner, G.K.: Jahresarbeiten, Hausarbeiten und Diplomarbeiten 1947 - 2005 an der Hamburger Bibliotheksschule, Hamburger Büchereischule, Hamburger Bibliothekarschule, Fachhochschule Hamburg ( Fachbereich Bibliothekswesen bzw. Fachbereich Bibliothek und Information ), und Hochschule für Angewandte Wissenschaften Hamburg (Fachbereich Bibliothek und Information bzw. Fakultät Design, Medien und Information, Studiendepartment Information ) (2006) 0.11
    0.11196745 = product of:
      0.2239349 = sum of:
        0.05459814 = weight(_text_:und in 3381) [ClassicSimilarity], result of:
          0.05459814 = score(doc=3381,freq=62.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.40930676 = fieldWeight in 3381, product of:
              7.8740077 = tf(freq=62.0), with freq of:
                62.0 = termFreq=62.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3381)
        0.16933677 = weight(_text_:hacking in 3381) [ClassicSimilarity], result of:
          0.16933677 = score(doc=3381,freq=2.0), product of:
            0.5543143 = queryWeight, product of:
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.06014329 = queryNorm
            0.3054887 = fieldWeight in 3381, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              9.216561 = idf(docFreq=11, maxDocs=44421)
              0.0234375 = fieldNorm(doc=3381)
      0.5 = coord(2/4)
    
    Abstract
    In den weitläufigen Katakomben der einstigen Talmud-Thora-Schule am Grindelhof gab es einen verschlossenen Raum, »...aus dem man sich Diplomarbeiten holen kann, wenn diese in der Fachbereichsbibliothek nicht zu finden oder ausgeliehen sind«, so die Auskunft der Kollegen. In diesem vollgemüllten Raum standen auch klapprige Regale mit Kartons, darin irgendwelche schriftlichen Examensarbeiten in irgendeiner Ordnung. Lediglich eine Teilmenge ( in besonderen Kapseln verschlossen, geordnet und sogar katalogisiert ) war als Jahresarbeiten zwischen 1947 und 1972 von Anwärtern für den gehobenen Dienst an wissenschaftlichen Bibliotheken zu identifizieren, daneben zugehörige Zeugniszweitschriften und Personalunterlagen. Der erste Griff in den zweiten Karton zauberte Paul Raabes 1948 in Göttingen entstandene Examensarbeit »Von Jöcher zu Ebert : Die deutsche Literaturverzeichnung von 1750-1830« ans Licht, sein Zeugnis, Briefe, Entnazifizierungsunterlagen usw., die ihm wenig später als Kopien zu seinem 60. Geburtstag nach Wolfenbüttel ( »Bibliosibirsk« S. 33-34 ) geschickt wurden. Nach Austausch des Schließzylinders zur Verhinderung weiterer "Entnahmen" entstand in Nebenstunden ( Raabe wußte sie zu schätzen ) eine Ordnung. Zunächst aufgrund gesetzlicher Aufbewahrungsfristen als Archiv für die Studien- und Prüfungsunterlagen angelegt, hatte sich der Bestand bei näherer Einsicht zu einem gewachsenen regionalen, bibliotheks- und ausbildungsgeschichtlichen Schatz entwickelt. Eine kurze ABM-Maßnahme stellte konventionelle Transparenz her und glich die Bestände von Prüfungsarchiv und damaliger Fachbereichsbibliothek ab, der sehr lückenhaft Zweitschriften von besseren Arbeiten zuflossen. Später wurden auch diese Zweitstücke neu aufgestellt und in einer lokalen, selbst gestrickten Datenbank katalogisiert ( wir stehen am Anfang der Bibliotheks-EDV, weit vor PICA oder dergleichen ), so dass Studierende die in der Bibliothek zugängliche Teilmenge des Fleißes ihrer Vorgänger bequem in mehrdimensionalem Zugriff recherchieren konnten. Die gemeinsame, einheitliche und laufende Vergabe von Standortsignaturen in Bibliothek und Prüfungsarchiv für neue Diplomarbeiten wurde über fünfzehn Jahre bis Ende 2005 eingehalten. Ihren Weg in die Bibliothek fanden in diesem Zeitraum rund 80% aller Prüfungsarbeiten des Studiengangs Bibliotheks- und Informationsmanagement und nur 30% der Mediendokumentation. Grund hierfür war, dass im ersten Falle die Studierenden sich nach der Studienordnung nur dann erklären mußten, wenn sie ihre Arbeit nicht in der Bibliothek sehen wollen, und im zweiten genau umgekehrt. Ab 2006 gilt die einheitliche Regelung, nach der jeder Autor sich erklären muß, und, falls er zustimmt, dann seinen elektronischen Volltext der Bibliothek zur Verfügung stellt. Im Prüfungsarchiv wird aufgrund gesetzlicher Vorschriften weiterhin das maßgebliche, vollständige Papierexemplar der Diplomarbeit aufbewahrt werden.
    Vor dem Umzug der Bibliothek des ehemaligen Fachbereiches Bibliothek und Information zum Berliner Tor in dort räumlich engere Verhältnisse wurden ohne Absprache alle Arbeiten vor 1991 vernichtet, und auch der Umzug des inzwischen geordneten Prüfungsarchivs zum Berliner Tor war anfangs nicht sicher. Für den bevorstehenden, erneuten Umzug an die Wartenau ist bisher nicht bekannt, ob der hier beschriebene Bestand überleben wird. Ohnehin werden nach Einführung des Bachelor- / Master-Studiums ab WS 2005/2006 nur noch die wenigen Masterarbeiten inhaltlich von Interesse und den Diplomarbeiten vergleichbar sein. Zusammen mit der sukzessiven Neuordnung des Prüfungsarchives dieser Jahres-, Haus- und Diplomarbeiten entstand eine Datenbank von rund 4.600 Datensätzen, die für den Zeitraum von 1947 bis 2005 insgesamt 4.550 tatsächlich erhaltene Arbeiten erfaßt. Die Ordnung von Archiv- und verbliebenem Bibliotheksbestand ist identisch. Alle 3.600 Exemplare des Prüfungsarchivs, deren Zweitstücke nicht ( bzw. nicht mehr ) in der Bibliothek des Berliner Tors vorhanden sind, sind als staatliche Prüfungs- bzw. Examensarbeiten nicht einsehbar und folglich im Alphabetischen Teil durch den Zusatz »Prüfungsarchiv« gekennzeichnet. Mit Recht läßt sich einwenden, warum nicht eine den Gesamtbestand online recherchierbare Lösung "als Vermächtnis" entwickelt wurde, statt der hier vorliegenden langweiligen Liste: Eine vom Kollegen Klaus F. Lorenzen entwickelte Allegro-Datenbank war bis zum Ende 2004 im Internet online zugänglich, wurde aber durch Hacking zerstört, und für ihre weitere Pflege gab es über 2005 hinaus keine Perspektive.
    Vorhanden sind die Arbeiten aus den beiden Vorgängereinrichtungen des 1970 entstandenen Fachbereiches Bibliothekswesen der Fachhochschule Hamburg: Die Jahresarbeiten vom Ausbildungsende 1947 bis 1972 der Hamburger »Bibliotheksschule« bzw. der ( ab 1966 ) der »Bibliothekarschule, Abt. Wissenschaftliche Bibliotheken« mit den Signaturen »BSJ« einerseits und die Hausarbeiten von 1957 bis 1972 der Hamburger »Büchereischule« bzw. der ( ab 1966 ) »Bibliothekarschule, Abt. Öffentliche Büchereien« mit den Signaturen »BSH« andererseits. Der Hauptkorpus der Prüfungsarbeiten stammt aus den Jahren 1972 bis 2005 und wurde am »Fachbereich Bibliothekswesen« bzw. am ( ab 1991 ) »Fachbereich Bibliothek und Information« der »Fachhochschule Hamburg« bzw. der ( ab 2002 ) »Hochschule für Angewandte Wissenschaften Hamburg« geschrieben mit den Signaturen »FHB« für den Studiengang der Diplom- Bibliothekare bzw. Bibliotheks- und Informationsmanagement und »FHM« für den der Mediendokumentare ab 1993.
  16. Vonhoegen, H.: Einstieg in XML (2002) 0.11
    0.11140331 = product of:
      0.22280662 = sum of:
        0.16336021 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.16336021 = score(doc=5002,freq=4.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.05944641 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.05944641 = score(doc=5002,freq=54.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  17. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.10
    0.1000373 = product of:
      0.4001492 = sum of:
        0.4001492 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.4001492 = score(doc=6896,freq=6.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  18. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.10
    0.09901124 = product of:
      0.39604497 = sum of:
        0.39604497 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.39604497 = score(doc=2035,freq=2.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  19. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.10
    0.09901124 = product of:
      0.39604497 = sum of:
        0.39604497 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.39604497 = score(doc=2050,freq=2.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    
  20. Nix, M.: ¬Die praktische Einsetzbarkeit des CIDOC CRM in Informationssystemen im Bereich des Kulturerbes (2004) 0.10
    0.0988529 = product of:
      0.1977058 = sum of:
        0.16501875 = weight(_text_:java in 729) [ClassicSimilarity], result of:
          0.16501875 = score(doc=729,freq=2.0), product of:
            0.42386025 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06014329 = queryNorm
            0.38932347 = fieldWeight in 729, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
        0.03268705 = weight(_text_:und in 729) [ClassicSimilarity], result of:
          0.03268705 = score(doc=729,freq=8.0), product of:
            0.13339174 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06014329 = queryNorm
            0.24504554 = fieldWeight in 729, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=729)
      0.5 = coord(2/4)
    
    Abstract
    Es steht uns eine praktisch unbegrenzte Menge an Informationen über das World Wide Web zur Verfügung. Das Problem, das daraus erwächst, ist, diese Menge zu bewältigen und an die Information zu gelangen, die im Augenblick benötigt wird. Das überwältigende Angebot zwingt sowohl professionelle Anwender als auch Laien zu suchen, ungeachtet ihrer Ansprüche an die gewünschten Informationen. Um dieses Suchen effizienter zu gestalten, gibt es einerseits die Möglichkeit, leistungsstärkere Suchmaschinen zu entwickeln. Eine andere Möglichkeit ist, Daten besser zu strukturieren, um an die darin enthaltenen Informationen zu gelangen. Hoch strukturierte Daten sind maschinell verarbeitbar, sodass ein Teil der Sucharbeit automatisiert werden kann. Das Semantic Web ist die Vision eines weiterentwickelten World Wide Web, in dem derart strukturierten Daten von so genannten Softwareagenten verarbeitet werden. Die fortschreitende inhaltliche Strukturierung von Daten wird Semantisierung genannt. Im ersten Teil der Arbeit sollen einige wichtige Methoden der inhaltlichen Strukturierung von Daten skizziert werden, um die Stellung von Ontologien innerhalb der Semantisierung zu klären. Im dritten Kapitel wird der Aufbau und die Aufgabe des CIDOC Conceptual Reference Model (CRM), einer Domain Ontologie im Bereich des Kulturerbes dargestellt. Im darauf folgenden praktischen Teil werden verschiedene Ansätze zur Verwendung des CRM diskutiert und umgesetzt. Es wird ein Vorschlag zur Implementierung des Modells in XML erarbeitet. Das ist eine Möglichkeit, die dem Datentransport dient. Außerdem wird der Entwurf einer Klassenbibliothek in Java dargelegt, auf die die Verarbeitung und Nutzung des Modells innerhalb eines Informationssystems aufbauen kann.

Languages

  • d 4223
  • e 502
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3549
  • m 806
  • el 224
  • x 210
  • s 185
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications