Search (4768 results, page 2 of 239)

  • × year_i:[2000 TO 2010}
  1. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.14
    0.13662747 = product of:
      0.27325493 = sum of:
        0.20238696 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.20238696 = score(doc=217,freq=4.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.07086797 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.07086797 = score(doc=217,freq=50.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  2. Mandl, T.; Womser-Hacker, C.: ¬Ein adaptives Information-Retrieval-Modell für Digitale Bibliotheken (2000) 0.14
    0.13508865 = product of:
      0.2701773 = sum of:
        0.049607575 = weight(_text_:und in 6481) [ClassicSimilarity], result of:
          0.049607575 = score(doc=6481,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.34306374 = fieldWeight in 6481, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6481)
        0.22056974 = weight(_text_:hacker in 6481) [ClassicSimilarity], result of:
          0.22056974 = score(doc=6481,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 6481, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6481)
      0.5 = coord(2/4)
    
    Abstract
    In diesem Beitrag wird ein adaptives Information-Retrieval-Modell im Kontext Digitaler Bibliotheken vorgestellt, das während des Informationsprozesses lernt, Beziehungen zwischen Repräsentationsformen und Informations-Objekten herzustellen. Die aus großen Evaluierungsstudien abgeleiteten Erkenntnisse, dass Relevance Feedback und Polyrepräsentation echte Mehrwerte darstellen und zu besserer Retrievalqualität führen, dienen dabei als Grundlage. Um eine stärkere Adaption zu leisten, wird das Modell um Strategien erweitert, die Benutzer-, Dokument- und Anfrageeigenschaften einbeziehen. Im Rahmen Digitaler Bibliotheken spielen insbesondere Transformationen unterschiedlich erschlossener Objekte eine wichtige Rolle zur Kompensation semantischer Heterogenität. Auch in diesem Rahmen kann das adaptive Information-Retrieval-Modell eingesetzt werden
  3. Kluck, M.; Mandl, T.; Womser-Hacker, C.: Cross-Language Evaluation Forum (CLEF) : Europäische Initiative zur Bewertung sprachübergreifender Retrievalverfahren (2002) 0.14
    0.13508865 = product of:
      0.2701773 = sum of:
        0.049607575 = weight(_text_:und in 1266) [ClassicSimilarity], result of:
          0.049607575 = score(doc=1266,freq=8.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.34306374 = fieldWeight in 1266, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1266)
        0.22056974 = weight(_text_:hacker in 1266) [ClassicSimilarity], result of:
          0.22056974 = score(doc=1266,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 1266, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1266)
      0.5 = coord(2/4)
    
    Abstract
    Seit einigen Jahren hat sich in Europa eine Initiative zur Bewertung von Information Retrieval in mehrsprachigen Kontexten etabliert. Das Cross Language Evaluation forum (CLEF) wird von der EU gefördert und kooperiert mit Evaluierungsprojekten in den USA (TREC) und in Japan (NTCIR). Dieser Artikel stellt das CLEF in den Rahmen der anderen internationalen Initiativen. Neue Entwicklungen sowohl bei den Information Retrieval Systemen als auch bei den Evaluierungsmethoden werden aufgezeit. Die hohe Anzahl von Teilnehmern aus Forschungsinstitutionen und der Industrie beweist die steigende Bedeutung des sprachübergreifenden Retrievals
    Source
    Information - Wissenschaft und Praxis. 53(2002) H.2, S.82-89
  4. Harbig, D.; Schneider, R.: Ontology Learning im Rahmen von MyShelf (2006) 0.13
    0.13176559 = product of:
      0.26353118 = sum of:
        0.042961426 = weight(_text_:und in 781) [ClassicSimilarity], result of:
          0.042961426 = score(doc=781,freq=6.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.29710194 = fieldWeight in 781, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=781)
        0.22056974 = weight(_text_:hacker in 781) [ClassicSimilarity], result of:
          0.22056974 = score(doc=781,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 781, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=781)
      0.5 = coord(2/4)
    
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  5. Nick, M.; Althoff, K.-D.: Designing maintainable experience-based information systems (2006) 0.13
    0.13176559 = product of:
      0.26353118 = sum of:
        0.042961426 = weight(_text_:und in 972) [ClassicSimilarity], result of:
          0.042961426 = score(doc=972,freq=6.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.29710194 = fieldWeight in 972, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=972)
        0.22056974 = weight(_text_:hacker in 972) [ClassicSimilarity], result of:
          0.22056974 = score(doc=972,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5115155 = fieldWeight in 972, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0546875 = fieldNorm(doc=972)
      0.5 = coord(2/4)
    
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  6. Meiert, M.: Elektronische Publikationen an Hochschulen : Modellierung des elektronischen Publikationsprozesses am Beispiel der Universität Hildesheim (2006) 0.13
    0.12814552 = product of:
      0.25629103 = sum of:
        0.06723125 = weight(_text_:und in 974) [ClassicSimilarity], result of:
          0.06723125 = score(doc=974,freq=20.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.4649412 = fieldWeight in 974, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=974)
        0.18905978 = weight(_text_:hacker in 974) [ClassicSimilarity], result of:
          0.18905978 = score(doc=974,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 974, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=974)
      0.5 = coord(2/4)
    
    Abstract
    Das Internet verändert die Rahmenbedingungen des wissenschaftlichen Publikationswesens einschneidend. Wissenschaftliche Dokumente sind zunehmend elektronisch verfügbar und beginnen, die klassischen Wissenschaftsmedien wie Fachbücher und Fachzeitschriften zu verdrängen. Die Implementierung eines elektronischen Publikationsprozesses ist Voraussetzung für die erfolgreiche Verbreitung wissenschaftlicher Dokumente per Internet. Die Umsetzung setzt jedoch die Einhaltung bestimmter Vorgaben und Regularien voraus, sonst drohen Inkompatibilitäten zwischen den Systemen. Im Kontext von Urheberrechtsnovellierung und Open Access-Bewegung erläutert dieser Beitrag technische und rechtliche Rahmenbedingungen von Online-Publikationen und stellt Projekte und Initiativen vor, die sich auf dem Feld des wissenschaftlichen Publikationswesens betätigen. Ausführlich wurden Problembereiche des aktuellen Publikationsprozesses von Abschlussarbeiten im Studiengang Internationales Informationsmanagement an der Universität Hildesheim mit Hilfe von Interviews untersucht. Auf Grundlage der Zustandsanalyse wurde anschließend der elekronische Publikationsprozess modelliert.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  7. Strötgen, R.; Mandl, T.; Schneider, R.: Entwicklung und Evaluierung eines Question Answering Systems im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.13
    0.12814552 = product of:
      0.25629103 = sum of:
        0.06723125 = weight(_text_:und in 981) [ClassicSimilarity], result of:
          0.06723125 = score(doc=981,freq=20.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.4649412 = fieldWeight in 981, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=981)
        0.18905978 = weight(_text_:hacker in 981) [ClassicSimilarity], result of:
          0.18905978 = score(doc=981,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 981, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=981)
      0.5 = coord(2/4)
    
    Abstract
    Question Answering Systeme versuchen, zu konkreten Fragen eine korrekte Antwort zu liefern. Dazu durchsuchen sie einen Dokumentenbestand und extrahieren einen Bruchteil eines Dokuments. Dieser Beitrag beschreibt die Entwicklung eines modularen Systems zum multilingualen Question Answering. Die Strategie bei der Entwicklung zielte auf eine schnellstmögliche Verwendbarkeit eines modularen Systems, das auf viele frei verfügbare Ressourcen zugreift. Das System integriert Module zur Erkennung von Eigennamen, zu Indexierung und Retrieval, elektronische Wörterbücher, Online-Übersetzungswerkzeuge sowie Textkorpora zu Trainings- und Testzwecken und implementiert eigene Ansätze zu den Bereichen der Frage- und AntwortTaxonomien, zum Passagenretrieval und zum Ranking alternativer Antworten.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  8. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.13
    0.12805653 = product of:
      0.25611305 = sum of:
        0.17888649 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.17888649 = score(doc=50,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.07722657 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.07722657 = score(doc=50,freq=38.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  9. dpa: Wikipedia.de ist vorerst außer Betrieb : Streit um Namensnennung führte zu einstweiliger Verfügung gegen Internet-Adresse (2006) 0.13
    0.1267479 = product of:
      0.2534958 = sum of:
        0.03068673 = weight(_text_:und in 3101) [ClassicSimilarity], result of:
          0.03068673 = score(doc=3101,freq=6.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.21221566 = fieldWeight in 3101, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3101)
        0.22280909 = weight(_text_:hacker in 3101) [ClassicSimilarity], result of:
          0.22280909 = score(doc=3101,freq=4.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.5167087 = fieldWeight in 3101, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=3101)
      0.5 = coord(2/4)
    
    Content
    "Zum fünften Geburtstag hätten sich die Gründer der freien Online-Enzyklopädie Wikipedia sicherlich bessere Nachrichten gewünscht. Statt in dieser Woche zu feiern, ging die deutsche Internet-Adresse jetzt wegen eines Streits um die Namensnennung des verstorbenen Hackers "Tron" vorerst offline. Es sei ihnen per einstweiliger Verfügung untersagt worden, bis auf weiteres von der Adresse Wikipedia.de auf die deutschsprachige Fassung zu verlinken, teilt der Verein Wikimedia Deutschland gestern mit. Unter der Internet-Adresse Wikipedia.org ist die Enzyklopädie allerdings weiterhin in deutscher Sprache erreichbar. Die einstweilige Verfügung des Amtsgerichts BerlinCharlottenburg vom 17. Januar ist nach Angaben eines englischsprachigen Wikipedia-Eintrags von der Familie des unter ungeklärten Umständen zu Tode gekommenen Hackers "Tron" erwirkt worden. Der bürgerliche Name des Hackers soll nach dem Willen der Familie nicht mehr genannt werden. Wegen des laufenden Verfahrens nennt Wikipedia Deutschland selbst keine Gründe und gibt keine weitere Stellungnahme dazu ab. "Tron" war im Oktober 1998 in einem Berliner Park erhängt aufgefunden worden. Nach Angaben der Ermittlungsbehördenhat der Hacker Selbstmord begangen. Die offizielle Todesursache wurde jedoch vielfach bezweifelt. Der unter anderem auf Sprachverschlüsselung und das Entschlüsseln etwa von Fernsehsignalen spezialisierte "Hacker" sei vielmehr Mordopfer des Geheimdienstes oder der organisierten Kriminalität geworden, vermutet unter anderem der Chaos Computer Club. Wikipedia wurde am 15. Januar 2001 von dem US-Unternehmer Jimmy Wales und dem Philosophie-Dozent Larry Sangen gegründet. Unter Mithilfe aller Internet-Nutzer sollte die größte Wissenssammlung der Welt entstehen. Heute gibt es Wikipedia in mehr als hundert Sprachen. Allein die deutschsprachige Version umfasst weit mehr als 300 000 Artikel, die englischsprachige 850 000."
  10. Hacker, R.: Bibliothekarisches Grundwissen (2000) 0.13
    0.12642047 = product of:
      0.25284094 = sum of:
        0.063781165 = weight(_text_:und in 3158) [ClassicSimilarity], result of:
          0.063781165 = score(doc=3158,freq=18.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.44108194 = fieldWeight in 3158, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3158)
        0.18905978 = weight(_text_:hacker in 3158) [ClassicSimilarity], result of:
          0.18905978 = score(doc=3158,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 3158, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=3158)
      0.5 = coord(2/4)
    
    Abstract
    Für diese Auflage wurde das "Bibliothekarische Grundwissen" völlig neu bearbeitet. Die Kapitel "elektronische Publikationen" und "lnformationssuche im Internet' wurden erweitert. Die ursprüngliche Zielsetzung des Buches gilt auch für die 7. Auflage: Es gibt eine Einführung in grundlegende Begriffe, Fakten und Zusammenhänge des heutigen Bibliothekswesens unter besonderer Berücksichtigung der wichtigsten bibliothekarischen Arbeitsvorgänge. Die Aufgaben und Arbeitsmethoden von Bibliotheken und Bibliothekaren bei der Literaturversorgung und Literaturinformation beziehen sich heute auf zwei "Welten": die Welt der Bücher und die Welt der digitalen Information, was sich auch in der 7. Auflage des "Bibliothekarischen Grundwissens" widerspiegelt. Das Buch ist in erster Linie als Lehrbuch für die Studienund Berufsanfänger in der bibliothekarischen Ausbildung oder Praxis gedacht, deshalb wurde auf klare und verständliche Darstellung besonderer Wert gelegt. Das "Bibliothekarische Grundwissen" stellt aber auch für jeden an Literatur und am Bibliothekswesen interessierten Laien ein wichtiges und nützliches Nachschlagewerk dar
  11. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.13
    0.12574287 = product of:
      0.25148574 = sum of:
        0.20238696 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.20238696 = score(doc=1761,freq=4.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.04909877 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.04909877 = score(doc=1761,freq=24.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  12. Vonhoegen, H.: Einstieg in XML (2002) 0.12
    0.12076536 = product of:
      0.24153072 = sum of:
        0.17708859 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.17708859 = score(doc=5002,freq=4.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.06444213 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.06444213 = score(doc=5002,freq=54.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  13. Jensen, N.: Evaluierung von mehrsprachigem Web-Retrieval : Experimente mit dem EuroGOV-Korpus im Rahmen des Cross Language Evaluation Forum (CLEF) (2006) 0.12
    0.12056845 = product of:
      0.2411369 = sum of:
        0.05207711 = weight(_text_:und in 964) [ClassicSimilarity], result of:
          0.05207711 = score(doc=964,freq=12.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.36014193 = fieldWeight in 964, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=964)
        0.18905978 = weight(_text_:hacker in 964) [ClassicSimilarity], result of:
          0.18905978 = score(doc=964,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 964, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=964)
      0.5 = coord(2/4)
    
    Abstract
    Der vorliegende Artikel beschreibt die Experimente der Universität Hildesheim im Rahmen des ersten Web Track der CLEF-Initiative (WebCLEF) im Jahr 2005. Bei der Teilnahme konnten Erfahrungen mit einem multilingualen Web-Korpus (EuroGOV) bei der Vorverarbeitung, der Topic- bzw. Query-Entwicklung, bei sprachunabhängigen Indexierungsmethoden und multilingualen Retrieval-Strategien gesammelt werden. Aufgrund des großen Um-fangs des Korpus und der zeitlichen Einschränkungen wurden multilinguale Indizes aufgebaut. Der Artikel beschreibt die Vorgehensweise bei der Teilnahme der Universität Hildesheim und die Ergebnisse der offiziell eingereichten sowie weiterer Experimente. Für den Multilingual Task konnte das beste Ergebnis in CLEF erzielt werden.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  14. Bibliothek leben : Das deutsche Bibliothekswesen als Aufgabe für Wissenschaft und Politik. Eine Festschrift für Engelbert Plassmann zum 70. Geburtstag (2005) 0.12
    0.11834325 = product of:
      0.2366865 = sum of:
        0.058439225 = weight(_text_:und in 2785) [ClassicSimilarity], result of:
          0.058439225 = score(doc=2785,freq=34.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.40413946 = fieldWeight in 2785, product of:
              5.8309517 = tf(freq=34.0), with freq of:
                34.0 = termFreq=34.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2785)
        0.17824727 = weight(_text_:hacker in 2785) [ClassicSimilarity], result of:
          0.17824727 = score(doc=2785,freq=4.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.41336694 = fieldWeight in 2785, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.03125 = fieldNorm(doc=2785)
      0.5 = coord(2/4)
    
    Classification
    AN 51000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Fest- und Gedenkschriften für Personen
    Content
    Enthält die Beiträge: Retrospektiven Hans-Michael Schäfer: "Warum baut ein Privatmann eine Bibliothek" - Die Bibliothek Warburg inmitten der preußisch dominierten Bibliothekslandschaft zu Beginn des 20. Jahrhunderts; Horst Röhling: Slavica und Universales im wissenschaftlich-politischen und anthropologischen Kontext der Bibliothek; Dale Askey: Bibliothekstourismus zwischen Deutschland und den Vereinigten Staaten; Hans-Christoph Hobohm: Bibliothek als Zensur; Günter Pflug: Die Ausbildung des höheren Bibliotheksdienstes nach dem Zweiten Weltkrieg; Konrad Umlauf: Bibliotheksentwicklungsplanung 1966 bis 1973 und Bibliotheken 2007; Hans Joachim Meyer: Kontinuität und Neubeginn - Sächsische Bibliothekspolitik nach 1990; Siegfried Schmidt: Eine verpaßte Gelegenheit? - Gründe und Hintergründe zur Schließung der Fachhochschule für das öffentliche Bibliothekswesen Bonn; Walther Umstätter: Bibliothekswissenschaft im Spannungsfeld von Bibliotheksgeschichte, Nationalökonomie des Geistes und Informatik; Helmut Jüngling: Themen à la mode -Versuch einer informetrischen Analyse informationswissenschaftlicher Datenbanken; Perspektiven Wolfgang Schmitz: "Gemeinsam können wir viel bewirken" - Die gemeinsamen Fachbibliotheken von USB und Instituten an der Universität zu Köln; Jürgen Hering: Vier Buchstaben und etwas Farbe - Zum Erscheinungsbild der SLUB in der Öffentlichkeit; Ludger Syré: Haben Regionalbibliotheken eine Zukunft? - Zeitgemäße Betrachtungen zu einem scheinbar unzeitgemäßen Bibliothekstyp; Gudrun Behm-Steidel: Spezialbibliotheken in Deutschland - Nische im Bibliothekswesen oder Vorreiter im Informationsmanagement?; Regina Peeters: Auf der Kuhstraße zur Weltliteratur oder: Jedes Lesen ist Übersetzen; Holger Knudsen: Die International Association of Law Libraries (IALL); Torsten Seela: Bibliotheken und Museen als Informationsdienstleister -Konvergenzen und Divergenzen; Christian Uhlig: Buchhandel und Bibliotheken - Konfrontation oder Kooperation?; Reimar Riese: Macht unsere Bücher preiswerter! - Die Preiswürdigkeit von Büchern im Meinungsbild ihrer Konsumenten; Gerhard Hacker: Die Hybridbibliothek - Blackbox oder Ungeheuer?; Jürgen Seefeldt: Die Zukunft der Bibliothek - die Bibliothek der Zukunft: Visionen, Traumschlösser, Realitäten
    Editor
    Hacker, G. u. T. Seela
    RVK
    AN 51000 Allgemeines / Buch- und Bibliothekswesen, Informationswissenschaft / Bibliothekswesen / Bibliographien, Sammelschriften / Fest- und Gedenkschriften für Personen
  15. Long, J.: Google hacking (2008) 0.11
    0.112627886 = product of:
      0.22525577 = sum of:
        0.047008496 = weight(_text_:und in 3925) [ClassicSimilarity], result of:
          0.047008496 = score(doc=3925,freq=22.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.32508966 = fieldWeight in 3925, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3925)
        0.17824727 = weight(_text_:hacker in 3925) [ClassicSimilarity], result of:
          0.17824727 = score(doc=3925,freq=4.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.41336694 = fieldWeight in 3925, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.03125 = fieldNorm(doc=3925)
      0.5 = coord(2/4)
    
    Abstract
    Johnny Long zeigt mit vielen Beispielabfragen, dass Google zigtausende brisante Dokumente indexiert hat. Der Grund hierfür liegt oft in der Unwissenheit der Anwender, in Fehlkonfigurationen oder schlicht in der Faulheit des Administrators (...) Administratoren lernen in dem Buch viel übder die Kreativität von Angreifern und können anhand der unzähligen Beispiele abchecken, ob ihre Server nicht vielleicht doch zu viele Informationen preisgeben. Aber auch Otto Normalanwender kann von dem Buch profitieren, denn Long beschreibt sehr detailliert die Funktionsweise der Google-Operatoren, welche Operatoren sich wie kombinieren lassen und von welchen man zur Sicherheit am besten die Finger lässt.
    Footnote
    Rez. in: Mitt VÖB 62(2009) H.1 (M. Buzinkay): "Normalerweise schreibe ich in einer Buchrezension zunächst über den Inhalt, die Relevanz und erst am Schluss eine persönliche Empfehlung. Nun mache ich es mal umgekehrt: Jeder Informationsspezialist sollte sich dieses Buch besorgen und daraus seine Schlüsse ziehen! Nach dieser ordentlichen Portion "Wachrütteln" komme ich zum vorliegenden Werk. Die mehr als 500 Seiten sind dicht gepackte Information und Wissen pur zu Google und was mar alles aus dieser Suchmaschine herausholen kann. Das sind teilweise Dinge, die man nicht glauben würde: Zutritt zu Firmenwebcams, Passwortdateien, Contentmanagementsystemen und Personendaten. Das Buch ist also keine Einführung in das 1 x 1 von Google, und trotzdem lassen sich mit den Grundfunktionen dieser Suchmaschine die verrücktesten Dinge anstellen und herausfinden. Wenn Sie das nächste Mal jemanden fragen sollten, ob er Google denn kenne und damit umgehen könne, dann können Sie das sicherlich gefallene "Ja" getrost in den digitalen Eimer schmeißen. Das, was Sie in diesem Buch lesen, haben sie zu 90% noch nicht gekannt. Und Sie sind Informationsexperte/in. Einige Auszüge aus dem Inhaltsverzeichnis geben Ihnen eine Ahnung, um was es in diesem Buch geht: Newsgroups durchsuchen, Verzeichnislisten aufspüren, Datenbanken erforschen, Daten von der Quelle abholen, fremde Angriffscodes entdecken, Sicherheitsabfragen formulieren, ... Das Schöne: man bekommt allerhand Beispiele geliefert, die man auch selbst (legal) ausprobieren kann. In Summe: sehr empfehlenswert!"
    RSWK
    Google / Hacker (BVB)
    Subject
    Google / Hacker (BVB)
  16. Mielke, B.: Wider einige gängige Ansichten zur juristischen Informationserschließung (2002) 0.11
    0.109563254 = product of:
      0.21912651 = sum of:
        0.030066732 = weight(_text_:und in 3145) [ClassicSimilarity], result of:
          0.030066732 = score(doc=3145,freq=4.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.20792803 = fieldWeight in 3145, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3145)
        0.18905978 = weight(_text_:hacker in 3145) [ClassicSimilarity], result of:
          0.18905978 = score(doc=3145,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.43844184 = fieldWeight in 3145, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.046875 = fieldNorm(doc=3145)
      0.5 = coord(2/4)
    
    Source
    Information und Mobilität: Optimierung und Vermeidung von Mobilität durch Information. Proceedings des 8. Internationalen Symposiums für Informationswissenschaft (ISI 2002), 7.-10.10.2002, Regensburg. Hrsg.: Rainer Hammwöhner, Christian Wolff, Christa Womser-Hacker
  17. Cranefield, S.: Networked knowledge representation and exchange using UML and RDF (2001) 0.11
    0.10844418 = product of:
      0.4337767 = sum of:
        0.4337767 = weight(_text_:java in 6896) [ClassicSimilarity], result of:
          0.4337767 = score(doc=6896,freq=6.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.94405925 = fieldWeight in 6896, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=6896)
      0.25 = coord(1/4)
    
    Abstract
    This paper proposes the use of the Unified Modeling Language (UML) as a language for modelling ontologies for Web resources and the knowledge contained within them. To provide a mechanism for serialising and processing object diagrams representing knowledge, a pair of XSI-T stylesheets have been developed to map from XML Metadata Interchange (XMI) encodings of class diagrams to corresponding RDF schemas and to Java classes representing the concepts in the ontologies. The Java code includes methods for marshalling and unmarshalling object-oriented information between in-memory data structures and RDF serialisations of that information. This provides a convenient mechanism for Java applications to share knowledge on the Web
  18. Auf dem Weg zur Informationskultur : Wa(h)re Information? Festschrift für Norbert Henrichs zum 65. Geburtstag (2000) 0.11
    0.10815522 = product of:
      0.21631044 = sum of:
        0.05876062 = weight(_text_:und in 396) [ClassicSimilarity], result of:
          0.05876062 = score(doc=396,freq=22.0), product of:
            0.14460163 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06519757 = queryNorm
            0.4063621 = fieldWeight in 396, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=396)
        0.15754981 = weight(_text_:hacker in 396) [ClassicSimilarity], result of:
          0.15754981 = score(doc=396,freq=2.0), product of:
            0.43120834 = queryWeight, product of:
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.06519757 = queryNorm
            0.3653682 = fieldWeight in 396, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.613871 = idf(docFreq=161, maxDocs=44421)
              0.0390625 = fieldNorm(doc=396)
      0.5 = coord(2/4)
    
    Content
    Enthält Beiträge von: AKENDA, J.K.: Ethiken und Globalisierung BROMS, H.: Two Kinds of Knowledge and Two Groups of Database Searchers CAPURRO, R.: Wissensmanagement und darüber hinaus COENEN, O.: Arbeit im Informationszeitalter CURRAS, E.: Prof. Dr. Norbert Henrichs: Theoretiker und Praktiker im Informationsbereich ENDRES-NIGGEMEYER, B.: Bessere Information durch Zusammenfassen aus dem WWW GOMBOCZ, W.L.: Stichwort oder Schlagwort versus Textwort GRÖSCHL, J.: Archive als Informationsmittler HOLLÄNDER, S.: Wo Berge sich erheben oder der lange steinige Weg zur integrierten Ausbildung JUCQUOIS-DELPIERRE, M.: Kommnunikation gegen/neben Information KRAUSE, J.: Zur Entgrenzung der Beschäftigung mit Wissen und Information KUHLEN, R.: Fachinformation und Fachkommunikation in der Informationsgesellschaft LIEDTKE, W.: Wissen in Echtzeit OßWALD, A.: Bibliothekswissenschaft und Infomationswissenschaft PRÄTOR, K.: Hypertext und Handlungskoordination RAUCH, W.: Auf dem Weg zur Informationskultur. Meilensteine des Paradigmenwechsels RUß, A.: Informationswissenschaft als angewandte Kognitionswissenschaft SCHOCKENHOFF, V.: Cientia emergente: Zur Situation der Archivwissenschaft im wiedervereinigten Deutschland SCHRÖDER, T.A.: Die Hochschulen auf dem Weg zur mixed mode university SCHUMACHER, D.: Informationswirtschaft und Informationskultur STOCK, W.G.: Textwortmethode UMSTÄTTER, W.: Die Entökonomisierung des Informationsbegriffs VOGEL, F.-J. u. P. WIRTZ: Zur Emeritierung von Prof. Dr. Norbert Henrichs WERSIG, G.: Zur Zukunft der Metapher "Informationswissenschaft" WOMSER-HACKER, C.: Informationswissenschaft und Internationales Informationsmanagement XU, P.: Ein Papierdrache ZIMMERMANN, H.H.: 'So sprach Zarathustra' Vgl.: http://docserv.uni-duesseldorf.de/servlets/DerivateServlet/Derivate-81/Schriften_der_ULB_32.pdf
    Imprint
    Düsseldorf : Universitäts- und Landesbibliothek
    Series
    Schriften der Universitäts- und Landesbibliothek Düsseldorf; 32
  19. Hickey, T.B.: Guidon Web Applying Java to Scholarly Electronic Journals (2001) 0.11
    0.107331894 = product of:
      0.42932758 = sum of:
        0.42932758 = weight(_text_:java in 2035) [ClassicSimilarity], result of:
          0.42932758 = score(doc=2035,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.9343763 = fieldWeight in 2035, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2035)
      0.25 = coord(1/4)
    
  20. Shafer, K.E.; Surface, T.R.: Java Server Side Interpreter and OCLC SiteSearch (2001) 0.11
    0.107331894 = product of:
      0.42932758 = sum of:
        0.42932758 = weight(_text_:java in 2050) [ClassicSimilarity], result of:
          0.42932758 = score(doc=2050,freq=2.0), product of:
            0.45948038 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.06519757 = queryNorm
            0.9343763 = fieldWeight in 2050, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2050)
      0.25 = coord(1/4)
    

Languages

  • d 4223
  • e 503
  • m 11
  • es 2
  • f 2
  • s 2
  • el 1
  • ru 1
  • More… Less…

Types

  • a 3550
  • m 806
  • el 224
  • x 210
  • s 185
  • i 47
  • r 29
  • n 8
  • b 7
  • l 5
  • More… Less…

Themes

Subjects

Classifications