Search (11777 results, page 3 of 589)

  • × language_ss:"d"
  1. Loviscach, J.: Formen mit Normen (2000) 0.16
    0.15673015 = product of:
      0.3134603 = sum of:
        0.27494967 = weight(_text_:java in 6100) [ClassicSimilarity], result of:
          0.27494967 = score(doc=6100,freq=2.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            0.62291753 = fieldWeight in 6100, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
        0.038510635 = weight(_text_:und in 6100) [ClassicSimilarity], result of:
          0.038510635 = score(doc=6100,freq=4.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.2772374 = fieldWeight in 6100, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=6100)
      0.5 = coord(2/4)
    
    Abstract
    Standards beherrschen mehr Multimedia-Funktionen, als man zunächst glaubt. Sie eignen sich auch für Offline-Produktionen auf CD- und DVD-ROMs. Den Werkzeugkasten des sparsamen Gestalters komplettieren neue Normen wie die Grafiksprache SVG und die Audio-Video-Kontrollsprache SMIL. InternetStandards können oft sogar teure Autorensysteme wie Director oder ToolBook überflüssig machen
    Object
    Java
  2. Hartmann, F.: Medienphilosophie (2000) 0.16
    0.15667339 = product of:
      0.31334677 = sum of:
        0.05002678 = weight(_text_:und in 1725) [ClassicSimilarity], result of:
          0.05002678 = score(doc=1725,freq=12.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.36014193 = fieldWeight in 1725, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1725)
        0.26332 = weight(_text_:hartmann in 1725) [ClassicSimilarity], result of:
          0.26332 = score(doc=1725,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.5279302 = fieldWeight in 1725, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=1725)
      0.5 = coord(2/4)
    
    Abstract
    Nach einem Wort Vilem Flussers kommt der Theorie der Kommunikation jene Rolle zu, die früher die Philosophie spielte. Jedoch greifen die Medien in unsere Kommunikationsgesellschaft wesentlich weiter in den Vergesellschaftungsprozess ein, als es philosophische Texte jemals konnten. Der Autor versucht dennoch, verschiedene Aspekte der philosophischen Moderne im Hinblick auf ihre Reflexionspotential der gesellschaftlichen Funktion von Sprache, Texte, Medien zu rekonstruieren. Historisch bedeutsame Positionen der Erkenntnistheorie und Erkenntniskritik soeiwe der Sprachphilosophie und Sprachkritik werden ausführlich dargestellt
    Content
    Inhalt: Mediale Existenz. Ausgangspunkte - Imaginäre Räume: René Descartes, oder der Auftritt des modernen Autors - Aufklärung und Publizität: Von den Bedingungen der Vernunftwahrheit bei Kant - Die Schrift, doe Sprache, das Denken: Zur Konjunktur des sprachphilosophischen Ansatzes - Das Jenseits von Sprache: Fritz Mauthners Radikalisierung der Sprachphilosophie - Dekonstruktion des sprachlichen Zeichens: Peirce's Neubegründung einer Logik der Kommunikation (Semiotik) - Die befreite Symbolik: Frege und die Problematik logischen Ausdrucks - Sprechende Zeichen: Otto Neuraths internationale Bildsprache - Die wirkliche Wirklichkeit: Technik und Lebenswelt - Das Technische als Kultur: Der neuen Blick bei Walter Benjamin - Von der Reproduktion zur Simulation: Günther Anders Kulturapokalypse - Vom Auge zum Ohr: Innis, McLuhan und die technischen Dispositive der Kommunikation - Pendeln von Punkt zu Punkt: Flussers diskursive Epistemologie - Netzkultur: Leben im Datenstrom
  3. Hartmann, K.: Fachspezifische Vermittlung von Informationskompetenz an Biologen : Überlegungen zu zukünftigen Aufgaben von Zeitungssammlungen und -abteilungen in Bibliotheken vor dem Hintergrund der Entwicklung des Mediums (2013) 0.16
    0.15667339 = product of:
      0.31334677 = sum of:
        0.05002678 = weight(_text_:und in 3458) [ClassicSimilarity], result of:
          0.05002678 = score(doc=3458,freq=12.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.36014193 = fieldWeight in 3458, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3458)
        0.26332 = weight(_text_:hartmann in 3458) [ClassicSimilarity], result of:
          0.26332 = score(doc=3458,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.5279302 = fieldWeight in 3458, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=3458)
      0.5 = coord(2/4)
    
    Abstract
    Die Vermittlung von Informationskompetenz ist an vielen Hochschulbibliotheken etabliert. Dabei existieren sowohl fachübergreifende als auch fachspezifische Vermittlungskonzepte. Dieser Artikel leistet einen Beitrag zur fachspezifischen Vermittlung von Informationskompetenz an Biologen. Hierfür wurden mittels einer Umfrage die aktuellen Angebote der deutschen Hochschulbibliotheken im Fach Biologie und ihre Verankerung im Fachbereich ermittelt. Der Schwerpunkt in der Vermittlung von Informationskompetenz liegt auf den Studienanfängern. Anhaltspunkte zur Identifizierung der für die Zielgruppe der Graduierten wesentlichen Themengebiete und ihrer Recherchestrategien im Bereich Informationskompetenz liefern bereits vorhandene fachübergreifende Umfragen. Bislang waren die Biowissenschaften hierbei allerdings unterrepräsentiert. Deswegen erfolgte im Rahmen dieser Arbeit eine Befragung von Masterstudierenden und Promovierenden im Fach Biologie. Die Ergebnisse werden mit den in der Literatur verfügbaren Umfrageergebnissen verglichen, mit den aktuellen Papieren zur Informationskompetenz sowie den fachspezifischen Besonderheiten zusammengeführt und diskutiert. Zudem werden Anhaltspunkte und Ziele für die zukünftige Vermittlung von fachspezifischer Informationskompetenz an Biologen formuliert.
  4. Hartmann, S.; Pampel, H.: GND und ORCID : Brückenschlag zwischen zwei Systemen zur Autorenidentifikation (2017) 0.15
    0.154494 = product of:
      0.308988 = sum of:
        0.045667995 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.045667995 = score(doc=115,freq=10.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.3287631 = fieldWeight in 115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=115)
        0.26332 = weight(_text_:hartmann in 115) [ClassicSimilarity], result of:
          0.26332 = score(doc=115,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.5279302 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=115)
      0.5 = coord(2/4)
    
    Abstract
    Die Uneindeutigkeit von Personennamen erschwert im Rahmen der bibliothekarischen Erschließung die eindeutige Zuordnung von Autorinnen und Autoren zu ihren Werken. Bibliotheken im deutschsprachigen Raum adressieren das Problem der Mehrdeutigkeit von Namen durch den Einsatz der Gemeinsamen Normdatei (GND). Die internationale Initiative ORCID (Open Researcher and Contributor ID) verfolgt das gleiche Ziel. Akteur ist hier jedoch die einzelne Wissenschaftlerin oder der einzelne Wissenschaftler. Das Projekt "ORCID DE - Förderung der Open Researcher and Contributor ID in Deutschland" hat sich, dank der Förderung der Deutschen Forschungsgemeinschaft (DFG), unter anderem zum Ziel gesetzt, einen Brückenschlag zwischen den beiden Systemen - GND und ORCID - zu schaffen, um damit die Datenqualität beider Systeme wechselseitig zu erhöhen. Der vorliegende Beitrag gibt einen Überblick über ORCID und das Projekt ORCID DE. Dabei wird insbesondere auf die angestrebte Verlinkung von GND und ORCID eingegangen.
  5. Hartmann, M.: ¬Eine Institution in einem Fall : Ein Symposion zum 70. Geburtstag von Jürgen Habermas (1999) 0.15
    0.15360333 = product of:
      0.6144133 = sum of:
        0.6144133 = weight(_text_:hartmann in 4888) [ClassicSimilarity], result of:
          0.6144133 = score(doc=4888,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            1.2318372 = fieldWeight in 4888, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.109375 = fieldNorm(doc=4888)
      0.25 = coord(1/4)
    
  6. Hartmann, B.: Ab ins MoMA : zum virtuellen Museumsgang (2011) 0.15
    0.15208335 = product of:
      0.3041667 = sum of:
        0.040846694 = weight(_text_:und in 2821) [ClassicSimilarity], result of:
          0.040846694 = score(doc=2821,freq=8.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.29405463 = fieldWeight in 2821, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2821)
        0.26332 = weight(_text_:hartmann in 2821) [ClassicSimilarity], result of:
          0.26332 = score(doc=2821,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.5279302 = fieldWeight in 2821, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=2821)
      0.5 = coord(2/4)
    
    Content
    "Bin gestern im MoMA gewesen. Hab dann noch mal in der Tate vorbeigeschaut. Nachher dann noch einen Abstecher in die Alte Nationalgalerie gemacht. New York, London, Berlin an einem Tag, das ist dank Google kein Problem mehr. Auf der Plattform www.googleartproject.com bietet der Netz-Gigant jetzt einige virtuelle Museumsrundgänge durch einige der bekanntesten und bedeutendsten Häuser der Welt an. Googles neuestes Angebot unterscheidet sich von den in der Regel gut aufgestellten Homepages der Museen vor allem durch die Street-View-Technologie, mit der man von Raum zu Raum und von Bild zu Bild wandeln kann. Dazu hat der Besucher die Möglichkeit, zahlreiche Informationen zu den Kunstwerken abzurufen, oder die Werke in hochauflösenden Vergrößerungen anzuschauen. Aus jeder der teilnehmenden 17 Sammlungen hat Google ein Werk in einer Auflösung von sieben Milliarden Pixeln fotografiert. Wenn man da beim Rundgang durch die Alte Nationalgalerie auf Edouard Manets "Dans la Serre" (Im Wintergarten) trifft und nur einmal den Fingerring des Mannes heranzoomt, wird er gleichsam zur Unkenntlichkeit vergrößert, und man sieht wie unter einem Mikroskop jedes kleinste Detail des Farbauftrags, jeden feinsten Riss. Faszinierend. Auch wenn es das Original nicht ersetzt."
  7. Pöppe, C.: Blitzkarriere im World Wide Web : die Programmiersprache Java (1996) 0.15
    0.14581408 = product of:
      0.5832563 = sum of:
        0.5832563 = weight(_text_:java in 4404) [ClassicSimilarity], result of:
          0.5832563 = score(doc=4404,freq=4.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            1.3214076 = fieldWeight in 4404, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=4404)
      0.25 = coord(1/4)
    
    Object
    Java
  8. Fenner, M.; Hartmann, S.; Müller, U.; Pampel, H.; Reimer, T.; Scholze, F.; Summann, F.: Autorenidentifikation für wissenschaftliche Publikationen : Bericht über den Workshop der DINI-AG Elektronisches Publizieren auf dem 6. Bibliothekskongress (2016) 0.13
    0.13378581 = product of:
      0.26757163 = sum of:
        0.048138294 = weight(_text_:und in 4309) [ClassicSimilarity], result of:
          0.048138294 = score(doc=4309,freq=16.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.34654674 = fieldWeight in 4309, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4309)
        0.21943334 = weight(_text_:hartmann in 4309) [ClassicSimilarity], result of:
          0.21943334 = score(doc=4309,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.43994185 = fieldWeight in 4309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4309)
      0.5 = coord(2/4)
    
    Abstract
    Identifikationssysteme für Autorinnen und Autoren spielen für das wissenschaftliche Publizieren eine zentrale Rolle. Sie erlauben die eindeutige Zuordnung von Publikationen zu ihren Urheberinnen und Urhebern, ermöglichen - auch auf übergreifenden Plattformen - gezielte Rechercheeinstiege und unterstützen die semantische Verknüpfung im Netz. Darüber hinaus können Autorenidentifikationssysteme zur einfachen Pflege von Publikationslisten und für die Forschungsevaluation genutzt werden. Neben zahlreichen proprietären Systemen von Verlagen und Datenbankbetreibern widmet sich im Wissenschaftsbereich die global agierende Initiative ORCID (Open Researcher and Contributer ID) der Vergabe einer eindeutigen ID für Forschende. Im deutschen Bibliothekswesen kommt zur Erschließung mit Personenbezug vor allem der Gemeinsamen Normdatei (GND) entscheidende Bedeutung zu. In den Open-Access-Repositorien deutscher Hochschulen und Forschungseinrichtungen hat sich die Verwendung übergreifender Autorenidentifikationssystemen dagegen bislang kaum durchgesetzt. Im Rahmen des 6. Bibliothekskongresses veranstaltete die AG Elektronisches Publizieren der Deutschen Initiative für Netzwerkinformation (DINI) am 15.03.2016 einen Workshop zu diesem Themenfeld. Die Referentinnen und Referenten haben das Thema Autorenidentifikation und deren Anwendungsszenarien aus unterschiedlichen Blickwinkeln beleuchtet. Der vorliegende Beitrag gibt einen Überblick über die Themen des Workshops.
  9. Kaatz, S.; Attlfellner, R.; Hartmann, E.: T@tort Internet (1997) 0.13
    0.13166 = product of:
      0.52664 = sum of:
        0.52664 = weight(_text_:hartmann in 439) [ClassicSimilarity], result of:
          0.52664 = score(doc=439,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            1.0558604 = fieldWeight in 439, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.09375 = fieldNorm(doc=439)
      0.25 = coord(1/4)
    
  10. Gamperl, J.: AJAX : Web 2.0 in der Praxis ; [Grundlagen der Ajax-Programmierung, Ajax-Bibliotheken und APIs nutzen, direkt einsetzbare Praxisbeispiele im Buch und auf CD-ROM] (2002) 0.13
    0.1312483 = product of:
      0.2624966 = sum of:
        0.19441877 = weight(_text_:java in 217) [ClassicSimilarity], result of:
          0.19441877 = score(doc=217,freq=4.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            0.4404692 = fieldWeight in 217, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
        0.068077825 = weight(_text_:und in 217) [ClassicSimilarity], result of:
          0.068077825 = score(doc=217,freq=50.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.4900911 = fieldWeight in 217, product of:
              7.071068 = tf(freq=50.0), with freq of:
                50.0 = termFreq=50.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=217)
      0.5 = coord(2/4)
    
    Classification
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
    Footnote
    Rez. in: Online-Mitteilungen 2006, Nr.87, S.21-22 (M. Buzinkay):"Web 2.0 ist in aller Munde, Social Software und interaktive Web-Anwendungen boomen. Welche Technologie steckt dahinter, und wie lässt sich diese für individuelle Zwecke einsetzen? Diese Frage beantwortet Johannes Gamperl in "AJAX. Web 2.0 in der Praxis", weiches im Galileo Verlag erschienen ist. Das Zauberwort hinter Web 2.0 heißt AJAX. AJAX heißt "asynchron javascript and xml" und deutet an, woraus diese neue Programmier-Technik besteht: aus bereits vorhandenen und gut eingeführten Sprachen wie JavaScript und XML. Die Grundlagen sind nicht neu, doch die kreative Art ihrer Verwendung macht sie zur Zukunftstechnologie im Web schlechthin. Mit AJAX lassen sich Daten im Hintergrund und ohne ein neuerliches Laden einer Webseite übertragen. Das hat wesentliche Vorteile, denn so können Webseiten fortlaufend und interaktiv aktualisiert werden. Die Hauptbestandteile von AJAX sind neben XML und Javascript noch Cascading Style Sheets, das Document Object Model und XHTML. Das Buch vermittelt auf rund 400 Seiten Einblicke in die fortgeschrittene JavaScript Programmierung im Hinblick auf AJAX und das Web. Schritt für Schritt werden Beispiele aufgebaut, Techniken erläutert und eigene Kreationen gefördert. Allerdings ist das Buch kein Einsteigerbuch. Es wendet sich dezidiert an Programmierer, die über entsprechende Erfahrung mit JavaScript und XML verfügen. Die Kernthemen des Buches beinhalten - die Grundlagen des Document Object Model - die dynamische Bearbeitung von StyleSheet Angaben - den Zugriff auf XML-Daten über JavaScript - die Einführung in die Client/Server-Kommunikation - diverse JavaScript Bibliotheken Ergänzt werden diese Themen durch eine Reihe von Anwendungsbeispielen, die übersichtlich entwickelt und beschrieben werden. Eine CD mit dem Code liegt dem Buch bei. Weitere Unterstützung bieten diverse WebQuellen des Verlags und des Autors. Bekannte Beispiele für in AJAX programmierte Anwendungen sind Google Maps und Yahoo! Maps. Diese interaktiven Landkarten ermöglichen ein Heranzoomen, ein Sich-Bewegen auf Landkarten über Geo-Positioning; Satellitenbilder können eingeblendet werden. Über eine Schnittstelle (API) können externe Entwickler weitere Anwendungen auf Basis dieser Karten entwickeln, so z.B. ein Tankstellen-Netz mit den aktuellen Spritpreisen oder nutzergenerierten Reiserouten inklusive Entfernungsmessung."
    RVK
    ST 260 [Informatik # Monographien # Software und -entwicklung # Betriebssysteme]
    ST 252 [Informatik # Monographien # Software und -entwicklung # Web-Programmierung, allgemein]
    ST 250 J35 [Informatik # Monographien # Software und -entwicklung # Programmiersprachen allgemein (Maschinenorientierte Programmiersprachen, problemorientierte prozedurale Sprachen, applikative und funktionale Sprachen) # Einzelne Programmiersprachen (alphabet.) # Programmiersprachen J # Java; JavaScript]
  11. Kölle, R.; Langemeier, G.; Semar, W.: Programmieren lernen in kollaborativen Lernumgebungen (2006) 0.13
    0.12811951 = product of:
      0.25623903 = sum of:
        0.20621225 = weight(_text_:java in 977) [ClassicSimilarity], result of:
          0.20621225 = score(doc=977,freq=2.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            0.46718815 = fieldWeight in 977, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
        0.05002678 = weight(_text_:und in 977) [ClassicSimilarity], result of:
          0.05002678 = score(doc=977,freq=12.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.36014193 = fieldWeight in 977, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=977)
      0.5 = coord(2/4)
    
    Abstract
    Im Sommersemester 2005 fand (erstmals) eine gemeinsame Lehrveranstaltung "Einführung in die objekt-orientierte Programmiersprache Java" der Universitäten Konstanz und Hildesheim statt. Traditionelle Lehrveranstaltungen zum Thema Programmierung zeichnen sich neben der Wissensvermittlung (i.d.R. durch Vorlesung) durch einen hohen Grad an Praxisanteilen aus. Dazu arbeiten Teams in Tutorien gemeinsam an Übungsaufgaben. Der Einsatz der Systeme K3 ("Kollaboratives Wissensmanagement in Lernumgebungen, Konstanz") und VitaminL (synchrone, kurzzeitige Bearbeitung von Programmier-aufgaben, Hildesheim) ermöglicht nun die Übertragung einer solchen Veranstaltung ins Virtuelle. Lerngruppen arbeiten standortübergreifend sowohl asynchron als auch synchron zusammen. Dieser Beitrag liefert neben dem Erfahrungsbericht der Kooperationsveranstaltung im ersten Teil einen Einblick in die Konzeption, Implementierung und Evaluation des VitaminLSystems. Im zweiten Teil wird die Entwicklung eines Kennzahlensystems zur Leistungsevaluation kollaborativer Gruppenarbeit aufgezeigt.
    Source
    Effektive Information Retrieval Verfahren in Theorie und Praxis: ausgewählte und erweiterte Beiträge des Vierten Hildesheimer Evaluierungs- und Retrievalworkshop (HIER 2005), Hildesheim, 20.7.2005. Hrsg.: T. Mandl u. C. Womser-Hacker
  12. Lützenkirchen, F.: Multimediale Dokumentenserver als E-Learning Content Repository (2006) 0.12
    0.123014815 = product of:
      0.24602963 = sum of:
        0.17184354 = weight(_text_:java in 50) [ClassicSimilarity], result of:
          0.17184354 = score(doc=50,freq=2.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            0.38932347 = fieldWeight in 50, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
        0.07418609 = weight(_text_:und in 50) [ClassicSimilarity], result of:
          0.07418609 = score(doc=50,freq=38.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.53406435 = fieldWeight in 50, product of:
              6.164414 = tf(freq=38.0), with freq of:
                38.0 = termFreq=38.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=50)
      0.5 = coord(2/4)
    
    Abstract
    Miless, der "Multimediale Lehr- und Lernserver Essen" (http://miless.uni-duisburg-essen.de/) entstand Ende 1997 an der Universität Essen und wird seither ständig weiterentwickelt. Inzwischen ist die Hochschule zur Universität Duisburg-Essen fusioniert, und so werden auch die beiden Dokumentenserver aus Duisburg und Essen, DuetT und Miless, zum Ende des Jahres 2005 fusionieren. Miless basiert auf Java- und XML-Technologien, besitzt ein Dublin Core Metadatenmodell, eine OAI 2.0 Schnittstelle und wird als Dokumenten- und Publikationsserver für Hochschulschriften und andere Dokumente im Volltext, insbesondere aber auch multimediale Lehr- und Lernmaterialien wie Animationen, Simulationen, Audio- und Videomaterial in verschiedenen Formaten eingesetzt. Aktuell werden etwa 2.900 Dokumente mit 40.000 Dateien verwaltet. Die technische Basis von Miless hat sich in den vergangenen Jahren sehr gewandelt. Ursprünglich allein auf dem kommerziellen Produkt IBM Content Manager basierend, ist das System nun auch als reine Open Source Variante auf Basis freier Komponenten wie der Volltextsuchmaschine Apache Lucene verfügbar und kann unter GNU Lizenz nachgenutzt werden. Aus der kleinen Gruppe der Nachnutzer ist in den letzten Jahren eine stabile Entwicklergemeinschaft und das Open Source Projekt MyCoRe (http://www.mycore.de/) entstanden. Im MyCoRe Projekt arbeiten Entwickler aus Rechenzentren und Bibliotheken mehrerer deutscher Universitäten (Duisburg-Essen, Leipzig, Jena, TU München, Hamburg und weitere) gemeinsam an der Schaffung von Software, mit deren Hilfe individuelle und funktionsreiche Dokumenten- und Publikationsserver schneller erstellt werden können. So baut auch Miless inzwischen in wesentlichen Teilen auf MyCoRe Komponenten auf.
    Source
    Spezialbibliotheken zwischen Auftrag und Ressourcen: 6.-9. September 2005 in München, 30. Arbeits- und Fortbildungstagung der ASpB e.V. / Sektion 5 im Deutschen Bibliotheksverband. Red.: M. Brauer
  13. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.12079327 = product of:
      0.24158654 = sum of:
        0.20621225 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20621225 = score(doc=1181,freq=2.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.03537428 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.03537428 = score(doc=1181,freq=6.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  14. Bertelmann, R.; Höhnow, T.; Volz, S.: Bibliothekssuchmaschine statt Bibliothekskatalog (2007) 0.12
    0.12079224 = product of:
      0.24158448 = sum of:
        0.19441877 = weight(_text_:java in 1761) [ClassicSimilarity], result of:
          0.19441877 = score(doc=1761,freq=4.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            0.4404692 = fieldWeight in 1761, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
        0.047165703 = weight(_text_:und in 1761) [ClassicSimilarity], result of:
          0.047165703 = score(doc=1761,freq=24.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.33954507 = fieldWeight in 1761, product of:
              4.8989797 = tf(freq=24.0), with freq of:
                24.0 = termFreq=24.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=1761)
      0.5 = coord(2/4)
    
    Abstract
    Google und Konsorten haben das Suchverhalten unserer Nutzer grundlegend verändert. Erwartet wird eine Suche, die einfach, unkompliziert und übersichtlich sein soll. Längst haben Bibliotheken und Anbieter von Bibliothekssystemen darauf reagiert und die Suchoberflächen entschlackt. Trotzdem sehen viele Bibliothekskataloge nach wie vor wie "Bibliothekskataloge" aus. Letztlich versuchen viele der Suchmasken immer noch die Vielfalt der erfassten Metadaten und die daraus resultierenden differenzierten Suchmöglichkeiten den Nutzern auf den ersten Blick nahe zu bringen. Das geht, was zahlreiche Studien belegen, häufig an den Bedürfnissen der Nutzer vorbei: Diese wünschen sich einen einfachen und schnellen Zugriff auf die für sie relevante Information. Bibliothekskataloge sind längst nicht mehr nur Bestandsverzeichnisse, sondern Zugangssysteme zur Vielfalt der von der Bibliothek vermittelten Informationen. Auch hier bieten Systemhäuser inzwischen Lösungen an, bei denen im Sinn einer verteilten Suche weitere Quellen mit einbezogen werden können. Im Folgenden soll der Lösungsweg vorgestellt werden, den die Bibliothek des Wissenschaftsparks Albert Einstein in Zusammenarbeit mit dem Kooperativen Bibliotheksverbund Berlin-Brandenburg (KOBV) eingeschlagen hat, um mit diesen beiden veränderten Grundvoraussetzungen für ihr Serviceangebot umzugehen. Die Bibliothek des Wissenschaftsparks Albert Einstein - eine gemeinsame Bibliothek des GeoForschungsZentrums Potsdam, der Forschungsstelle Potsdam des Alfred Wegener Instituts für Polar- und Meeresforschung (zwei Helmholtz-Zentren) und des Potsdam-Instituts für Klimafolgenforschung (ein Leibniz-Institut) - ist eine Spezialbibliothek mit dem thematischen Schwerpunkt Geowissenschaften auf dem größten Campus der außeruniversitären Forschung in Brandenburg, dem Wissenschaftspark Albert Einstein auf dem Telegrafenberg in Potsdam.
    Der KOBV setzt bereits seit 2005 Suchmaschinentechnologie in verschiedenen Entwicklungsprojekten erfolgreich ein. Zusammen mit der Bibliothek des Wissenschaftsparks Albert Einstein wurde nun der Prototyp einer "Bibliothekssuchmaschine" auf Basis erprobter Open-Source-Technologien aus dem Java-Umfeld (wie Tomcat, Jakarta-Commons, Log4J usw.) als web-basierte Anwendung realisiert, deren Suchmaschinenkern auf der ebenfalls als freie Open-Source Java-Variante erhältlichen Search-Engine-Library Lucene4 basiert. Die erste Version der Bibliothekssuchmaschine läuft seit Ende Oktober im Echtbetrieb. Ziel des Pilotprojektes war die Konzeptionierung, Spezifikation und Implementierung einer neuen, benutzerfreundlichen Suchoberfläche zum schnellen Auffinden fachwissenschaftlich relevanter Daten und Informationen, sowohl in bibliothekseigenen Beständen als auch in zusätzlichen Quellen. Vor dem spezifischen Hintergrund der Spezialbibliothek werden dabei nicht nur Kataloginhalte google-like findbar gemacht, sondern der Suchraum "Katalog" um weitere für die Informationsvermittlung auf dem Campus relevante und spezifische fachwissenschaftliche Inhalte als zusätzliche Suchräume erschlossen. Die neue Anwendung dient dem schnellen Ersteinstieg und leitet die Nutzer dann an die jeweiligen Quellen weiter.
  15. Vonhoegen, H.: Einstieg in XML (2002) 0.12
    0.1160107 = product of:
      0.2320214 = sum of:
        0.17011642 = weight(_text_:java in 5002) [ClassicSimilarity], result of:
          0.17011642 = score(doc=5002,freq=4.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            0.38541055 = fieldWeight in 5002, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
        0.06190498 = weight(_text_:und in 5002) [ClassicSimilarity], result of:
          0.06190498 = score(doc=5002,freq=54.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.44565287 = fieldWeight in 5002, product of:
              7.3484693 = tf(freq=54.0), with freq of:
                54.0 = termFreq=54.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=5002)
      0.5 = coord(2/4)
    
    Abstract
    Dieses Buch richtet sich an alle, die eine kompetente Einführung in XML benötigen - praxisnah und verständlich aufbereitet. Die referenzartige Darstellung der eXtensible Markup Language XML, ihrer Dialekte und Technologien wird dabei durch viele Beispiele vertieft. »Einstieg in XML« ist kein theoretisches Buch zu verschiedenen Standards der Sprachfamilie XML. Hier bekommen Sie in konzentrierter Form genau das, was Sie zur Entwicklung eigener XML-Lösungen brauchen. Die im Buch enthaltene CD enthält alle nötigen Tools, um sofort starten zu können.
    Footnote
    Rez. in: XML Magazin und Web Services 2003, H.1, S.14 (S. Meyen): "Seit dem 22. Februar 1999 ist das Resource Description Framework (RDF) als W3C-Empfehlung verfügbar. Doch was steckt hinter diesem Standard, der das Zeitalter des Semantischen Webs einläuten soll? Was RDF bedeutet, wozu man es einsetzt, welche Vorteile es gegenüber XML hat und wie man RDF anwendet, soll in diesem Artikel erläutert werden. Schlägt man das Buch auf und beginnt, im EinleitungsKapitel zu schmökern, fällt sogleich ins Auge, dass der Leser nicht mit Lektionen im Stile von "bei XML sind die spitzen Klammern ganz wichtig" belehrt wird, obgleich es sich um ein Buch für Anfänger handelt. Im Gegenteil: Es geht gleich zur Sache und eine gesunde Mischung an Vorkenntnissen wird vorausgesetzt. Wer sich heute für XML interessiert, der hat ja mit 99-prozentiger Wahrscheinlichkeit schon seine einschlägigen Erfahrungen mit HTML und dem Web gemacht und ist kein Newbie in dem Reich der spitzen Klammern und der (einigermaßen) wohlformatierten Dokumente. Und hier liegt eine deutliche Stärke des Werkes Helmut Vonhoegens, der seinen Einsteiger-Leser recht gut einzuschätzen weiß und ihn daher praxisnah und verständlich ans Thema heranführt. Das dritte Kapitel beschäftigt sich mit der Document Type Definition (DTD) und beschreibt deren Einsatzziele und Verwendungsweisen. Doch betont der Autor hier unablässig die Begrenztheit dieses Ansatzes, welche den Ruf nach einem neuen Konzept deutlich macht: XML Schema, welches er im folgenden Kapitel darstellt. Ein recht ausführliches Kapitel widmet sich dann dem relativ aktuellen XML Schema-Konzept und erläutert dessen Vorzüge gegenüber der DTD (Modellierung komplexer Datenstrukturen, Unterstützung zahlreicher Datentypen, Zeichenbegrenzungen u.v.m.). XML Schema legt, so erfährt der Leser, wie die alte DTD, das Vokabular und die zulässige Grammatik eines XML-Dokuments fest, ist aber seinerseits ebenfalls ein XML-Dokument und kann (bzw. sollte) wie jedes andere XML auf Wohlgeformtheit überprüft werden. Weitere Kapitel behandeln die Navigations-Standards XPath, XLink und XPointer, Transformationen mit XSLT und XSL und natürlich die XML-Programmierschnittstellen DOM und SAX. Dabei kommen verschiedene Implementierungen zum Einsatz und erfreulicherweise werden Microsoft-Ansätze auf der einen und Java/Apache-Projekte auf der anderen Seite in ungefähr vergleichbarem Umfang vorgestellt. Im letzten Kapitel schließlich behandelt Vonhoegen die obligatorischen Web Services ("Webdienste") als Anwendungsfall von XML und demonstriert ein kleines C#- und ASP-basiertes Beispiel (das Java-Äquivalent mit Apache Axis fehlt leider). "Einstieg in XML" präsentiert seinen Stoff in klar verständlicher Form und versteht es, seine Leser auf einem guten Niveau "abzuholen". Es bietet einen guten Überblick über die Grundlagen von XML und kann - zumindest derzeit noch - mit recht hoher Aktualität aufwarten."
  16. ¬Die digitale Transformation in Institutionen des kulturellen Gedächtnisses : Antworten aus der Informationswissenschaft (2019) 0.11
    0.11413976 = product of:
      0.22827952 = sum of:
        0.05273286 = weight(_text_:und in 370) [ClassicSimilarity], result of:
          0.05273286 = score(doc=370,freq=30.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.37962294 = fieldWeight in 370, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=370)
        0.17554666 = weight(_text_:hartmann in 370) [ClassicSimilarity], result of:
          0.17554666 = score(doc=370,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.35195348 = fieldWeight in 370, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.03125 = fieldNorm(doc=370)
      0.5 = coord(2/4)
    
    Abstract
    Die digitale Information - kaum ein Beitrag oder Kommentar ohne diesen Begriff - und oft ohne Sachkenntnis. Der Fachbereich Informationswissenschaften der Fachhochschule Potsdam hat sich dem Thema mit folgenden Fragen genähert: Was bedeutet die Digitale Transformation für die Informationswissenschaft? Wie sieht die Fachcommunity dies? Wie werden diese Überlegungen von der Öffentlichkeit wahrgenommen? Die Beiträge aus Deutschland, Österreich und der Schweiz vermitteln einen hervorragenden Einstieg in die Diskussion um die vorherrschenden Themen: Der elektronische Lesesaal, Soziale Netzwerke und Ethik, Digital Literacy, Agiles Lernen, Fake News bei Social Media, Digitale Transformation in der Verwaltung - Forderungen an Smart Cities, Open Innovation, Umbrüche in der Verwaltung und der Darstellung der Objekte in Museen u.a. Der Sammelband vermittelt einen Einblick in die Forderungen an die Zukunft und ihre Herausforderungen - nicht nur für Lehrende und Studierende, sondern für alle.
    Content
    Melanie Siegel: Von Informationswissenschaft zu Information Science - Mario Glauert: Quo vadis Lesesaal? Die digitale Transformation der Archivbenutzung - Stephan Holländer: Schweizer Bibliotheken und die digitale Transformation - Sara Matos, Sarah Portelinha, Charles-Antoine Chamay, Franck Topalian: Die Geisteswissenschaften und die Digitalisierung - Barbara Fischer: Die Kulturmanagerin von morgen. Gedanken zum Alltag eines Museumsmenschen im Jahr 2025 - Ursula Georgy: Möglichkeiten des Crowdsourcings in Bibliotheken durch Digitalisierung - Tobias Siebenlist, Agnes Mainka: Digitale Transformation in der Verwaltung: an Open Data geht kein Weg vorbei - Aylin Ilhan, Sarah Hartmann, Tuba Ciftci, Wolfgang G. Stock: Citizen Relationship Management in den USA und in Deutschland 311 - 115 ServiceApp -Cornelia Vonhof: Agiles Lernen - Filip Bak, Marlene Friedrich, Laura Lang, Antje Michel, Henning Prill, Romy Schreiber, Sophia Trinks, Franziska Witzig: Das Konzept der Digital Literacy und seine Relevanz für die Informationswissenschaften. Am Beispiel eines studentischen Projektkurses - Hermann Rösch: Soziale Netzwerke und Ethik: Problemdiagnose und Schlussfolgerungen - Franziska Zimmer, Katrin Scheibe, Lorenz Schmoly, Stefan Dreisiebner: Fake News im Zeitalter der Social Media
    Footnote
    Vgl. den Beitrag 'Wie sich die Informationswissenschaft in der digitalen Transformation behauptet: Zwei vielversprechende Ansätze, um sich immer wieder neu zu etablieren' von Willi Bredemeier unter: https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=748&wysijap=subscriptions&user_id=1045. Zweiter Teil als; 'Die Bibliotheken als Workspaces schlechthin' unter: https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=756&wysijap=subscriptions&user_id=1045. Dritter Teil als: 'Bürger und Kunden als Mitgestalter von Bibliotheken und Kommunalverwaltungen: "Privacy Paradox" und "Fake News" in Qualitätsmedien' unter: https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=769&wysijap=subscriptions&user_id=1045.
  17. Hartmann, E.; Haug, M.; Hespelein, H.; Rohleder, J.: World Wide Wunderbar? : Was das Internet wirklich kann? FOCUS unterzieht das World Wide Web einem Realitäts-Check (2000) 0.11
    0.10971667 = product of:
      0.43886667 = sum of:
        0.43886667 = weight(_text_:hartmann in 5887) [ClassicSimilarity], result of:
          0.43886667 = score(doc=5887,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.8798837 = fieldWeight in 5887, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.078125 = fieldNorm(doc=5887)
      0.25 = coord(1/4)
    
  18. Gödert, W.; Hartmann, S.; Hubrich, J.; Lepsky, K.; Schulenborg, K.; Trunk, D.: Semantische Anreicherung der Schlagwortnormdatei : Ergebnisbericht (2004) 0.11
    0.10702865 = product of:
      0.2140573 = sum of:
        0.038510635 = weight(_text_:und in 2815) [ClassicSimilarity], result of:
          0.038510635 = score(doc=2815,freq=16.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.2772374 = fieldWeight in 2815, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=2815)
        0.17554666 = weight(_text_:hartmann in 2815) [ClassicSimilarity], result of:
          0.17554666 = score(doc=2815,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.35195348 = fieldWeight in 2815, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.03125 = fieldNorm(doc=2815)
      0.5 = coord(2/4)
    
    Abstract
    Die Schlagwortnormdatei (SWD) ist mit einem Umfang von ca. 150.000 Sachschlagwörtern das umfangreichste terminologisch kontrollierte deutschsprachige Vokabular, das zur verbalen Inhaltserschließung von Dokumenten genutzt werden und somit prinzipiell auch als Kandidat für den Aufbau semantischer Navigationsstrukturen im Online-Retrieval angesehen werden kann. Die Strukturierung der Schlagwörter in der SWD folgt den Vorgaben zur Ausweisung begrifflicher Strukturen in einem Thesaurus. Durch Veränderungen des der Erstellung der SWD zu Grunde liegenden Regelwerkes RSWK hat sich im Verlauf der Zeit ein Nebeneinander von unterschiedlich dichten Beziehungsnetzen ergeben, ohne dass hierzu bislang Details erhoben und dokumentiert wären. In dieser Studie werden Aussagen über den Aufwand gemacht, der erforderlich wäre, die semantische Relationenstruktur der Schlagwortnormdatei (SWD) zu homogenisieren. Hierzu wird eine quantitative und qualitative Analyse am Beispiel mehrerer Themengebiete vorgenommen. Die Berücksichtigung mehrerer Gebiete soll es gestatten, möglichst repräsentative Aussagen für das gesamte Vokabular abzuleiten. Die Autorinnen und Autoren der Studien sind sich angesichts der zur Verfügung stehenden begrenzten Ressourcen bewusst, dass dieser Anspruch nur mit Einschränkungen eingelöst werden kann. Die für die Analyse der Relationenstruktur benutzten Kriterien orientieren sich an Grundsätzen zur Gestaltung strukturierten Vokabulars sowie insbesondere der Eignung der SWD, zum Aufbau bestandsunabhängiger semantischer Navigationssysteme im Online-Retrieval, für Zwecke des wörterbuchgestützten automatischen Indexierens.
    Mit diesem Kriterium lässt es sich nicht vermeiden, dass Relationen als fehlend charakterisiert werden, auch wenn sie vom Regelwerk nicht gefordert werden. Die Analysen berücksichtigen allerdings die Verzahnung der SWD zum Regelwerk RSWK insoweit, als in der Regel nur bereits vorhandene Schlagwörter betrachtet wurden und nicht auch Lücken analysiert wurden, die allein deswegen vorhandenen sind, weil Schlagwörter wegen nicht vorhandener Bücher (noch) nicht gebildet wurden. Die Funktion der SWD zur terminologischen Ansetzung von Schlagwörtern ist nicht Gegenstand der Studie. Der Bericht dokumentiert zusätzlich Inkonsistenzen, die während der Analysen ermittelt wurden. Ziel dieses Projekts ist es, die tatsächlich erreichte Situation der Relationenstruktur der SWD zu ermitteln sowie Vorschläge auszuarbeiten, an welchen Stellen eine Nachbearbeitung der Relationen erfolgen sollte und wie dies realisiert werden könnte. Bei dieser Analyse wird nicht differenziert zwischen Relationierungen, die vom Regelwerk RSWK gedeckt sind und Relationierungen, die allgemeinen Regeln zur Darstellung begrifflicher Strukturen entsprechen.
    Footnote
    Diese Studie wurde im Auftrag der Deutschen Bibliothek durchgeführt und nicht veröffentlicht.
  19. Cheswick, W.; Bellovin, S.M.; Gosling, J.; Ford, W.: Mauern, Täuschen, Bremsen : Schutzmaßnahmen (1999) 0.10
    0.103106126 = product of:
      0.4124245 = sum of:
        0.4124245 = weight(_text_:java in 1743) [ClassicSimilarity], result of:
          0.4124245 = score(doc=1743,freq=2.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            0.9343763 = fieldWeight in 1743, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=1743)
      0.25 = coord(1/4)
    
    Abstract
    Experten schildern die 3 wichtigsten Sicherheitsmechanismen gegen Angriffe aus dem Internet: Firewall - Java Sandkasten - Digitale Zertifikate
  20. Hanf, M.: HotETHICS : mit Java in die Bibliothek (1996) 0.10
    0.103106126 = product of:
      0.4124245 = sum of:
        0.4124245 = weight(_text_:java in 2137) [ClassicSimilarity], result of:
          0.4124245 = score(doc=2137,freq=2.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            0.9343763 = fieldWeight in 2137, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.09375 = fieldNorm(doc=2137)
      0.25 = coord(1/4)
    

Authors

Languages

  • e 32
  • m 3

Types

  • a 8492
  • m 1870
  • el 890
  • x 574
  • s 415
  • i 144
  • r 105
  • ? 60
  • b 39
  • n 38
  • l 23
  • p 21
  • h 16
  • d 15
  • u 14
  • fi 10
  • z 2
  • au 1
  • v 1
  • More… Less…

Themes

Subjects

Classifications