Search (13289 results, page 1 of 665)

  1. Otlet, P.: Traité de documentation : le livre sur le livre - théorie et pratique (1934) 0.16
    0.15718593 = product of:
      0.31437185 = sum of:
        0.04395049 = weight(_text_:und in 1680) [ClassicSimilarity], result of:
          0.04395049 = score(doc=1680,freq=4.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.34654674 = fieldWeight in 1680, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1680)
        0.27042136 = weight(_text_:handle in 1680) [ClassicSimilarity], result of:
          0.27042136 = score(doc=1680,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.72284126 = fieldWeight in 1680, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.078125 = fieldNorm(doc=1680)
      0.5 = coord(2/4)
    
    Content
    Digital (Kopie) unter: https://archive.ugent.be/handle/1854/5612.
    RSWK
    Information und Dokumentation / Methode (GBV)
    Subject
    Information und Dokumentation / Methode (GBV)
  2. Danowski, P.: Kontext Open Access : Creative Commons (2012) 0.13
    0.1296998 = product of:
      0.2593996 = sum of:
        0.04306251 = weight(_text_:und in 828) [ClassicSimilarity], result of:
          0.04306251 = score(doc=828,freq=6.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.33954507 = fieldWeight in 828, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=828)
        0.21633708 = weight(_text_:handle in 828) [ClassicSimilarity], result of:
          0.21633708 = score(doc=828,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.578273 = fieldWeight in 828, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0625 = fieldNorm(doc=828)
      0.5 = coord(2/4)
    
    Abstract
    Dieser Artikel soll die sechs verschiedenen Creative Commons Lizenzen erläu­tern und ihre Bedeutung im Rahmen des wissenschaftlichen Publizierens und des Open Access erklären (CC-BY, CC-BY-SA, CC-BY-NC, CC-BY-ND, CC-BYNC-SA, CC-BY-NC-ND).
    Content
    Vgl. auch unter: http://www.univie.ac.at/voeb/blog/?p=23606 bzw. http://eprints.rclis.org/handle/10760/17625.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 65(2012) H.2, S.200-212
  3. Heller, L.: Ergebnisse der Benutzerumfrage "Literaturverwaltung - Was ich benutze und was ich brauche", TIB/UB Hannover 2011 (2011) 0.13
    0.12574874 = product of:
      0.25149748 = sum of:
        0.035160393 = weight(_text_:und in 884) [ClassicSimilarity], result of:
          0.035160393 = score(doc=884,freq=4.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.2772374 = fieldWeight in 884, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=884)
        0.21633708 = weight(_text_:handle in 884) [ClassicSimilarity], result of:
          0.21633708 = score(doc=884,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.578273 = fieldWeight in 884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0625 = fieldNorm(doc=884)
      0.5 = coord(2/4)
    
    Footnote
    Vgl. auch: http://www.tib.uni-hannover.de/de/aktuelles/aktuell/newsdetail/article/citavi-endnote-zotero-und-co/62.html.
    Source
    http://eprints.rclis.org/handle/10760/16373#.Txa4lYHz6yD
  4. Dahlberg, W. (Bearb.): Klassifikation und Erkenntnis II : Proc. der Plenarvorträge und der Sektion 2 und 3 "Wissensdarstellung und Wissensvermittlung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979 (1979) 0.12
    0.12342582 = product of:
      0.24685164 = sum of:
        0.05755669 = weight(_text_:und in 809) [ClassicSimilarity], result of:
          0.05755669 = score(doc=809,freq=14.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.4538307 = fieldWeight in 809, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=809)
        0.18929495 = weight(_text_:handle in 809) [ClassicSimilarity], result of:
          0.18929495 = score(doc=809,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.5059889 = fieldWeight in 809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0546875 = fieldNorm(doc=809)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: SECHSER, O.: Modi der Bedeutung von Elementarausdrücken in Retrieval-Sprachen; BECHTEL, H.: Vorweggenommene Postkoordinierung zur Minderung des Problems der variablen Wortbedeutung in kontextfreien Dokumentationssprachen; MLITZKE, E.: Zur Klassifikation von Aussagen; SVENONIUS, E.: Facets as semantic categories; KAULA, P.N.: Canons in analytico-synthetic classification; HENZLER, R.G.: Modelle und Methoden der maschinellen Thesaurusentwicklung; RAHMSTORF, G.: Sprachlicher Ausdruck für spezifische Begriffe; HÖLZL, J.: Name und Benennung in der Warenklassifikation; VASARHELYI, P.: Implications of the INTERCONCEPT project for classification and indexing; KARLGREN, H.: How to handle vagueness; PETÖFI, J.S.: Explikationen in umgangssprachlichen und fachsprachlichen Wörterbüchern; BIVINS, K.: Frame searching and indexing languages
  5. Lassak, L.: ¬Ein Versuch zur Repräsentation von Charakteren der Kinder- und Jugendbuchserie "Die drei ???" in einer Datenbank (2017) 0.12
    0.12129104 = product of:
      0.24258208 = sum of:
        0.053287137 = weight(_text_:und in 2784) [ClassicSimilarity], result of:
          0.053287137 = score(doc=2784,freq=12.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.42016557 = fieldWeight in 2784, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2784)
        0.18929495 = weight(_text_:handle in 2784) [ClassicSimilarity], result of:
          0.18929495 = score(doc=2784,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.5059889 = fieldWeight in 2784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2784)
      0.5 = coord(2/4)
    
    Abstract
    Die vorliegende Masterarbeit setzt sich mit dem Information Retrieval anhand der Repräsentation von Charakteren der Kinder und Jugendbuchserie "Die drei ???" mit dem Datenbanksystem Access auseinander. Dabei werden sämtliche Aspekte von der Informations- und Datenbeschaffung aus 55 "Die drei ???"-Büchern über die Datenbankerstellung und -aufbereitung bis hin zu den abschließenden Evaluationen beschrieben. Insbesondere versucht die Arbeit die Nutzergruppe Autoren abzudecken, so dass die Datenbank ihnen eine erleichterte Figurenübersicht und eine Hilfestellung bei der Figurensuche geben soll.
    Content
    Vgl.: https://edoc.hu-berlin.de/handle/18452/19281.
    Imprint
    Berlin : Humboldt-Universität zu Berlin, Philosophische Fakultät, Institut für Bibliotheks- und Informationswissenschaft
  6. Karlgren, H.: How to handle vagueness (1979) 0.11
    0.113487326 = product of:
      0.22697465 = sum of:
        0.0376797 = weight(_text_:und in 83) [ClassicSimilarity], result of:
          0.0376797 = score(doc=83,freq=6.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.29710194 = fieldWeight in 83, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=83)
        0.18929495 = weight(_text_:handle in 83) [ClassicSimilarity], result of:
          0.18929495 = score(doc=83,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.5059889 = fieldWeight in 83, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0546875 = fieldNorm(doc=83)
      0.5 = coord(2/4)
    
    Source
    Klassifikation und Erkenntnis II. Proc. der Plenarvorträge und der Sektion 2 u. 3 "Wissensdarstellung und Wissensvermittlung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979
  7. Hartsch, A.: ¬Das Hybride als Normalität : digitaler Wandel und analoge Herkunftswelten (2016) 0.11
    0.113487326 = product of:
      0.22697465 = sum of:
        0.0376797 = weight(_text_:und in 552) [ClassicSimilarity], result of:
          0.0376797 = score(doc=552,freq=6.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.29710194 = fieldWeight in 552, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=552)
        0.18929495 = weight(_text_:handle in 552) [ClassicSimilarity], result of:
          0.18929495 = score(doc=552,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.5059889 = fieldWeight in 552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0546875 = fieldNorm(doc=552)
      0.5 = coord(2/4)
    
    Abstract
    Diskursanalytisch untersucht werden konzeptionelle Verunsicherungen bei der Medienausrichtung von Bibliotheken, die von einer unsteten, auf Durchsetzungserfolge bauenden Orientierung an unbewiesenem Gleichzeitigen oder Zukünftigen herzurühren scheinen. Dabei gerät Bewiesenes unter Begründungszwänge und Verdrängungsdruck. Paradigmatisch dafür wird der Satz ausgemacht: 'Das Neue ist das Gute', von dem eine Steigerungsform, nun unter gänzlichem Verzicht auf Qualitätsurteile existiert: 'Das Neue ist das Selbstverständliche'. Das wird hier hinterfragt mit transdisziplinärem Blick auf Diskussionsbeiträge hauptsächlich aus 2014 bis 2016. Herausgearbeitet wird ein informationswissenschaftliches Plädoyer für Mediensymbiosen aller Art, auf die das hybride Bibliotheksverständnis - in den Geisteswissenschaften zumal - selbstredend seit Jahrzehnten zu Recht aufsetzt und dessen Verstetigung dringend empfohlen wird.
    Content
    Vgl.: https://edoc.hu-berlin.de/bitstream/handle/18452/9756/hartsch.pdf?sequence=1&isAllowed=y. Beitrag in einerm Schwerpunkt "Post-Digital Humanities".
  8. Geist, K.: Qualität und Relevanz von bildungsbezogenen Suchergebnissen bei der Suche im Web (2012) 0.11
    0.10579355 = product of:
      0.2115871 = sum of:
        0.049334303 = weight(_text_:und in 1570) [ClassicSimilarity], result of:
          0.049334303 = score(doc=1570,freq=14.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.38899773 = fieldWeight in 1570, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1570)
        0.1622528 = weight(_text_:handle in 1570) [ClassicSimilarity], result of:
          0.1622528 = score(doc=1570,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.43370473 = fieldWeight in 1570, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.046875 = fieldNorm(doc=1570)
      0.5 = coord(2/4)
    
    Abstract
    Websuchmaschinen haben sich sowohl im privaten als auch im professionellen Bereich zu den bedeutsamsten Recherchewerkzeugen der Gegenwart entwickelt. Sie durchsuchen die Weiten des Internets, um verfügbare Dokumente zu erfassen und dem Benutzer auf Anfrage präsentieren zu können. Mit den gefundenen Dokumenten beabsichtigen sie vielfältige Informationsbedürfnisse zu befriedigen. Ihr Erfolg basiert zu einem großen Teil auf der Fähigkeit, relevante Dokumente zu spezifischen Suchanfragen zu liefern. Um verschiedene Systeme miteinander vergleichen zu können, werden daher häufig Relevanzevaluationen durchgeführt. Dieser Artikel beschreibt in Auszügen die Ergebnisse eines Retrievaltests, der Qualität und Relevanz informationsorientierter Suchanfragen zum Thema Bildung untersucht. Studentische Nutzer beurteilten dabei die Suchergebnisse von Google hinsichtlich ihrer Relevanz, Vertrauenswürdigkeit, Verständlichkeit und Aktualität. Die Untersuchung wurde im Rahmen mei­ner Magisterarbeit durchgeführt, die mit dem VFI-Förderungspreis 2011 ausgezeichnet wurde, und war eingebunden in ein Forschungsprojekt an der Universität Hildesheim zu bildungsbezogener Informationssuche im Internet (BISIBS). Ich bedanke mich herzlich bei allen, die an der Entstehung dieser Arbeit beteiligt waren und bei der Preis-Kommission für die Auszeichnung.
    Content
    Vgl. auch unter: http://www.univie.ac.at/voeb/blog/?p=23628 bzw. http://eprints.rclis.org/handle/10760/17623.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 65(2012) H.2, S.261-276
  9. Effenberger, C.: ¬Ein semantisches Netz für die Suche mit der Dewey-Dezimalklassifikation : optimiertes Retrieval durch die Verwendung versionierter DDC-Klassen (2011) 0.10
    0.10396375 = product of:
      0.2079275 = sum of:
        0.045674693 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
          0.045674693 = score(doc=1190,freq=12.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.36014193 = fieldWeight in 1190, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1190)
        0.1622528 = weight(_text_:handle in 1190) [ClassicSimilarity], result of:
          0.1622528 = score(doc=1190,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.43370473 = fieldWeight in 1190, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.046875 = fieldNorm(doc=1190)
      0.5 = coord(2/4)
    
    Abstract
    Die Dewey-Dezimalklassifikation (DDC) wird weltweit für die Erschließung von Bibliotheksbeständen eingesetzt. Um immer auf dem aktuellen wissenschaftlichen Stand zu sein, wird die DDC regelmäßig aktualisiert. Hierdurch kann es zu Begriffsverschiebungen kommen und die Erschließung ähnlicher Titel weicht voneinander ab, wird also heterogen, was zu inkorrekten Treffermengen bei der Suche nach DDC-erschlossenen Dokumenten führen kann. Eine mögliche Lösung des Problems ist, jeder Version einer DDC-Klasse einen eindeutigen Identifier zuzuordnen und so die Klasse eindeutig identifizieren zu können, mit der ein Titel verknüpft ist. Mit Hilfe von RDF kann aus Titeldaten, Schlagwörtern der Schlagwortnormdatei und den versionierten DDC-Klassen ein semantisches Netzwerk modelliert werden und durch entsprechende Anfragen können genauere Suchergebnisse, unabhängig von Änderungen in der DDC, generiert werden. Die Untersuchungen erfolgten im Rahmen eines Werkvertrages mit der Deutschen Nationalbibliothek und wurden in ausgearbeiteter Form als Masterthesis eingereicht.
    Footnote
    Vgl.: http://eprints.rclis.org/handle/10760/16249#.T8uhFFLt3XQ.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 64(2011) H.2, S.270-289
  10. Foerster, H. von: Short cuts (2002) 0.10
    0.09727484 = product of:
      0.19454968 = sum of:
        0.032296885 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.032296885 = score(doc=3413,freq=6.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.25465882 = fieldWeight in 3413, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3413)
        0.1622528 = weight(_text_:handle in 3413) [ClassicSimilarity], result of:
          0.1622528 = score(doc=3413,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.43370473 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.046875 = fieldNorm(doc=3413)
      0.5 = coord(2/4)
    
    Abstract
    "Handle stets so, daß die Anzahl der Wahlmöglichkeiten größer wird." In aller Weisheit, jedenfalls in der, die sich der Welt zuwendet, steckt ein gut Teil Gerissenheit. Das ist eine der Lektionen, die wir vom radikalen Konstruktivismus lernen können. Denn der Konstruktivist umschifft mit der Wendigkeit des Ganoven das Gesetz mittels der Gesetzeslücke und die Gesetzeslücke mittels des Gesetzes. Sein Credo ist: Was wir als Wirklichkeit wahrnehmen, ist unsere Erfindung. Als wäre er mit einem geheimnisvollen Detektor begabt, gelingt es Heinz von Foerster, wo immer die Welt mit Brettern vernagelt ist, eine jener paradoxen Lücken aufzufinden, die jede Ordnung immer wieder selbst erzeugt.
    Content
    Wie Sie wissen /Ich brauche vielleicht eine Minute Einführung in die natürliche Magie. Tonbandkorrespondenz mit Paul Schroeder Ethik und Kybernetik zweiter Ordnung. Vortrag Kybernetik der Kybernetik. Vortrag Meine eigene Geschichte ist anders verlaufen. Interview Zirkulare Kausalität. Die Anfänge einer Epistemologie der Verantwortung Wissenschaft des Unwißbaren Kompetenz und Verantwortung. Vortrag Warum sind Computer musikalisch? Interview Anmerkungen
  11. Chen, H.; Chung, Y.-M.; Ramsey, M.; Yang, C.C.: ¬A smart itsy bitsy spider for the Web (1998) 0.10
    0.095701195 = product of:
      0.38280478 = sum of:
        0.38280478 = weight(_text_:jav in 1871) [ClassicSimilarity], result of:
          0.38280478 = score(doc=1871,freq=2.0), product of:
            0.629479 = queryWeight, product of:
              11.008321 = idf(docFreq=1, maxDocs=44421)
              0.057182107 = queryNorm
            0.60812956 = fieldWeight in 1871, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              11.008321 = idf(docFreq=1, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1871)
      0.25 = coord(1/4)
    
    Abstract
    As part of the ongoing Illinois Digital Library Initiative project, this research proposes an intelligent agent approach to Web searching. In this experiment, we developed 2 Web personal spiders based on best first search and genetic algorithm techniques, respectively. These personal spiders can dynamically take a user's selected starting homepages and search for the most closely related homepages in the Web, based on the links and keyword indexing. A graphical, dynamic, Jav-based interface was developed and is available for Web access. A system architecture for implementing such an agent-spider is presented, followed by deteiled discussions of benchmark testing and user evaluation results. In benchmark testing, although the genetic algorithm spider did not outperform the best first search spider, we found both results to be comparable and complementary. In user evaluation, the genetic algorithm spider obtained significantly higher recall value than that of the best first search spider. However, their precision values were not statistically different. The mutation process introduced in genetic algorithms allows users to find other potential relevant homepages that cannot be explored via a conventional local search process. In addition, we found the Java-based interface to be a necessary component for design of a truly interactive and dynamic Web agent
  12. Vernetztes Wissen - Daten, Menschen, Systeme : 6. Konferenz der Zentralbibliothek Forschungszentrum Jülich. 5. - 7. November 2012 - Proceedingsband: WissKom 2012 (2012) 0.09
    0.09091361 = product of:
      0.18182722 = sum of:
        0.046616532 = weight(_text_:und in 1482) [ClassicSimilarity], result of:
          0.046616532 = score(doc=1482,freq=18.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.36756828 = fieldWeight in 1482, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1482)
        0.13521068 = weight(_text_:handle in 1482) [ClassicSimilarity], result of:
          0.13521068 = score(doc=1482,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.36142063 = fieldWeight in 1482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1482)
      0.5 = coord(2/4)
    
    Abstract
    Informations- und Wissensvermittlung verlagern sich immer stärker in die digitale Welt. Möglich wird dies nicht zuletzt durch die voranschreitende Durchdringung aller Lebensbereiche durch das Internet. Wissen wird mehr und mehr zu vernetztem Wissen. Die Jülicher Konferenz WissKom2012 thematisiert die Anpassung an diese Entwicklung und ihre Mitgestaltung durch innovative Bibliotheksdienstleistungen. Der Konferenztitel "Vernetztes Wissen: Daten, Menschen, Systeme" deutet die wechselseitige Vernetzung unter- und miteinander an. Ziel ist, vorhandene Insellösungen zu verbinden und neue Konzepte für inhärent vernetzte Strukturen zu entwickeln. Mit der WissKom2012 "Vernetztes Wissen - Daten, Menschen, Systeme" greift die Zentralbibliothek des Forschungszentrums Jülich erneut Themen im Spannungsfeld von "Bibliothek - Information - Wissenschaft" in einer Konferenz interdisziplinär auf und versucht, neue Handlungsfelder für Bibliotheken aufzuzeigen. Diese sechste Konferenz der Zentralbibliothek thematisiert den immer wichtiger werdenden Bereich der Forschungsdaten und den nachhaltigen Umgang mit ihnen. Sie zeigt auf, was Interdisziplinarität konkret bedeutet und wie bislang isolierte Systeme vernetzt werden können und so Mehrwert entsteht. Der Konferenzband enthält neben den Ausführungen der Referenten zudem die Beiträge der Poster Session sowie den Festvortrag von Prof. Viktor Mayer-Schönberger mit dem Titel "Delete: Die Tugend des Vergessens in digitalen Zeiten".
    Source
    http://juwel.fz-juelich.de:8080/dspace/handle/2128/4699
  13. Dekkers, M.: Dublin Core and the rights management issue (2000) 0.09
    0.090449706 = product of:
      0.18089941 = sum of:
        0.018646613 = weight(_text_:und in 5453) [ClassicSimilarity], result of:
          0.018646613 = score(doc=5453,freq=2.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.14702731 = fieldWeight in 5453, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5453)
        0.1622528 = weight(_text_:handle in 5453) [ClassicSimilarity], result of:
          0.1622528 = score(doc=5453,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.43370473 = fieldWeight in 5453, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.046875 = fieldNorm(doc=5453)
      0.5 = coord(2/4)
    
    Abstract
    Management of rights in electronic resources on the Internet is a complex issue. this can be considered almost universal knowledge, as paraphrases of this statement can be found in many discussions on this subject. This being the case, it is not surprising that a definition, operational solution to the problem has yet to be found. In one of the world's leading metadata initiatives, the Dublin Core Metadata Initiative, discussions on this topic over several years have failed to reach a conclusion. Some people think the issue is simply too complex to handle, others that the provision of simple shortcuts to more detailed information should be sufficient. It could be argued that a solution to the issue is in fact out of scope for the Dublin Core element set, in so far as it aims only to establish a core set of descriptive metadata for resource discovery
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.33-38
  14. Masanès, J.; Lupovici, C.: Preservation metadata : the NEDLIB's proposal Bibliothèque Nationale de France (2001) 0.09
    0.090449706 = product of:
      0.18089941 = sum of:
        0.018646613 = weight(_text_:und in 13) [ClassicSimilarity], result of:
          0.018646613 = score(doc=13,freq=2.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.14702731 = fieldWeight in 13, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=13)
        0.1622528 = weight(_text_:handle in 13) [ClassicSimilarity], result of:
          0.1622528 = score(doc=13,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.43370473 = fieldWeight in 13, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.046875 = fieldNorm(doc=13)
      0.5 = coord(2/4)
    
    Abstract
    Preservation of digital documents for the long term requires above all to solve the problem of technological obsolescence. Accessing to digital documents in 20 or loo years will be impossible if we, or our successor, can't process the bit stream underlying digital documents. We can be sure that the modality of data processing will be different in 20 or loo years. It is then our task to collect key information about today's data processing to ensure future access to these documents. In this paper we present the NEDLIB's proposal for a preservation metadata set. This set gathers core metadata that are mandatory for preservation management purposes. We propose to define 8 metadata elements and 38 sub-elements following the OAIS taxonomy of information object. A layered information analysis of the digital document is proposed in order to list all information involved in the data processing of the bit stream. These metadata elements are intended to be populate, as much as possible, in an automatic way to make it possible to handle large amounts of documents
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 48(2001) H.3/4, S.194-199
  15. Rogers, R.: Digital methods (2013) 0.09
    0.088917784 = product of:
      0.17783557 = sum of:
        0.024862152 = weight(_text_:und in 3354) [ClassicSimilarity], result of:
          0.024862152 = score(doc=3354,freq=8.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.19603643 = fieldWeight in 3354, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3354)
        0.15297341 = weight(_text_:handle in 3354) [ClassicSimilarity], result of:
          0.15297341 = score(doc=3354,freq=4.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.40890077 = fieldWeight in 3354, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.03125 = fieldNorm(doc=3354)
      0.5 = coord(2/4)
    
    Abstract
    In Digital Methods, Richard Rogers proposes a methodological outlook for social and cultural scholarly research on the Web that seeks to move Internet research beyond the study of online culture. It is not a toolkit for Internet research, or operating instructions for a software package; it deals with broader questions. How can we study social media to learn something about society rather than about social media use? How can hyperlinks reveal not just the value of a Web site but the politics of association? Rogers proposes repurposing Web-native techniques for research into cultural change and societal conditions. We can learn to reapply such "methods of the medium" as crawling and crowd sourcing, PageRank and similar algorithms, tag clouds and other visualizations; we can learn how they handle hits, likes, tags, date stamps, and other Web-native objects. By "thinking along" with devices and the objects they handle, digital research methods can follow the evolving methods of the medium. Rogers uses this new methodological outlook to examine the findings of inquiries into 9/11 search results, the recognition of climate change skeptics by climate-change-related Web sites, the events surrounding the Srebrenica massacre according to Dutch, Serbian, Bosnian, and Croatian Wikipedias, presidential candidates' social media "friends," and the censorship of the Iranian Web. With Digital Methods, Rogers introduces a new vision and method for Internet research and at the same time applies them to the Web's objects of study, from tiny particles (hyperlinks) to large masses (social media).
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    RSWK
    Informations- und Dokumentationswissenschaft / Internet / Methodologie
    Subject
    Informations- und Dokumentationswissenschaft / Internet / Methodologie
  16. Bach, N.: ¬Die nächste PID-Evolution : selbstsouverän, datenschutzfreundlich, dezentral (2021) 0.09
    0.08663646 = product of:
      0.17327292 = sum of:
        0.03806224 = weight(_text_:und in 1540) [ClassicSimilarity], result of:
          0.03806224 = score(doc=1540,freq=12.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.30011827 = fieldWeight in 1540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1540)
        0.13521068 = weight(_text_:handle in 1540) [ClassicSimilarity], result of:
          0.13521068 = score(doc=1540,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.36142063 = fieldWeight in 1540, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1540)
      0.5 = coord(2/4)
    
    Abstract
    Dieser Beitrag behandelt den zuletzt vom W3C hervorgebrachten Standard für dezentrale Identi­fikatoren (Decentralized Identifiers, kurz: DIDs) in Bezug auf den Bereich des Forschungsdatenmanagements. Es wird dargelegt, dass die aktuell im wissenschaftlichen Publikationswesen häufig verwendeten persistenten Identifikatorensysteme (Persistent Identifiers, PIDs) wie Handle, DOI, ORCID und ROR aufgrund ihrer Zentralisierung fundamentale Probleme hinsichtlich der Daten­sicherheit, dem Datenschutz und bei der Sicherstellung der Datenintegrität aufweisen. Dem werden als mögliche Lösung das System der DIDs gegenübergestellt: eine neuartige Form von weltweit eindeutigen Identifikatoren, die durch jedes Individuum oder jede Organisation selbst generiert und auf jeder als vertrauenswürdig erachteten Plattform betrieben werden können. Blockchains oder andere Distributed-Legder-Technologien können dabei als vertrauenswürdige Datenregister fungieren, aber auch direkte Peer-to-Peer-Verbindungen, auf bestehende Internetprotokolle aufsetzende Methoden oder statische DIDs sind möglich. Neben dem Schema wird die technische Spezifikation im Sinne von Datenmodell und die Anwendung von DIDs erläutert sowie im Vergleich die Unterschiede zu zentralisierten PID-Systemen herausgestellt. Zuletzt wird der Zusammenhang mit dem zugrundeliegenden neuen Paradigma einer dezentralen Identität, der Self-Sovereign Identity, hergestellt. SSI repräsentiert ein gesamtes Ökosystem, in dem Entitäten ein kryptografisch gesichertes Vertrauensnetzwerk auf der Basis von DIDs und digitalen Identitätsnachweisen bilden, um dezentral manipulationsgesichert und datenschutzgerecht identitätsbezogene Daten auszutauschen. Zum Schluss der Abhandlung stellt der Autor fünf zuvor herausgearbeitete Anforderungen in Bezug auf eine zeitgemäße Umsetzung von persistenten Identifikatoren vor.
  17. Keil, S.: Terminologie Mapping : Grundlagen und aktuelle Normungsvorhaben (2012) 0.08
    0.0849783 = product of:
      0.1699566 = sum of:
        0.034745913 = weight(_text_:und in 1029) [ClassicSimilarity], result of:
          0.034745913 = score(doc=1029,freq=10.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.27396923 = fieldWeight in 1029, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1029)
        0.13521068 = weight(_text_:handle in 1029) [ClassicSimilarity], result of:
          0.13521068 = score(doc=1029,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.36142063 = fieldWeight in 1029, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1029)
      0.5 = coord(2/4)
    
    Abstract
    Der Artikel basiert auf einer Bachelorarbeit mit dem Titel "Terminologie Mapping: Grundlagen und aktuelle Standardisierung", die im Sommersemester 2011 an der Hochschule Darmstadt geschrieben wurde. Er befasst sich mit den Grundlagen des Terminologie Mappings, also der Erstellung von Querverbindungen zwischen verschiedenen kontrollierten Vokabularen und der Standardisierung der Mapping-Verfahren. Die Grundlagen sollen anhand der Erkenntnisse aus Doerrs zentraler Publikation aus dem Jahre 2001 (Doerr 2001) dargestellt werden. Darauf folgt ein Blick in den Bereich der Standardisierung, der gerade in den letzten Jahren eine starke Entwicklung durchlaufen hat, was dazu führt, dass immer mehr aktualisierte nationale und internationale Standards herausgegeben werden, die Terminologie Mapping in verschiedener Weise als Mittel zur Erlangung von Interoperabilität empfehlen. Ebenso soll das "Simple Knowledge Organization System" (SKOS), ein Standard des W3Cs zur Repräsentation von kontrollierten Vokabularen, thematisiert werden. Dieser hat das Ziel, kontrollierte Vokabulare im Semantic Web darzustellen. Obwohl sich bei der Modellierung von klassischen kontrollierten Vokabularen (überwiegend Thesauri) in SKOS noch einige Probleme abzeichnen, stellt dieser Standard einen wichtigen Schritt für kontrollierte Vokabulare aus der Fachinformation in das Semantic Web dar. Abschließend soll ein Fazit zur Standardisierung gezogen werden sowie ein Ausblick auf die Möglichkeiten der Einbindung von Terminologie Mapping im Semantic Web via SKOS geben werden.
    Content
    Vgl.: http://www.degruyter.com/view/j/iwp.2012.63.issue-1/iwp-2012-0004/iwp-2012-0004.xml?format=INT. Auch unter: http://eprints.rclis.org/handle/10760/16716#.T18avnl4ofw.
    Source
    Information - Wissenschaft und Praxis. 63(2012) H.1, S.45-55
  18. DOI-Agentur für Deutschland, Schweiz und Österreich (2005) 0.08
    0.08389294 = product of:
      0.16778588 = sum of:
        0.059617348 = weight(_text_:und in 4976) [ClassicSimilarity], result of:
          0.059617348 = score(doc=4976,freq=46.0), product of:
            0.12682414 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.057182107 = queryNorm
            0.47007886 = fieldWeight in 4976, product of:
              6.78233 = tf(freq=46.0), with freq of:
                46.0 = termFreq=46.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=4976)
        0.10816854 = weight(_text_:handle in 4976) [ClassicSimilarity], result of:
          0.10816854 = score(doc=4976,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.2891365 = fieldWeight in 4976, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.03125 = fieldNorm(doc=4976)
      0.5 = coord(2/4)
    
    Content
    "Die Heidelberger Agentur und Verlag digilibri und die europäische DOI Registrierungsagentur mEDRA wollen gemeinsam den Zugriff auf multimediale Dokumente im Internet verbessern und gleichzeitig das intellektuelle Eigentum von Autoren, Fotografen und Künstlern schützen. In einer neuen Partnerschaft vermarktet digilibri künftig das Ordnungssystem "Digital Object Identifier" (DOI®) im deutschsprachigen Raum. DOI® erlaubt eine eindeutige und permanente Identifikation digitaler Objekte im Internet. Mit dem System versuchen Verlage und Informationsanbieter seit geraumer Zeit, das Internet so aufzuräumen, dass Urheberrechte besser verwaltet werden können und nicht mehr aktive Internet-Adressen, sogenannte "tote Links", den Zugriff behindern. digilibri will nach Auskunft seines Gründers Arnoud de Kemp einen besseren Schutz der Originalität und Authentizität von digitalen Objekten im Sinne der Autoren und Erzeuger erreichen und die erste Adresse für DOI in Deutschland, in der Schweiz und in Österreich werden. digilibri ist Pionier bei der Entwicklung von Metadaten und Vergabe von DOIs für Bildmaterial, insbesondere Fotos. Die Datenbank kann alle digitale Medienformen (Text, Audio, Video etc.) verarbeiten und wird zur Frankfurter Buchmesse 2005 der Öffentlichkeitvorgestellt. mEDRA® ist als mehrsprachige europäische DOI Registrierungsagentur aus dem ContentProgramm der Europäischen Kommission (EC) hervorgegangen. Inhaber sind die Associazione Italiana Editore (AIE) und das Universitätskonsortium CINECA in Bologna. digilibri wird der Lizenz-, Marketing und Dienstleistungspartner für Verlage, Online- und Nachrichtendienste, sowie Verwertungsgesellschaften, aber auch für Fotografen, Illustratoren, Autoren, Herausgeber, Gesellschaften, Bibliotheken, Galerien, Antiquariate in Deutschland, in der Schweiz und Österreich, die ihre Arbeiten im Internet permanent erreichbar anbieten wollen. Durch die Anwendung der DOIs können Werke jeglicher Art aufgefunden, verlinkt und referenziert werden. mEDRA liefert die technische Unterstützung und pflegt das DOI-System. Mit dem DOI wurde ein System (Handle®) geschaffen, das Objekte unabhängig von ihrem Speicherort identifiziert. Es ist den Systemen von ISBN und ISSN damit ähnlich, geht durch seine integrierte Lokalisierungsfunktion weit darüber hinaus. DOIs werden in einer zentralen Datenbank gespeichert. Bei der Adressierung eines Dokumentes über den DOI erfolgt eine Weiterleitung zu der Adresse, auf der das Objekt aktuell verfügbar ist. Das könnte auch das Langzeitarchiv der Nationalbibliothek sein. Die Syntax des DOI wird von World-Wide-Web-Browsern verstanden und ist NISO Standard. Über 17 Millionen DOIs sind bereits weltweit registriert worden, hauptsächlich für wissenschaftliche Publikationen."
    Source
    Information - Wissenschaft und Praxis. 56(2005) H.5/6, S.276-277
  19. Miller, C.C.: Google alters search to handle more complex queries (2013) 0.08
    0.081967115 = product of:
      0.32786846 = sum of:
        0.32786846 = weight(_text_:handle in 3519) [ClassicSimilarity], result of:
          0.32786846 = score(doc=3519,freq=6.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.87639844 = fieldWeight in 3519, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0546875 = fieldNorm(doc=3519)
      0.25 = coord(1/4)
    
    Abstract
    Google on Thursday announced one of the biggest changes to its search engine, a rewriting of its algorithm to handle more complex queries that affects 90 percent of all searches. The change, which represents a new approach to search for Google, required the biggest changes to the company's search algorithm since 2000. Now, Google, the world's most popular search engine, will focus more on trying to understand the meanings of and relationships among things, as opposed to its original strategy of matching keywords.
    Source
    http://bits.blogs.nytimes.com/2013/09/26/google-changes-search-to-handle-more-complex-queries/?ref=technology&_r=0
  20. Lavin, M.R.: Improving the quality of business reference servcies (1995) 0.08
    0.0811264 = product of:
      0.3245056 = sum of:
        0.3245056 = weight(_text_:handle in 2682) [ClassicSimilarity], result of:
          0.3245056 = score(doc=2682,freq=2.0), product of:
            0.3741089 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.057182107 = queryNorm
            0.86740947 = fieldWeight in 2682, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.09375 = fieldNorm(doc=2682)
      0.25 = coord(1/4)
    
    Abstract
    Business reference queries are almost always complex. To handle them well, the librarian must spend considerable time with each patron

Authors

Languages

Types

  • a 9430
  • m 2229
  • el 1018
  • x 595
  • s 557
  • i 168
  • r 117
  • ? 66
  • n 55
  • b 47
  • l 23
  • p 23
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications