Search (13335 results, page 1 of 667)

  1. Judge, A.J.N.: Representation of sets : the role of number (1979) 0.29
    0.28957066 = product of:
      0.5791413 = sum of:
        0.50688696 = weight(_text_:judge in 73) [ClassicSimilarity], result of:
          0.50688696 = score(doc=73,freq=2.0), product of:
            0.49451476 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.06396372 = queryNorm
            1.0250188 = fieldWeight in 73, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.09375 = fieldNorm(doc=73)
        0.07225438 = weight(_text_:und in 73) [ClassicSimilarity], result of:
          0.07225438 = score(doc=73,freq=6.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.50931764 = fieldWeight in 73, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.09375 = fieldNorm(doc=73)
      0.5 = coord(2/4)
    
    Source
    Klassifikation und Erkenntnis I. Proc. der Plenarvorträge und der Sektion 1 "Klassifikation und Wissensgewinnung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979
  2. Rügenhagen, M.; Beck, T.S.; Sartorius, E.J.: Information integrity in the era of Fake News : an experiment using library guidelines to judge information integrity (2020) 0.18
    0.18286766 = product of:
      0.36573532 = sum of:
        0.3379246 = weight(_text_:judge in 1114) [ClassicSimilarity], result of:
          0.3379246 = score(doc=1114,freq=2.0), product of:
            0.49451476 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.06396372 = queryNorm
            0.68334585 = fieldWeight in 1114, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.0625 = fieldNorm(doc=1114)
        0.027810723 = weight(_text_:und in 1114) [ClassicSimilarity], result of:
          0.027810723 = score(doc=1114,freq=2.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.19603643 = fieldWeight in 1114, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=1114)
      0.5 = coord(2/4)
    
    Source
    Bibliothek: Forschung und Praxis. 44(2020) H.1, S.34-53
  3. Dahlberg, I. (Bearb.): Klassifikation und Erkenntnis I : Proc. der Plenarvorträge und der Sektion 1 "Klassifikation und Wissensgewinnung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979 (1979) 0.18
    0.17764543 = product of:
      0.35529086 = sum of:
        0.29568404 = weight(_text_:judge in 749) [ClassicSimilarity], result of:
          0.29568404 = score(doc=749,freq=2.0), product of:
            0.49451476 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.06396372 = queryNorm
            0.59792763 = fieldWeight in 749, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.0546875 = fieldNorm(doc=749)
        0.05960682 = weight(_text_:und in 749) [ClassicSimilarity], result of:
          0.05960682 = score(doc=749,freq=12.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.42016557 = fieldWeight in 749, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=749)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: SCHEELE, M. Der Mensch als Voraussetzung und als Ziel der Klassifikationsforschung; JUDGE, A.J.N.: Representation of sets: the role of number; DAHLBERG, W.: Zur Geometrie der Grundbegriffe; MERTENS, P.: Die Theorie der Mustererkennung in den Wirtschaftswissenschaften; HANSERT, E.: Statistik als Methodik zur Konstruktion von Wissen; SCHWENDTKE; A.: Wissenschaftssystematik und Scientometrologie; HENRICHS, N.: Gegenstandstheoretische Grundlagen der Bibliotheksklassifikation?; FUGMANN, R. u. J.H. WINTER: Durch mechanisierte Klassifikation zum Analogieschluss; GREITER, F., G. GUTTMANN, E. OESER: Die Rolle der Klassifikation bei der Entwicklung und Bewertung neuer Produkte
  4. Otlet, P.: Traité de documentation : le livre sur le livre - théorie et pratique (1934) 0.18
    0.17582768 = product of:
      0.35165536 = sum of:
        0.04916288 = weight(_text_:und in 1680) [ClassicSimilarity], result of:
          0.04916288 = score(doc=1680,freq=4.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.34654674 = fieldWeight in 1680, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=1680)
        0.30249247 = weight(_text_:handle in 1680) [ClassicSimilarity], result of:
          0.30249247 = score(doc=1680,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.72284126 = fieldWeight in 1680, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.078125 = fieldNorm(doc=1680)
      0.5 = coord(2/4)
    
    Content
    Digital (Kopie) unter: https://archive.ugent.be/handle/1854/5612.
    RSWK
    Information und Dokumentation / Methode (GBV)
    Subject
    Information und Dokumentation / Methode (GBV)
  5. Danowski, P.: Kontext Open Access : Creative Commons (2012) 0.15
    0.14508177 = product of:
      0.29016355 = sum of:
        0.048169587 = weight(_text_:und in 828) [ClassicSimilarity], result of:
          0.048169587 = score(doc=828,freq=6.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.33954507 = fieldWeight in 828, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=828)
        0.24199396 = weight(_text_:handle in 828) [ClassicSimilarity], result of:
          0.24199396 = score(doc=828,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.578273 = fieldWeight in 828, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0625 = fieldNorm(doc=828)
      0.5 = coord(2/4)
    
    Abstract
    Dieser Artikel soll die sechs verschiedenen Creative Commons Lizenzen erläu­tern und ihre Bedeutung im Rahmen des wissenschaftlichen Publizierens und des Open Access erklären (CC-BY, CC-BY-SA, CC-BY-NC, CC-BY-ND, CC-BYNC-SA, CC-BY-NC-ND).
    Content
    Vgl. auch unter: http://www.univie.ac.at/voeb/blog/?p=23606 bzw. http://eprints.rclis.org/handle/10760/17625.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 65(2012) H.2, S.200-212
  6. Heller, L.: Ergebnisse der Benutzerumfrage "Literaturverwaltung - Was ich benutze und was ich brauche", TIB/UB Hannover 2011 (2011) 0.14
    0.14066213 = product of:
      0.28132427 = sum of:
        0.039330304 = weight(_text_:und in 884) [ClassicSimilarity], result of:
          0.039330304 = score(doc=884,freq=4.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.2772374 = fieldWeight in 884, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=884)
        0.24199396 = weight(_text_:handle in 884) [ClassicSimilarity], result of:
          0.24199396 = score(doc=884,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.578273 = fieldWeight in 884, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0625 = fieldNorm(doc=884)
      0.5 = coord(2/4)
    
    Footnote
    Vgl. auch: http://www.tib.uni-hannover.de/de/aktuelles/aktuell/newsdetail/article/citavi-endnote-zotero-und-co/62.html.
    Source
    http://eprints.rclis.org/handle/10760/16373#.Txa4lYHz6yD
  7. Dahlberg, W. (Bearb.): Klassifikation und Erkenntnis II : Proc. der Plenarvorträge und der Sektion 2 und 3 "Wissensdarstellung und Wissensvermittlung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979 (1979) 0.14
    0.13806373 = product of:
      0.27612746 = sum of:
        0.064382724 = weight(_text_:und in 809) [ClassicSimilarity], result of:
          0.064382724 = score(doc=809,freq=14.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.4538307 = fieldWeight in 809, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=809)
        0.21174473 = weight(_text_:handle in 809) [ClassicSimilarity], result of:
          0.21174473 = score(doc=809,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.5059889 = fieldWeight in 809, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0546875 = fieldNorm(doc=809)
      0.5 = coord(2/4)
    
    Content
    Enthält die Beiträge: SECHSER, O.: Modi der Bedeutung von Elementarausdrücken in Retrieval-Sprachen; BECHTEL, H.: Vorweggenommene Postkoordinierung zur Minderung des Problems der variablen Wortbedeutung in kontextfreien Dokumentationssprachen; MLITZKE, E.: Zur Klassifikation von Aussagen; SVENONIUS, E.: Facets as semantic categories; KAULA, P.N.: Canons in analytico-synthetic classification; HENZLER, R.G.: Modelle und Methoden der maschinellen Thesaurusentwicklung; RAHMSTORF, G.: Sprachlicher Ausdruck für spezifische Begriffe; HÖLZL, J.: Name und Benennung in der Warenklassifikation; VASARHELYI, P.: Implications of the INTERCONCEPT project for classification and indexing; KARLGREN, H.: How to handle vagueness; PETÖFI, J.S.: Explikationen in umgangssprachlichen und fachsprachlichen Wörterbüchern; BIVINS, K.: Frame searching and indexing languages
  8. Lassak, L.: ¬Ein Versuch zur Repräsentation von Charakteren der Kinder- und Jugendbuchserie "Die drei ???" in einer Datenbank (2017) 0.14
    0.13567577 = product of:
      0.27135155 = sum of:
        0.05960682 = weight(_text_:und in 2784) [ClassicSimilarity], result of:
          0.05960682 = score(doc=2784,freq=12.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.42016557 = fieldWeight in 2784, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2784)
        0.21174473 = weight(_text_:handle in 2784) [ClassicSimilarity], result of:
          0.21174473 = score(doc=2784,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.5059889 = fieldWeight in 2784, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0546875 = fieldNorm(doc=2784)
      0.5 = coord(2/4)
    
    Abstract
    Die vorliegende Masterarbeit setzt sich mit dem Information Retrieval anhand der Repräsentation von Charakteren der Kinder und Jugendbuchserie "Die drei ???" mit dem Datenbanksystem Access auseinander. Dabei werden sämtliche Aspekte von der Informations- und Datenbeschaffung aus 55 "Die drei ???"-Büchern über die Datenbankerstellung und -aufbereitung bis hin zu den abschließenden Evaluationen beschrieben. Insbesondere versucht die Arbeit die Nutzergruppe Autoren abzudecken, so dass die Datenbank ihnen eine erleichterte Figurenübersicht und eine Hilfestellung bei der Figurensuche geben soll.
    Content
    Vgl.: https://edoc.hu-berlin.de/handle/18452/19281.
    Imprint
    Berlin : Humboldt-Universität zu Berlin, Philosophische Fakultät, Institut für Bibliotheks- und Informationswissenschaft
  9. Karlgren, H.: How to handle vagueness (1979) 0.13
    0.12694655 = product of:
      0.2538931 = sum of:
        0.04214839 = weight(_text_:und in 83) [ClassicSimilarity], result of:
          0.04214839 = score(doc=83,freq=6.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.29710194 = fieldWeight in 83, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=83)
        0.21174473 = weight(_text_:handle in 83) [ClassicSimilarity], result of:
          0.21174473 = score(doc=83,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.5059889 = fieldWeight in 83, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0546875 = fieldNorm(doc=83)
      0.5 = coord(2/4)
    
    Source
    Klassifikation und Erkenntnis II. Proc. der Plenarvorträge und der Sektion 2 u. 3 "Wissensdarstellung und Wissensvermittlung" der 3. Fachtagung der Gesellschaft für Klassifikation, Königstein/Ts., 5.-6.4.1979
  10. Hartsch, A.: ¬Das Hybride als Normalität : digitaler Wandel und analoge Herkunftswelten (2016) 0.13
    0.12694655 = product of:
      0.2538931 = sum of:
        0.04214839 = weight(_text_:und in 552) [ClassicSimilarity], result of:
          0.04214839 = score(doc=552,freq=6.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.29710194 = fieldWeight in 552, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=552)
        0.21174473 = weight(_text_:handle in 552) [ClassicSimilarity], result of:
          0.21174473 = score(doc=552,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.5059889 = fieldWeight in 552, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0546875 = fieldNorm(doc=552)
      0.5 = coord(2/4)
    
    Abstract
    Diskursanalytisch untersucht werden konzeptionelle Verunsicherungen bei der Medienausrichtung von Bibliotheken, die von einer unsteten, auf Durchsetzungserfolge bauenden Orientierung an unbewiesenem Gleichzeitigen oder Zukünftigen herzurühren scheinen. Dabei gerät Bewiesenes unter Begründungszwänge und Verdrängungsdruck. Paradigmatisch dafür wird der Satz ausgemacht: 'Das Neue ist das Gute', von dem eine Steigerungsform, nun unter gänzlichem Verzicht auf Qualitätsurteile existiert: 'Das Neue ist das Selbstverständliche'. Das wird hier hinterfragt mit transdisziplinärem Blick auf Diskussionsbeiträge hauptsächlich aus 2014 bis 2016. Herausgearbeitet wird ein informationswissenschaftliches Plädoyer für Mediensymbiosen aller Art, auf die das hybride Bibliotheksverständnis - in den Geisteswissenschaften zumal - selbstredend seit Jahrzehnten zu Recht aufsetzt und dessen Verstetigung dringend empfohlen wird.
    Content
    Vgl.: https://edoc.hu-berlin.de/bitstream/handle/18452/9756/hartsch.pdf?sequence=1&isAllowed=y. Beitrag in einerm Schwerpunkt "Post-Digital Humanities".
  11. Fountain, J.F.: Headings for children's materials : an LCSH/Sears companion (1993) 0.13
    0.12672174 = product of:
      0.50688696 = sum of:
        0.50688696 = weight(_text_:judge in 4324) [ClassicSimilarity], result of:
          0.50688696 = score(doc=4324,freq=2.0), product of:
            0.49451476 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.06396372 = queryNorm
            1.0250188 = fieldWeight in 4324, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.09375 = fieldNorm(doc=4324)
      0.25 = coord(1/4)
    
    Footnote
    Rez. in: Public library quarterly 15(1996) no.1, S.65-66 (A.L. Judge)
  12. Geist, K.: Qualität und Relevanz von bildungsbezogenen Suchergebnissen bei der Suche im Web (2012) 0.12
    0.11834033 = product of:
      0.23668066 = sum of:
        0.05518519 = weight(_text_:und in 1570) [ClassicSimilarity], result of:
          0.05518519 = score(doc=1570,freq=14.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.38899773 = fieldWeight in 1570, product of:
              3.7416575 = tf(freq=14.0), with freq of:
                14.0 = termFreq=14.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1570)
        0.18149547 = weight(_text_:handle in 1570) [ClassicSimilarity], result of:
          0.18149547 = score(doc=1570,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.43370473 = fieldWeight in 1570, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.046875 = fieldNorm(doc=1570)
      0.5 = coord(2/4)
    
    Abstract
    Websuchmaschinen haben sich sowohl im privaten als auch im professionellen Bereich zu den bedeutsamsten Recherchewerkzeugen der Gegenwart entwickelt. Sie durchsuchen die Weiten des Internets, um verfügbare Dokumente zu erfassen und dem Benutzer auf Anfrage präsentieren zu können. Mit den gefundenen Dokumenten beabsichtigen sie vielfältige Informationsbedürfnisse zu befriedigen. Ihr Erfolg basiert zu einem großen Teil auf der Fähigkeit, relevante Dokumente zu spezifischen Suchanfragen zu liefern. Um verschiedene Systeme miteinander vergleichen zu können, werden daher häufig Relevanzevaluationen durchgeführt. Dieser Artikel beschreibt in Auszügen die Ergebnisse eines Retrievaltests, der Qualität und Relevanz informationsorientierter Suchanfragen zum Thema Bildung untersucht. Studentische Nutzer beurteilten dabei die Suchergebnisse von Google hinsichtlich ihrer Relevanz, Vertrauenswürdigkeit, Verständlichkeit und Aktualität. Die Untersuchung wurde im Rahmen mei­ner Magisterarbeit durchgeführt, die mit dem VFI-Förderungspreis 2011 ausgezeichnet wurde, und war eingebunden in ein Forschungsprojekt an der Universität Hildesheim zu bildungsbezogener Informationssuche im Internet (BISIBS). Ich bedanke mich herzlich bei allen, die an der Entstehung dieser Arbeit beteiligt waren und bei der Preis-Kommission für die Auszeichnung.
    Content
    Vgl. auch unter: http://www.univie.ac.at/voeb/blog/?p=23628 bzw. http://eprints.rclis.org/handle/10760/17623.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 65(2012) H.2, S.261-276
  13. Effenberger, C.: ¬Ein semantisches Netz für die Suche mit der Dewey-Dezimalklassifikation : optimiertes Retrieval durch die Verwendung versionierter DDC-Klassen (2011) 0.12
    0.11629352 = product of:
      0.23258704 = sum of:
        0.051091563 = weight(_text_:und in 1190) [ClassicSimilarity], result of:
          0.051091563 = score(doc=1190,freq=12.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.36014193 = fieldWeight in 1190, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1190)
        0.18149547 = weight(_text_:handle in 1190) [ClassicSimilarity], result of:
          0.18149547 = score(doc=1190,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.43370473 = fieldWeight in 1190, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.046875 = fieldNorm(doc=1190)
      0.5 = coord(2/4)
    
    Abstract
    Die Dewey-Dezimalklassifikation (DDC) wird weltweit für die Erschließung von Bibliotheksbeständen eingesetzt. Um immer auf dem aktuellen wissenschaftlichen Stand zu sein, wird die DDC regelmäßig aktualisiert. Hierdurch kann es zu Begriffsverschiebungen kommen und die Erschließung ähnlicher Titel weicht voneinander ab, wird also heterogen, was zu inkorrekten Treffermengen bei der Suche nach DDC-erschlossenen Dokumenten führen kann. Eine mögliche Lösung des Problems ist, jeder Version einer DDC-Klasse einen eindeutigen Identifier zuzuordnen und so die Klasse eindeutig identifizieren zu können, mit der ein Titel verknüpft ist. Mit Hilfe von RDF kann aus Titeldaten, Schlagwörtern der Schlagwortnormdatei und den versionierten DDC-Klassen ein semantisches Netzwerk modelliert werden und durch entsprechende Anfragen können genauere Suchergebnisse, unabhängig von Änderungen in der DDC, generiert werden. Die Untersuchungen erfolgten im Rahmen eines Werkvertrages mit der Deutschen Nationalbibliothek und wurden in ausgearbeiteter Form als Masterthesis eingereicht.
    Footnote
    Vgl.: http://eprints.rclis.org/handle/10760/16249#.T8uhFFLt3XQ.
    Source
    Mitteilungen der Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare. 64(2011) H.2, S.270-289
  14. Auer, S.; Oelen, A.; Haris, A.M.; Stocker, M.; D'Souza, J.; Farfar, K.E.; Vogt, L.; Prinz, M.; Wiens, V.; Jaradeh, M.Y.: Improving access to scientific literature with knowledge graphs : an experiment using library guidelines to judge information integrity (2020) 0.11
    0.11429229 = product of:
      0.22858457 = sum of:
        0.21120287 = weight(_text_:judge in 1317) [ClassicSimilarity], result of:
          0.21120287 = score(doc=1317,freq=2.0), product of:
            0.49451476 = queryWeight, product of:
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.06396372 = queryNorm
            0.42709115 = fieldWeight in 1317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.731176 = idf(docFreq=52, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1317)
        0.017381702 = weight(_text_:und in 1317) [ClassicSimilarity], result of:
          0.017381702 = score(doc=1317,freq=2.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.12252277 = fieldWeight in 1317, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1317)
      0.5 = coord(2/4)
    
    Source
    Bibliothek: Forschung und Praxis. 44(2020) H.3, S.516-529
  15. Foerster, H. von: Short cuts (2002) 0.11
    0.108811334 = product of:
      0.21762267 = sum of:
        0.03612719 = weight(_text_:und in 3413) [ClassicSimilarity], result of:
          0.03612719 = score(doc=3413,freq=6.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.25465882 = fieldWeight in 3413, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3413)
        0.18149547 = weight(_text_:handle in 3413) [ClassicSimilarity], result of:
          0.18149547 = score(doc=3413,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.43370473 = fieldWeight in 3413, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.046875 = fieldNorm(doc=3413)
      0.5 = coord(2/4)
    
    Abstract
    "Handle stets so, daß die Anzahl der Wahlmöglichkeiten größer wird." In aller Weisheit, jedenfalls in der, die sich der Welt zuwendet, steckt ein gut Teil Gerissenheit. Das ist eine der Lektionen, die wir vom radikalen Konstruktivismus lernen können. Denn der Konstruktivist umschifft mit der Wendigkeit des Ganoven das Gesetz mittels der Gesetzeslücke und die Gesetzeslücke mittels des Gesetzes. Sein Credo ist: Was wir als Wirklichkeit wahrnehmen, ist unsere Erfindung. Als wäre er mit einem geheimnisvollen Detektor begabt, gelingt es Heinz von Foerster, wo immer die Welt mit Brettern vernagelt ist, eine jener paradoxen Lücken aufzufinden, die jede Ordnung immer wieder selbst erzeugt.
    Content
    Wie Sie wissen /Ich brauche vielleicht eine Minute Einführung in die natürliche Magie. Tonbandkorrespondenz mit Paul Schroeder Ethik und Kybernetik zweiter Ordnung. Vortrag Kybernetik der Kybernetik. Vortrag Meine eigene Geschichte ist anders verlaufen. Interview Zirkulare Kausalität. Die Anfänge einer Epistemologie der Verantwortung Wissenschaft des Unwißbaren Kompetenz und Verantwortung. Vortrag Warum sind Computer musikalisch? Interview Anmerkungen
  16. Vernetztes Wissen - Daten, Menschen, Systeme : 6. Konferenz der Zentralbibliothek Forschungszentrum Jülich. 5. - 7. November 2012 - Proceedingsband: WissKom 2012 (2012) 0.10
    0.10169567 = product of:
      0.20339134 = sum of:
        0.0521451 = weight(_text_:und in 1482) [ClassicSimilarity], result of:
          0.0521451 = score(doc=1482,freq=18.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.36756828 = fieldWeight in 1482, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1482)
        0.15124623 = weight(_text_:handle in 1482) [ClassicSimilarity], result of:
          0.15124623 = score(doc=1482,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.36142063 = fieldWeight in 1482, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1482)
      0.5 = coord(2/4)
    
    Abstract
    Informations- und Wissensvermittlung verlagern sich immer stärker in die digitale Welt. Möglich wird dies nicht zuletzt durch die voranschreitende Durchdringung aller Lebensbereiche durch das Internet. Wissen wird mehr und mehr zu vernetztem Wissen. Die Jülicher Konferenz WissKom2012 thematisiert die Anpassung an diese Entwicklung und ihre Mitgestaltung durch innovative Bibliotheksdienstleistungen. Der Konferenztitel "Vernetztes Wissen: Daten, Menschen, Systeme" deutet die wechselseitige Vernetzung unter- und miteinander an. Ziel ist, vorhandene Insellösungen zu verbinden und neue Konzepte für inhärent vernetzte Strukturen zu entwickeln. Mit der WissKom2012 "Vernetztes Wissen - Daten, Menschen, Systeme" greift die Zentralbibliothek des Forschungszentrums Jülich erneut Themen im Spannungsfeld von "Bibliothek - Information - Wissenschaft" in einer Konferenz interdisziplinär auf und versucht, neue Handlungsfelder für Bibliotheken aufzuzeigen. Diese sechste Konferenz der Zentralbibliothek thematisiert den immer wichtiger werdenden Bereich der Forschungsdaten und den nachhaltigen Umgang mit ihnen. Sie zeigt auf, was Interdisziplinarität konkret bedeutet und wie bislang isolierte Systeme vernetzt werden können und so Mehrwert entsteht. Der Konferenzband enthält neben den Ausführungen der Referenten zudem die Beiträge der Poster Session sowie den Festvortrag von Prof. Viktor Mayer-Schönberger mit dem Titel "Delete: Die Tugend des Vergessens in digitalen Zeiten".
    Source
    http://juwel.fz-juelich.de:8080/dspace/handle/2128/4699
  17. Dekkers, M.: Dublin Core and the rights management issue (2000) 0.10
    0.10117675 = product of:
      0.2023535 = sum of:
        0.02085804 = weight(_text_:und in 5453) [ClassicSimilarity], result of:
          0.02085804 = score(doc=5453,freq=2.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.14702731 = fieldWeight in 5453, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=5453)
        0.18149547 = weight(_text_:handle in 5453) [ClassicSimilarity], result of:
          0.18149547 = score(doc=5453,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.43370473 = fieldWeight in 5453, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.046875 = fieldNorm(doc=5453)
      0.5 = coord(2/4)
    
    Abstract
    Management of rights in electronic resources on the Internet is a complex issue. this can be considered almost universal knowledge, as paraphrases of this statement can be found in many discussions on this subject. This being the case, it is not surprising that a definition, operational solution to the problem has yet to be found. In one of the world's leading metadata initiatives, the Dublin Core Metadata Initiative, discussions on this topic over several years have failed to reach a conclusion. Some people think the issue is simply too complex to handle, others that the provision of simple shortcuts to more detailed information should be sufficient. It could be argued that a solution to the issue is in fact out of scope for the Dublin Core element set, in so far as it aims only to establish a core set of descriptive metadata for resource discovery
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 47(2000) H.1, S.33-38
  18. Masanès, J.; Lupovici, C.: Preservation metadata : the NEDLIB's proposal Bibliothèque Nationale de France (2001) 0.10
    0.10117675 = product of:
      0.2023535 = sum of:
        0.02085804 = weight(_text_:und in 13) [ClassicSimilarity], result of:
          0.02085804 = score(doc=13,freq=2.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.14702731 = fieldWeight in 13, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=13)
        0.18149547 = weight(_text_:handle in 13) [ClassicSimilarity], result of:
          0.18149547 = score(doc=13,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.43370473 = fieldWeight in 13, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.046875 = fieldNorm(doc=13)
      0.5 = coord(2/4)
    
    Abstract
    Preservation of digital documents for the long term requires above all to solve the problem of technological obsolescence. Accessing to digital documents in 20 or loo years will be impossible if we, or our successor, can't process the bit stream underlying digital documents. We can be sure that the modality of data processing will be different in 20 or loo years. It is then our task to collect key information about today's data processing to ensure future access to these documents. In this paper we present the NEDLIB's proposal for a preservation metadata set. This set gathers core metadata that are mandatory for preservation management purposes. We propose to define 8 metadata elements and 38 sub-elements following the OAIS taxonomy of information object. A layered information analysis of the digital document is proposed in order to list all information involved in the data processing of the bit stream. These metadata elements are intended to be populate, as much as possible, in an automatic way to make it possible to handle large amounts of documents
    Source
    Zeitschrift für Bibliothekswesen und Bibliographie. 48(2001) H.3/4, S.194-199
  19. Rogers, R.: Digital methods (2013) 0.10
    0.09946315 = product of:
      0.1989263 = sum of:
        0.027810723 = weight(_text_:und in 3354) [ClassicSimilarity], result of:
          0.027810723 = score(doc=3354,freq=8.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.19603643 = fieldWeight in 3354, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=3354)
        0.17111558 = weight(_text_:handle in 3354) [ClassicSimilarity], result of:
          0.17111558 = score(doc=3354,freq=4.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.40890077 = fieldWeight in 3354, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.03125 = fieldNorm(doc=3354)
      0.5 = coord(2/4)
    
    Abstract
    In Digital Methods, Richard Rogers proposes a methodological outlook for social and cultural scholarly research on the Web that seeks to move Internet research beyond the study of online culture. It is not a toolkit for Internet research, or operating instructions for a software package; it deals with broader questions. How can we study social media to learn something about society rather than about social media use? How can hyperlinks reveal not just the value of a Web site but the politics of association? Rogers proposes repurposing Web-native techniques for research into cultural change and societal conditions. We can learn to reapply such "methods of the medium" as crawling and crowd sourcing, PageRank and similar algorithms, tag clouds and other visualizations; we can learn how they handle hits, likes, tags, date stamps, and other Web-native objects. By "thinking along" with devices and the objects they handle, digital research methods can follow the evolving methods of the medium. Rogers uses this new methodological outlook to examine the findings of inquiries into 9/11 search results, the recognition of climate change skeptics by climate-change-related Web sites, the events surrounding the Srebrenica massacre according to Dutch, Serbian, Bosnian, and Croatian Wikipedias, presidential candidates' social media "friends," and the censorship of the Iranian Web. With Digital Methods, Rogers introduces a new vision and method for Internet research and at the same time applies them to the Web's objects of study, from tiny particles (hyperlinks) to large masses (social media).
    BK
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    Classification
    54.08 Informatik in Beziehung zu Mensch und Gesellschaft
    RSWK
    Informations- und Dokumentationswissenschaft / Internet / Methodologie
    Subject
    Informations- und Dokumentationswissenschaft / Internet / Methodologie
  20. Bach, N.: ¬Die nächste PID-Evolution : selbstsouverän, datenschutzfreundlich, dezentral (2021) 0.10
    0.09691127 = product of:
      0.19382253 = sum of:
        0.0425763 = weight(_text_:und in 1540) [ClassicSimilarity], result of:
          0.0425763 = score(doc=1540,freq=12.0), product of:
            0.14186507 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.06396372 = queryNorm
            0.30011827 = fieldWeight in 1540, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1540)
        0.15124623 = weight(_text_:handle in 1540) [ClassicSimilarity], result of:
          0.15124623 = score(doc=1540,freq=2.0), product of:
            0.41847703 = queryWeight, product of:
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.06396372 = queryNorm
            0.36142063 = fieldWeight in 1540, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              6.5424123 = idf(docFreq=173, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1540)
      0.5 = coord(2/4)
    
    Abstract
    Dieser Beitrag behandelt den zuletzt vom W3C hervorgebrachten Standard für dezentrale Identi­fikatoren (Decentralized Identifiers, kurz: DIDs) in Bezug auf den Bereich des Forschungsdatenmanagements. Es wird dargelegt, dass die aktuell im wissenschaftlichen Publikationswesen häufig verwendeten persistenten Identifikatorensysteme (Persistent Identifiers, PIDs) wie Handle, DOI, ORCID und ROR aufgrund ihrer Zentralisierung fundamentale Probleme hinsichtlich der Daten­sicherheit, dem Datenschutz und bei der Sicherstellung der Datenintegrität aufweisen. Dem werden als mögliche Lösung das System der DIDs gegenübergestellt: eine neuartige Form von weltweit eindeutigen Identifikatoren, die durch jedes Individuum oder jede Organisation selbst generiert und auf jeder als vertrauenswürdig erachteten Plattform betrieben werden können. Blockchains oder andere Distributed-Legder-Technologien können dabei als vertrauenswürdige Datenregister fungieren, aber auch direkte Peer-to-Peer-Verbindungen, auf bestehende Internetprotokolle aufsetzende Methoden oder statische DIDs sind möglich. Neben dem Schema wird die technische Spezifikation im Sinne von Datenmodell und die Anwendung von DIDs erläutert sowie im Vergleich die Unterschiede zu zentralisierten PID-Systemen herausgestellt. Zuletzt wird der Zusammenhang mit dem zugrundeliegenden neuen Paradigma einer dezentralen Identität, der Self-Sovereign Identity, hergestellt. SSI repräsentiert ein gesamtes Ökosystem, in dem Entitäten ein kryptografisch gesichertes Vertrauensnetzwerk auf der Basis von DIDs und digitalen Identitätsnachweisen bilden, um dezentral manipulationsgesichert und datenschutzgerecht identitätsbezogene Daten auszutauschen. Zum Schluss der Abhandlung stellt der Autor fünf zuvor herausgearbeitete Anforderungen in Bezug auf eine zeitgemäße Umsetzung von persistenten Identifikatoren vor.

Authors

Languages

Types

  • a 9474
  • m 2230
  • el 1019
  • x 595
  • s 557
  • i 168
  • r 118
  • ? 66
  • n 55
  • b 47
  • p 24
  • l 23
  • h 17
  • d 15
  • u 14
  • fi 10
  • v 2
  • z 2
  • au 1
  • ms 1
  • More… Less…

Themes

Subjects

Classifications