Search (1880 results, page 1 of 94)

  • × year_i:[2010 TO 2020}
  1. Beyer, H.: ¬Die Bibliothek Hartmann Schedels : Sammelleidenschaft und Statusbewusstsein im spätmittelalterlichen Nürnberg (2012) 0.26
    0.2569248 = product of:
      0.5138496 = sum of:
        0.05776595 = weight(_text_:und in 3453) [ClassicSimilarity], result of:
          0.05776595 = score(doc=3453,freq=16.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.41585606 = fieldWeight in 3453, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3453)
        0.45608366 = weight(_text_:hartmann in 3453) [ClassicSimilarity], result of:
          0.45608366 = score(doc=3453,freq=6.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.914402 = fieldWeight in 3453, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=3453)
      0.5 = coord(2/4)
    
    Abstract
    Der Aufsatz untersucht die von dem Nürnberger Arzt und Humanisten Hartmann Schedel zusammengebrachte Bibliothek in Hinblick auf ihre Größe, Zusammensetzung, Aufstellung und Buchgestaltung und geht der Frage nach, welche Werte und Zielsetzungen für diese größte humanistischen Privatbibliothek nördlich der Alpen maßgeblich waren. Dabei wird auch Schedels literarisches Opus, das ebenfalls den Charakter von Sammlungen hat, herangezogen. Trotz eines namhaften Bestandes an medizinischer Literatur ist die Schedelsche Bibliothek nur unzureichend als Gelehrtenbibliothek charakterisiert. Sie diente zunächst der Befriedigung der notorischen Sammelleidenschaft ihres Besitzers, die Schedel selbst in humorvoller Weise vor sich hertrug, und die sich besonders auf neuere lateinische Literatur aus Italien sowie italienische und deutsche Geschichtsdenkmäler richtete. Darüber hinaus lässt sich zeigen, dass Hartmann Schedel seine Bibliothek als ein Statussymbol der Familie Schedel konzipiert hat, das die drei Kriterien für die Zugehörigkeit zur Nürnberger Ehrbarkeit reflektiert, nämlich akademische Bildung, Verwandtschaft mit Patrizierfamilien und materiellen Wohlstand. Der Aufsatz setzt sich am Schluss kritisch mit der Auffassung auseinander, die überlieferte Sachordnung der Schedelschen Kataloge sei der bewusste Neuentwurf einer humanistischen Wissenschaftssystematik.
  2. Barth, J.; Fietkiewicz, K.J.; Gremm, J.; Hartmann, S.; Henkel, M.; Ilhan, A.; Mainka, A.; Meschede, C.; Peters, I.; Stock, W.G.: Informationswissenschaft in der Urbanistik : Teil 1: Konzeptioneller Forschungsrahmen und Methoden (2017) 0.25
    0.2489119 = product of:
      0.4978238 = sum of:
        0.058957126 = weight(_text_:und in 4730) [ClassicSimilarity], result of:
          0.058957126 = score(doc=4730,freq=6.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.42443132 = fieldWeight in 4730, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=4730)
        0.43886667 = weight(_text_:hartmann in 4730) [ClassicSimilarity], result of:
          0.43886667 = score(doc=4730,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.8798837 = fieldWeight in 4730, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.078125 = fieldNorm(doc=4730)
      0.5 = coord(2/4)
    
    Footnote
    Teil eines Themenheftes: Themenheft: Düsseldorfer und Grazer Informationswissenschaft / Gastherausgeber: Wolfgang G. Stock, Christian Schlögl.
    Source
    Information - Wissenschaft und Praxis. 68(2017) H.5/6, S.365-377
  3. Barth, J.; Fietkiewicz, K.J.; Gremm, J.; Hartmann, S.; Henkel, M.; Ilhan, A.; Mainka, A.; Meschede, C.; Peters, I.; Stock, W.G.: Informationswissenschaft in der Urbanistik : Teil 2: Erste empirische Ergebnisse zu smarten Städten (2018) 0.24
    0.24350248 = product of:
      0.48700497 = sum of:
        0.048138294 = weight(_text_:und in 20) [ClassicSimilarity], result of:
          0.048138294 = score(doc=20,freq=4.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.34654674 = fieldWeight in 20, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.078125 = fieldNorm(doc=20)
        0.43886667 = weight(_text_:hartmann in 20) [ClassicSimilarity], result of:
          0.43886667 = score(doc=20,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.8798837 = fieldWeight in 20, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.078125 = fieldNorm(doc=20)
      0.5 = coord(2/4)
    
    Footnote
    Teil eines Themenheftes: Themenheft: Düsseldorfer und Grazer Informationswissenschaft / Gastherausgeber: Wolfgang G. Stock, Christian Schlögl.
    Source
    Information - Wissenschaft und Praxis. 69(2018) H.1, S.31-46
  4. Helbig, K.; Biernacka, K.; Buchholz, P.; Dolzycka, D.; Hartmann, N.; Hartmann, T.; Hiemenz, B.M.; Jacob, B.; Kuberek, M.; Weiß, N.; Dreyer, M.: Lösungen und Leitfäden für das institutionelle Forschungsdatenmanagement (2019) 0.22
    0.21683037 = product of:
      0.43366075 = sum of:
        0.06127004 = weight(_text_:und in 595) [ClassicSimilarity], result of:
          0.06127004 = score(doc=595,freq=18.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.44108194 = fieldWeight in 595, product of:
              4.2426405 = tf(freq=18.0), with freq of:
                18.0 = termFreq=18.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=595)
        0.37239072 = weight(_text_:hartmann in 595) [ClassicSimilarity], result of:
          0.37239072 = score(doc=595,freq=4.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.74660605 = fieldWeight in 595, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=595)
      0.5 = coord(2/4)
    
    Abstract
    Hochschulen und deren Zentraleinrichtungen beschäftigen sich zunehmend mit dem Thema Forschungsdatenmanagement (FDM), um ihre Forschenden adäquat zu unterstützen. Nicht zuletzt aufgrund neuer Verlags- und Förderanforderungen wünschen sich Forschende Beratung und Orientierung, wie sie mit ihren Forschungsdaten umgehen sollen. Damit Hochschulen schnell und nachhaltig Lösungen zum institutionellen FDM etablieren können, haben fünf Berliner und Brandenburger Universitäten im gemeinsamen Verbundvorhaben FDMentor mit Förderung des Bundesministeriums für Bildung und Forschung (BMBF) entsprechende Leitfäden und Werkzeuge erarbeitet. Die innerhalb von zwei Jahren (2017-2019) entstandenen Ergebnisse in den Bereichen Strategieentwicklung, Forschungsdaten-Policy, rechtliche Aspekte und Kompetenzausbau finden über das Verbundprojekt hinaus ihre Anwendung.
  5. Hartmann, S.; Haffner, A.: Linked-RDA-Data in der Praxis (2010) 0.20
    0.1991295 = product of:
      0.398259 = sum of:
        0.047165703 = weight(_text_:und in 2679) [ClassicSimilarity], result of:
          0.047165703 = score(doc=2679,freq=6.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.33954507 = fieldWeight in 2679, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2679)
        0.35109332 = weight(_text_:hartmann in 2679) [ClassicSimilarity], result of:
          0.35109332 = score(doc=2679,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.70390695 = fieldWeight in 2679, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0625 = fieldNorm(doc=2679)
      0.5 = coord(2/4)
    
    Abstract
    Durch den neuen Erschließungsstandard "Resource Description and Access" (RDA) lassen sich bibliografische Daten sowie Normdaten Semantic-Web-konform repräsentieren. Der Vortrag soll aufzeigen, welche Auswirkungen RDA auf die Katalogisierung in Bibliotheken und den Zugang zu den erschlossenen Ressourcen im Semantic Web hat. Anhand erster Erfahrungen aus praktischen Umsetzungen wird erläutert, wie bibliografische Daten durch RDA und Linked-Data-Technologien besser zugänglich gemacht und vor allem nachgenutzt werden können.
  6. Hartmann, F.: Paul Otlets Hypermedium : Dokumentation als Gegenidee zur Bibliothek (2015) 0.20
    0.1991295 = product of:
      0.398259 = sum of:
        0.047165703 = weight(_text_:und in 2432) [ClassicSimilarity], result of:
          0.047165703 = score(doc=2432,freq=6.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.33954507 = fieldWeight in 2432, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0625 = fieldNorm(doc=2432)
        0.35109332 = weight(_text_:hartmann in 2432) [ClassicSimilarity], result of:
          0.35109332 = score(doc=2432,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.70390695 = fieldWeight in 2432, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0625 = fieldNorm(doc=2432)
      0.5 = coord(2/4)
    
    Abstract
    Schon zur Wende ins 20. Jahrhundert zweifelte der belgische Privatgelehrte Paul Otlet an der Zukunft des Buches und der Bibliothek. Statt dessen begann er damit, eine Dokumentation und Neuorganisation des Weltwissens anzulegen, und mittels eines Karteikartensystems (Répertoire Bibliographique Universel) zu vernetzen. Dieses Projekt eines flexiblen, abfrageorientierten Wissensbestandes in einem 'Hypermedium' (Otlet) besetzte jene technologische Leerstelle, die inzwischen eine die bibliothekarische Epoche aufsprengende neue Wissenskultur der digitalen Medialität produziert hat.
  7. Vom Buch zur Datenbank : Paul Otlets Utopie der Wissensvisualisierung (2012) 0.18
    0.17923194 = product of:
      0.35846388 = sum of:
        0.048138294 = weight(_text_:und in 4074) [ClassicSimilarity], result of:
          0.048138294 = score(doc=4074,freq=16.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.34654674 = fieldWeight in 4074, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4074)
        0.3103256 = weight(_text_:hartmann in 4074) [ClassicSimilarity], result of:
          0.3103256 = score(doc=4074,freq=4.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.6221717 = fieldWeight in 4074, product of:
              2.0 = tf(freq=4.0), with freq of:
                4.0 = termFreq=4.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4074)
      0.5 = coord(2/4)
    
    Abstract
    Gegen Ende des 19. Jahrhunderts geriet das Dokumentationswesen in eine Krise: wie lässt sich das kulturelle Wissen nachhaltiger organisieren? Paul Otlet (1868-1944), ein belgischer Industriellenerbe und studierter Rechtsanwalt, entwickelte zusammen mit Henri La Fontaine ab 1895 ein Ordnungs- und Klassifikationssystem, das das millionenfach publizierte "Weltwissen" dokumentieren sollte. Otlets Anspruch war die Schaffung eines "Instrument d'ubiquité", das zur "Hyper-Intelligence" führen sollte. Jahrzehnte vor Web und Wikis weisen diese Ideen auf eine globale Vernetzung des Wissens hin. Der vorliegende Titel erinnert an den Pionier Paul Otlet mit einer ausführlichen Einleitung von Frank Hartmann (Bauhaus-Universität Weimar), Beiträgen von W. Boyd Rayward (University of Illinois), Charles van den Heuvel (Königlich Niederländische Akademie der Wissenschaften) und Wouter Van Acker (Universität Gent).
    BK
    06.01 Geschichte des Informations- und Dokumentationswesens
    Classification
    06.01 Geschichte des Informations- und Dokumentationswesens
    Editor
    Hartmann, F.
    RSWK
    Otlet, Paul / Wissensorganisation / Klassifikation / Information und Dokumentation / Geschichte 1895-1944 / Aufsatzsammlung
    Subject
    Otlet, Paul / Wissensorganisation / Klassifikation / Information und Dokumentation / Geschichte 1895-1944 / Aufsatzsammlung
  8. Hartmann, M.: Soziale Medien, Raum und Zeit (2017) 0.16
    0.16395214 = product of:
      0.32790428 = sum of:
        0.06458429 = weight(_text_:und in 4736) [ClassicSimilarity], result of:
          0.06458429 = score(doc=4736,freq=20.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.4649412 = fieldWeight in 4736, product of:
              4.472136 = tf(freq=20.0), with freq of:
                20.0 = termFreq=20.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=4736)
        0.26332 = weight(_text_:hartmann in 4736) [ClassicSimilarity], result of:
          0.26332 = score(doc=4736,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.5279302 = fieldWeight in 4736, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=4736)
      0.5 = coord(2/4)
    
    Abstract
    Das Verhältnis von Raum und Zeit beschäftigt die Sozialwissenschaften schon seit ihrer Entstehung. Während die Auseinandersetzung mit dem Thema in den letzten Jahren weiter in den Vordergrund gerückt ist, hat die Kommunikations- und Medienwissenschaft es bis jetzt nur bedingt für sich entdeckt. Umgekehrt haben die Soziologie und die Humangeografie das Verhältnis von Raum und Zeit als zentral thematisiert, nicht aber die Rolle der digitalen Medien darin. Soziale Medien bringen neue Charakteristika und Nutzungsweisen mit sich, welche Raum und Zeit noch einmal neu in Szene setzen. Dieser Beitrag hat zwei Ziele: Erstens sollen einige der zentralen Debatten zur Frage von Raum und Zeit (und auch Medien) zusammengefasst, zweitens sollen diese anhand konkreter Bespiele aus dem Bereich der sozialen Medien auf ihre Aktualität hin diskutiert werden. Zur Rahmung dienen dabei drei Modi von Raum-Zeit-Bezügen: das Ephemere, das Stabile und das Situative.
  9. Weigert, M.: Erkunden statt suchen : HORIZOBU (2011) 0.16
    0.15685162 = product of:
      0.31370324 = sum of:
        0.047654476 = weight(_text_:und in 442) [ClassicSimilarity], result of:
          0.047654476 = score(doc=442,freq=32.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.34306374 = fieldWeight in 442, product of:
              5.656854 = tf(freq=32.0), with freq of:
                32.0 = termFreq=32.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.02734375 = fieldNorm(doc=442)
        0.26604876 = weight(_text_:hartmann in 442) [ClassicSimilarity], result of:
          0.26604876 = score(doc=442,freq=6.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.53340113 = fieldWeight in 442, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.02734375 = fieldNorm(doc=442)
      0.5 = coord(2/4)
    
    Abstract
    Das Schweizer Startup horizobu hat eine Suchmaschine lanciert, die sich vor allem für tiefergehende Recherchen eignen und bei der Erkundung von Themengebieten helfen soll.
    Content
    "In Deutschland werden über 90 Prozent aller Suchen über Google abgewickelt. In der Schweiz sieht es ähnlich aus. Und während in den USA mit der Microsoft-Suchmaschine Bing immerhin ein ernstzunehmender Konkurrent existiert, liegt Googles Marktanteil auch dort bei immerhin knapp 65 Prozent. Und trotz oder gerade wegen dieser eindeutigen Dominanz eines Unternehmens gibt es immer mal wieder Versuche, alternative Suchwerkzeuge zu etablieren. Manchmal - wie im Falle von Cuil - geht dies ordentlich daneben. Und ab und an lässt sich so zumindest ein kleiner Achtungserfolg erzielen, wie Blekko es bewiesen hat. horizobu heißt ein neuer Protagonist im Bereich der alternativen Suchmaschinen, der heute im Beta-Stadium sein Onlinedebüt feiert. Das Startup aus Zürich versucht bereits in der Eigendefinition, Vergleiche mit Google zu vermeiden, in dem es sich explizit nicht als Suchmaschine sondern als "Exploration Engine" bezeichnet. Im Vordergrund steht bei horizobu demnach nicht das Finden von Gesuchtem, sondern das Erkunden von Websites und Kontext zu einem bestimmten Thema.
    Wer bei horizobu, das in einer englischsprachigen und einer deutschsprachigen Version (für die Schweiz) angeboten wird, nach einem bestimmten Begriff sucht, dem präsentiert der Dienst lediglich sechs möglichst relevante Ergebnisse in voneinander separierten Boxen. Einzelne dieser Boxen lassen sich löschen, wodurch ein weiteres Suchergebnis ans Tageslicht befördert wird. Mit einem Klick auf "More" wechselt man alle sechs Resultate aus. Gefällige Resultate lassen sich per Drag-And-Drop in der rechten Spalte ablegen und für später aufbewahren. Um seinem Entdeckeranspruch gerecht zu werden, listet horizobu oberhalb der Suchergebnisse zehn mit dem jeweiligen Suchwort verwandte Begriffe, die beliebig kombinierbar zur Verfeinerung und Erweiterung der bisherigen Suche verwendet werden können. Inspiriert durch die Vorschläge haben User auch die Möglichkeit, weitere Begriffe zur Eingrenzung hinzufügen. "Die Intelligenz aus Social Software führt teilweise zu überraschenden Fundstücken, die bislang mit herkömmlichen Suchmaschinen kaum erschlossen wurden", so Werner Hartmann, Titularprofessor der ETH Zürich und einer der zwei Gründer von horizobu. Nachdem Nutzer mit den Resultaten ihrer Recherche zufrieden sind und diese womöglich mit der Bookmarking-Funktion gespeichert haben, kann die so entstandene Linksammlung direkt über einen eindeutigen Link weiterversendet werden (das sieht z.B. so aus). Diese Funktion ist zwar nicht revolutionär, aber simpel, intuitiv und erfordert wenige Klicks.
    horizobu richtet sich laut Mitgründer Werner Hartmann vor allem an Personen, die zu einem Thema eine vertiefende Recherche durchführen wollen, also Journalisten, Wissenschaftler, Geschäftsleute oder Studenten. Für das Kinoprogramm von heute Abend oder die nächste Zugverbindung gebe es hingegen geeignetere Dienste. Hartmann und sein Kompagnon Sam Zürcher haben die Entwicklung von horizobu aus eigenen Mittel finanziert und bezeichnen es in seiner jetzigen Form als "Garagenprojekt". In der nächsten Phase wollen sie versuchen, interessierte Geldgeber zu finden, die so die Professionalisierung der Idee - also erweiterte Suchfunktionen, bessere Performance, länderspezifische Varianten usw. - unterstützen. Die Monetarisierung soll sowohl durch eine Werbevermarktung als auch eine Lizensierung der zugrundeliegenden Technologie realisiert werden. Allerdings wollen die zwei Jungunternehmer erst sehen, ob sich ihr Projekt am Markt etablieren kann. Diese Haltung ist nachvollziehbar. Denn angesichts der festen Verankerung von Google im Bewusstsein nahezu aller Internetnutzer erfordert es von jedem Anwender den bewussten Entschluss, zur Abwechslung über horizobu, Blekko, DuckDuckGo oder einen anderen Anbieter zu suchen. Und wenn dies dann nicht auf Anhieb perfekt funktioniert, ist die Wahrscheinlichkeit gering, dass sich User erneut dort blicken lassen. Die Marktchancen für horizobu stehen also eher ungünstig. Andererseits ziehe ich den Hut vor Gründern, die sich an das schwierige, weil stark von einem Anbieter dominierte Thema Suche heranwagen. Und als Nutzer kann man nur dann die Qualität einer Suchmaschine objektiv beurteilen, wenn das Vergleichen möglich ist. Allein das ist eine Daseinsberechtigung für alternative Ansätze."
  10. Hartmann, K.: Fachspezifische Vermittlung von Informationskompetenz an Biologen : Überlegungen zu zukünftigen Aufgaben von Zeitungssammlungen und -abteilungen in Bibliotheken vor dem Hintergrund der Entwicklung des Mediums (2013) 0.16
    0.15667339 = product of:
      0.31334677 = sum of:
        0.05002678 = weight(_text_:und in 3458) [ClassicSimilarity], result of:
          0.05002678 = score(doc=3458,freq=12.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.36014193 = fieldWeight in 3458, product of:
              3.4641016 = tf(freq=12.0), with freq of:
                12.0 = termFreq=12.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=3458)
        0.26332 = weight(_text_:hartmann in 3458) [ClassicSimilarity], result of:
          0.26332 = score(doc=3458,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.5279302 = fieldWeight in 3458, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=3458)
      0.5 = coord(2/4)
    
    Abstract
    Die Vermittlung von Informationskompetenz ist an vielen Hochschulbibliotheken etabliert. Dabei existieren sowohl fachübergreifende als auch fachspezifische Vermittlungskonzepte. Dieser Artikel leistet einen Beitrag zur fachspezifischen Vermittlung von Informationskompetenz an Biologen. Hierfür wurden mittels einer Umfrage die aktuellen Angebote der deutschen Hochschulbibliotheken im Fach Biologie und ihre Verankerung im Fachbereich ermittelt. Der Schwerpunkt in der Vermittlung von Informationskompetenz liegt auf den Studienanfängern. Anhaltspunkte zur Identifizierung der für die Zielgruppe der Graduierten wesentlichen Themengebiete und ihrer Recherchestrategien im Bereich Informationskompetenz liefern bereits vorhandene fachübergreifende Umfragen. Bislang waren die Biowissenschaften hierbei allerdings unterrepräsentiert. Deswegen erfolgte im Rahmen dieser Arbeit eine Befragung von Masterstudierenden und Promovierenden im Fach Biologie. Die Ergebnisse werden mit den in der Literatur verfügbaren Umfrageergebnissen verglichen, mit den aktuellen Papieren zur Informationskompetenz sowie den fachspezifischen Besonderheiten zusammengeführt und diskutiert. Zudem werden Anhaltspunkte und Ziele für die zukünftige Vermittlung von fachspezifischer Informationskompetenz an Biologen formuliert.
  11. Hartmann, S.; Pampel, H.: GND und ORCID : Brückenschlag zwischen zwei Systemen zur Autorenidentifikation (2017) 0.15
    0.154494 = product of:
      0.308988 = sum of:
        0.045667995 = weight(_text_:und in 115) [ClassicSimilarity], result of:
          0.045667995 = score(doc=115,freq=10.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.3287631 = fieldWeight in 115, product of:
              3.1622777 = tf(freq=10.0), with freq of:
                10.0 = termFreq=10.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=115)
        0.26332 = weight(_text_:hartmann in 115) [ClassicSimilarity], result of:
          0.26332 = score(doc=115,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.5279302 = fieldWeight in 115, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=115)
      0.5 = coord(2/4)
    
    Abstract
    Die Uneindeutigkeit von Personennamen erschwert im Rahmen der bibliothekarischen Erschließung die eindeutige Zuordnung von Autorinnen und Autoren zu ihren Werken. Bibliotheken im deutschsprachigen Raum adressieren das Problem der Mehrdeutigkeit von Namen durch den Einsatz der Gemeinsamen Normdatei (GND). Die internationale Initiative ORCID (Open Researcher and Contributor ID) verfolgt das gleiche Ziel. Akteur ist hier jedoch die einzelne Wissenschaftlerin oder der einzelne Wissenschaftler. Das Projekt "ORCID DE - Förderung der Open Researcher and Contributor ID in Deutschland" hat sich, dank der Förderung der Deutschen Forschungsgemeinschaft (DFG), unter anderem zum Ziel gesetzt, einen Brückenschlag zwischen den beiden Systemen - GND und ORCID - zu schaffen, um damit die Datenqualität beider Systeme wechselseitig zu erhöhen. Der vorliegende Beitrag gibt einen Überblick über ORCID und das Projekt ORCID DE. Dabei wird insbesondere auf die angestrebte Verlinkung von GND und ORCID eingegangen.
  12. Hartmann, B.: Ab ins MoMA : zum virtuellen Museumsgang (2011) 0.15
    0.15208335 = product of:
      0.3041667 = sum of:
        0.040846694 = weight(_text_:und in 2821) [ClassicSimilarity], result of:
          0.040846694 = score(doc=2821,freq=8.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.29405463 = fieldWeight in 2821, product of:
              2.828427 = tf(freq=8.0), with freq of:
                8.0 = termFreq=8.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=2821)
        0.26332 = weight(_text_:hartmann in 2821) [ClassicSimilarity], result of:
          0.26332 = score(doc=2821,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.5279302 = fieldWeight in 2821, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.046875 = fieldNorm(doc=2821)
      0.5 = coord(2/4)
    
    Content
    "Bin gestern im MoMA gewesen. Hab dann noch mal in der Tate vorbeigeschaut. Nachher dann noch einen Abstecher in die Alte Nationalgalerie gemacht. New York, London, Berlin an einem Tag, das ist dank Google kein Problem mehr. Auf der Plattform www.googleartproject.com bietet der Netz-Gigant jetzt einige virtuelle Museumsrundgänge durch einige der bekanntesten und bedeutendsten Häuser der Welt an. Googles neuestes Angebot unterscheidet sich von den in der Regel gut aufgestellten Homepages der Museen vor allem durch die Street-View-Technologie, mit der man von Raum zu Raum und von Bild zu Bild wandeln kann. Dazu hat der Besucher die Möglichkeit, zahlreiche Informationen zu den Kunstwerken abzurufen, oder die Werke in hochauflösenden Vergrößerungen anzuschauen. Aus jeder der teilnehmenden 17 Sammlungen hat Google ein Werk in einer Auflösung von sieben Milliarden Pixeln fotografiert. Wenn man da beim Rundgang durch die Alte Nationalgalerie auf Edouard Manets "Dans la Serre" (Im Wintergarten) trifft und nur einmal den Fingerring des Mannes heranzoomt, wird er gleichsam zur Unkenntlichkeit vergrößert, und man sieht wie unter einem Mikroskop jedes kleinste Detail des Farbauftrags, jeden feinsten Riss. Faszinierend. Auch wenn es das Original nicht ersetzt."
  13. Facettenreiche Mathematik : Einblicke in die moderne mathematische Forschung für alle, die mehr von Mathematik verstehen wollen (2011) 0.14
    0.13794024 = product of:
      0.2758805 = sum of:
        0.056447156 = weight(_text_:und in 1159) [ClassicSimilarity], result of:
          0.056447156 = score(doc=1159,freq=22.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.4063621 = fieldWeight in 1159, product of:
              4.690416 = tf(freq=22.0), with freq of:
                22.0 = termFreq=22.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1159)
        0.21943334 = weight(_text_:hartmann in 1159) [ClassicSimilarity], result of:
          0.21943334 = score(doc=1159,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.43994185 = fieldWeight in 1159, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0390625 = fieldNorm(doc=1159)
      0.5 = coord(2/4)
    
    Content
    Approximation von Funktionen /Dorothea Bahns - Einblicke in die Finanzmathematik: Optionsbewertung und Portfolio-Optimierung / Nicole Bäuerle und Luitgard A. M. Veraart - Polygone, Clusteralgebren und Clusterkategorien / Karin Baur - Modellieren und Quantifizieren von extremen Risiken / Vicky Fasen und Claudia Klüppelberg - Modellreduktion - mehr Simulation, weniger teure Prototypentests / Heike Faßbender - Diskrete Strukturen in Geometrie und Topologie / Eva-Maria Feichtner - Hindernis- und Kontaktprobleme / Corinna Hager und Barbara I. Wohlmuth - Symmetrien von Differentialgleichungen / Julia Hartmann - Mathematisches Potpourri rund um das Einsteigen ins Flugzeug / Anne Henke - Mit Mathematik zu verlässlichen Simulationen: numerische Verfahren zur Lösung zeitabhängiger Probleme / Marlis Hochbruck - Was wir alles für Gleichungen vom Grad drei (nicht) wissen - elliptische Kurven und die Vermutung von Birch und Swinnerton-Dyer / Annette Huber-Klawitter - Kugeln, Kegelschnitte, und was gibt es noch? / Priska Jahnke - "Diskret" optimierte Pläne im Alltag / Sigrid Knust - Mathematiker spinnen?! - Asymptotische Modellierung / Nicole Marheineke - Tropische Geometrie / Hannah Markwig - Dichte Kugelpackungen / Gabriele Nebe - Angewandte Analysis / Angela Stevens - Stochastische Modelle in der Populationsgenetik / Anja Sturm - Wo Symmetrie ist, da ist eine Gruppe nicht weit / Rebecca Waldecker - Wie fliegt ein Flugzeug besser? Moderne Fragestellungen der nichtlinearen Optimierung / Andrea Walther - ADE oder die Allgegenwart der Platonischen Körper / Katrin Wendland - Ein Ausflug in die p-adische Welt / Annette Wemer
  14. Fenner, M.; Hartmann, S.; Müller, U.; Pampel, H.; Reimer, T.; Scholze, F.; Summann, F.: Autorenidentifikation für wissenschaftliche Publikationen : Bericht über den Workshop der DINI-AG Elektronisches Publizieren auf dem 6. Bibliothekskongress (2016) 0.13
    0.13378581 = product of:
      0.26757163 = sum of:
        0.048138294 = weight(_text_:und in 4309) [ClassicSimilarity], result of:
          0.048138294 = score(doc=4309,freq=16.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.34654674 = fieldWeight in 4309, product of:
              4.0 = tf(freq=16.0), with freq of:
                16.0 = termFreq=16.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4309)
        0.21943334 = weight(_text_:hartmann in 4309) [ClassicSimilarity], result of:
          0.21943334 = score(doc=4309,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.43994185 = fieldWeight in 4309, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0390625 = fieldNorm(doc=4309)
      0.5 = coord(2/4)
    
    Abstract
    Identifikationssysteme für Autorinnen und Autoren spielen für das wissenschaftliche Publizieren eine zentrale Rolle. Sie erlauben die eindeutige Zuordnung von Publikationen zu ihren Urheberinnen und Urhebern, ermöglichen - auch auf übergreifenden Plattformen - gezielte Rechercheeinstiege und unterstützen die semantische Verknüpfung im Netz. Darüber hinaus können Autorenidentifikationssysteme zur einfachen Pflege von Publikationslisten und für die Forschungsevaluation genutzt werden. Neben zahlreichen proprietären Systemen von Verlagen und Datenbankbetreibern widmet sich im Wissenschaftsbereich die global agierende Initiative ORCID (Open Researcher and Contributer ID) der Vergabe einer eindeutigen ID für Forschende. Im deutschen Bibliothekswesen kommt zur Erschließung mit Personenbezug vor allem der Gemeinsamen Normdatei (GND) entscheidende Bedeutung zu. In den Open-Access-Repositorien deutscher Hochschulen und Forschungseinrichtungen hat sich die Verwendung übergreifender Autorenidentifikationssystemen dagegen bislang kaum durchgesetzt. Im Rahmen des 6. Bibliothekskongresses veranstaltete die AG Elektronisches Publizieren der Deutschen Initiative für Netzwerkinformation (DINI) am 15.03.2016 einen Workshop zu diesem Themenfeld. Die Referentinnen und Referenten haben das Thema Autorenidentifikation und deren Anwendungsszenarien aus unterschiedlichen Blickwinkeln beleuchtet. Der vorliegende Beitrag gibt einen Überblick über die Themen des Workshops.
  15. Bandholtz, T.; Schulte-Coerne, T.; Glaser, R.; Fock, J.; Keller, T.: iQvoc - open source SKOS(XL) maintenance and publishing tool (2010) 0.13
    0.13220409 = product of:
      0.26440817 = sum of:
        0.24058095 = weight(_text_:java in 1604) [ClassicSimilarity], result of:
          0.24058095 = score(doc=1604,freq=2.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            0.5450528 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1604)
        0.023827238 = weight(_text_:und in 1604) [ClassicSimilarity], result of:
          0.023827238 = score(doc=1604,freq=2.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.17153187 = fieldWeight in 1604, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.0546875 = fieldNorm(doc=1604)
      0.5 = coord(2/4)
    
    Abstract
    iQvoc is a new open source SKOS-XL vocabulary management tool developed by the Federal Environment Agency, Germany, and innoQ Deutschland GmbH. Its immediate purpose is maintaining and publishing reference vocabularies in the upcoming Linked Data cloud of environmental information, but it may be easily adapted to host any SKOS- XL compliant vocabulary. iQvoc is implemented as a Ruby on Rails application running on top of JRuby - the Java implementation of the Ruby Programming Language. To increase the user experience when editing content, iQvoc uses heavily the JavaScript library jQuery.
    Theme
    Konzeption und Anwendung des Prinzips Thesaurus
  16. Groß, M.; Rusch, B.: Open Source Programm Mable+ zur Analyse von Katalogdaten veröffentlicht (2011) 0.12
    0.12079327 = product of:
      0.24158654 = sum of:
        0.20621225 = weight(_text_:java in 1181) [ClassicSimilarity], result of:
          0.20621225 = score(doc=1181,freq=2.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            0.46718815 = fieldWeight in 1181, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
        0.03537428 = weight(_text_:und in 1181) [ClassicSimilarity], result of:
          0.03537428 = score(doc=1181,freq=6.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.25465882 = fieldWeight in 1181, product of:
              2.4494898 = tf(freq=6.0), with freq of:
                6.0 = termFreq=6.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.046875 = fieldNorm(doc=1181)
      0.5 = coord(2/4)
    
    Abstract
    Als eines der Ergebnisse der 2007 zwischen BVB und KOBV geschlossenen strategischen Allianz konnte am 12. September 2011 Mable+, eine Java-gestützte OpenSource-Software zur automatischen Daten- und Fehleranalyse von Bibliothekskatalogen, veröffentlicht werden. Basierend auf dem MAB-Datenaustauschformat ermöglicht Mable+ die formale Prüfung von Katalogdaten verbunden mit einer statistischen Auswertung über die Verteilung der Felder. Dazu benötigt es einen MAB-Abzug des Katalogs im MAB2-Bandformat mit MAB2-Zeichensatz. Dieses Datenpaket wird innerhalb weniger Minuten analysiert. Als Ergebnis erhält man einen Report mit einer allgemeinen Statistik zu den geprüften Datensätzen (Verteilung der Satztypen, Anzahl der MAB-Felder, u.a.), sowie eine Liste gefundener Fehler. Die Software wurde bereits bei der Migration der Katalogdaten aller KOBV-Bibliotheken in den B3Kat erfolgreich eingesetzt. Auf der Projekt-Webseite http://mable.kobv.de/ findet man allgemeine Informationen sowie diverse Anleitungen zur Nutzung des Programms. Die Software kann man sich unter http://mable.kobv.de/download.html herunterladen. Derzeit wird ein weiterführendes Konzept zur Nutzung und Modifizierung der Software entwickelt.
  17. ¬Die digitale Transformation in Institutionen des kulturellen Gedächtnisses : Antworten aus der Informationswissenschaft (2019) 0.11
    0.11413976 = product of:
      0.22827952 = sum of:
        0.05273286 = weight(_text_:und in 370) [ClassicSimilarity], result of:
          0.05273286 = score(doc=370,freq=30.0), product of:
            0.13890852 = queryWeight, product of:
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.062630676 = queryNorm
            0.37962294 = fieldWeight in 370, product of:
              5.477226 = tf(freq=30.0), with freq of:
                30.0 = termFreq=30.0
              2.217899 = idf(docFreq=13141, maxDocs=44421)
              0.03125 = fieldNorm(doc=370)
        0.17554666 = weight(_text_:hartmann in 370) [ClassicSimilarity], result of:
          0.17554666 = score(doc=370,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.35195348 = fieldWeight in 370, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.03125 = fieldNorm(doc=370)
      0.5 = coord(2/4)
    
    Abstract
    Die digitale Information - kaum ein Beitrag oder Kommentar ohne diesen Begriff - und oft ohne Sachkenntnis. Der Fachbereich Informationswissenschaften der Fachhochschule Potsdam hat sich dem Thema mit folgenden Fragen genähert: Was bedeutet die Digitale Transformation für die Informationswissenschaft? Wie sieht die Fachcommunity dies? Wie werden diese Überlegungen von der Öffentlichkeit wahrgenommen? Die Beiträge aus Deutschland, Österreich und der Schweiz vermitteln einen hervorragenden Einstieg in die Diskussion um die vorherrschenden Themen: Der elektronische Lesesaal, Soziale Netzwerke und Ethik, Digital Literacy, Agiles Lernen, Fake News bei Social Media, Digitale Transformation in der Verwaltung - Forderungen an Smart Cities, Open Innovation, Umbrüche in der Verwaltung und der Darstellung der Objekte in Museen u.a. Der Sammelband vermittelt einen Einblick in die Forderungen an die Zukunft und ihre Herausforderungen - nicht nur für Lehrende und Studierende, sondern für alle.
    Content
    Melanie Siegel: Von Informationswissenschaft zu Information Science - Mario Glauert: Quo vadis Lesesaal? Die digitale Transformation der Archivbenutzung - Stephan Holländer: Schweizer Bibliotheken und die digitale Transformation - Sara Matos, Sarah Portelinha, Charles-Antoine Chamay, Franck Topalian: Die Geisteswissenschaften und die Digitalisierung - Barbara Fischer: Die Kulturmanagerin von morgen. Gedanken zum Alltag eines Museumsmenschen im Jahr 2025 - Ursula Georgy: Möglichkeiten des Crowdsourcings in Bibliotheken durch Digitalisierung - Tobias Siebenlist, Agnes Mainka: Digitale Transformation in der Verwaltung: an Open Data geht kein Weg vorbei - Aylin Ilhan, Sarah Hartmann, Tuba Ciftci, Wolfgang G. Stock: Citizen Relationship Management in den USA und in Deutschland 311 - 115 ServiceApp -Cornelia Vonhof: Agiles Lernen - Filip Bak, Marlene Friedrich, Laura Lang, Antje Michel, Henning Prill, Romy Schreiber, Sophia Trinks, Franziska Witzig: Das Konzept der Digital Literacy und seine Relevanz für die Informationswissenschaften. Am Beispiel eines studentischen Projektkurses - Hermann Rösch: Soziale Netzwerke und Ethik: Problemdiagnose und Schlussfolgerungen - Franziska Zimmer, Katrin Scheibe, Lorenz Schmoly, Stefan Dreisiebner: Fake News im Zeitalter der Social Media
    Footnote
    Vgl. den Beitrag 'Wie sich die Informationswissenschaft in der digitalen Transformation behauptet: Zwei vielversprechende Ansätze, um sich immer wieder neu zu etablieren' von Willi Bredemeier unter: https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=748&wysijap=subscriptions&user_id=1045. Zweiter Teil als; 'Die Bibliotheken als Workspaces schlechthin' unter: https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=756&wysijap=subscriptions&user_id=1045. Dritter Teil als: 'Bürger und Kunden als Mitgestalter von Bibliotheken und Kommunalverwaltungen: "Privacy Paradox" und "Fake News" in Qualitätsmedien' unter: https://www.password-online.de/?wysija-page=1&controller=email&action=view&email_id=769&wysijap=subscriptions&user_id=1045.
  18. Poli, R.: Ontology as categorial analysis (2011) 0.08
    0.076801665 = product of:
      0.30720666 = sum of:
        0.30720666 = weight(_text_:hartmann in 819) [ClassicSimilarity], result of:
          0.30720666 = score(doc=819,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.6159186 = fieldWeight in 819, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0546875 = fieldNorm(doc=819)
      0.25 = coord(1/4)
    
    Abstract
    Ontological categories are organized along a number of different dimensions. The simplest is the distinction between categories that apply to all entities, both real and ideal, and categories that apply only to some families of entities. More complicated is the analysis of the relations that connect categories one to another. Two different exemplifications of the latter case are provided, i.e., the form of duality linking some paired categories and the relations of superformation and superconstruction that connect levels of reality. Furthermore, an in-depth analysis of the category of temporality is presented. Ideas previously advanced by Nicolai Hartmann are exploited throughout the paper.
  19. Scognamiglio, C.: Workshop on Levels of reality as a KO paradigm : "strata" and top categories for an ontologically oriented classification (2010) 0.05
    0.054858334 = product of:
      0.21943334 = sum of:
        0.21943334 = weight(_text_:hartmann in 512) [ClassicSimilarity], result of:
          0.21943334 = score(doc=512,freq=2.0), product of:
            0.49877805 = queryWeight, product of:
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.062630676 = queryNorm
            0.43994185 = fieldWeight in 512, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.963798 = idf(docFreq=41, maxDocs=44421)
              0.0390625 = fieldNorm(doc=512)
      0.25 = coord(1/4)
    
    Abstract
    In spite of its difficulty, communication between philosophy and classification - and more precisely between ontological research and knowledge organization - is conceptually very intriguing, and implies a lot of problems for scientific research. One of these, which is the object of discussion of this paper, is the theme of the "something" (the matter) of classification. After a quick examination of the debate around the alternative between classification of documents and of entities, the paper shows how every kind of rigorous classification must be supported by an ontology. An example of an ontological approach to knowledge classification is the implementation of the theory of levels of reality. Nicolai Hartmann's idea of a stratification of the real world is individuated as a robust support to the aim. However a theory of levels needs a set of general categories, common for all the levels. The aim of exploring the fundamental or top categories is pursued through a combination of the critical ontology elaborated by Hartmann and some notions from General System Theory.
  20. Croft, W.B.; Metzler, D.; Strohman, T.: Search engines : information retrieval in practice (2010) 0.05
    0.051553063 = product of:
      0.20621225 = sum of:
        0.20621225 = weight(_text_:java in 3605) [ClassicSimilarity], result of:
          0.20621225 = score(doc=3605,freq=2.0), product of:
            0.44139016 = queryWeight, product of:
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.062630676 = queryNorm
            0.46718815 = fieldWeight in 3605, product of:
              1.4142135 = tf(freq=2.0), with freq of:
                2.0 = termFreq=2.0
              7.0475073 = idf(docFreq=104, maxDocs=44421)
              0.046875 = fieldNorm(doc=3605)
      0.25 = coord(1/4)
    
    Abstract
    For introductory information retrieval courses at the undergraduate and graduate level in computer science, information science and computer engineering departments. Written by a leader in the field of information retrieval, Search Engines: Information Retrieval in Practice, is designed to give undergraduate students the understanding and tools they need to evaluate, compare and modify search engines. Coverage of the underlying IR and mathematical models reinforce key concepts. The book's numerous programming exercises make extensive use of Galago, a Java-based open source search engine. SUPPLEMENTS / Extensive lecture slides (in PDF and PPT format) / Solutions to selected end of chapter problems (Instructors only) / Test collections for exercises / Galago search engine

Languages

  • d 1631
  • e 220
  • a 1
  • More… Less…

Types

  • a 1381
  • el 403
  • m 280
  • x 74
  • s 60
  • r 26
  • n 8
  • i 3
  • b 2
  • p 2
  • v 2
  • ms 1
  • More… Less…

Themes

Subjects

Classifications